Анализ логов сайта с помощью Screaming Frog SEO Log File Analyser

Отправим материал вам на EMail:


    Время чтения: 5 мин.

    В наше время немногие способны проанализировать логи сайта, а тем более вручную (как это делалось раньше). Но иногда это сделать необходимо и даже очень полезно, ведь работая с логами вы сталкиваетесь с первичной информацией: каждое посещение сайта роботом и человеком отображается в них полностью.

    Что же они могут рассказать? Давайте рассмотрим на примере. Вот как выглядит одна строчка из журнала:
    Что содержат тоги сайта

    • Домен;
    • IP-адрес, с которого был переход;
    • точное время посещения запроса;
    • сама страница, которая была посещена краулером;
    • код ответа, с которыми сталкиваются и роботы, и люди;
    • размер страницы в байтах;
    • user-agent — имя клиента, который обратился к серверу, с помощью которого можно узнать какой браузер и робот обращался к странице.

    А теперь представьте, как выглядят логи, которые содержат не пару посещений, а несколько сотен, а то и тысяч посещений робота.
    Файл логов сайтаОчень сложно анализировать такие данные вручную, не правда ли?
    Я не говорю, что это невозможно. Вот только потратите на этот анализ вы очень много времени.

    К счастью, сейчас уже есть масса инструментов для анализа логов сайта, как платных, так и бесплатных. Пересмотрев несколько из них, я остановилась на инструменте от Screaming Frog – SEO Log File Analyser. Именно ему и посвящен мой сегодняшний обзор.

    Инструмент платный: 1 лицензия – 99$ в год. Но есть и бесплатная версия, которая имеет некоторые ограничения:

    • 1 проект;
    • Всего 1000 строк в журнале событий;
    • Отсутствует бесплатная техническая поддержка.

    Узнать более подробную информацию и скачать программу можно здесь.

    Если думаете, что программа сделает все за вас, то вы ошибаетесь. Да, она сделает большую часть работы, т.е. соберет все данные в кучу и представит их в удобном и понятном виде. А вам останется самая главная задача – проанализировать эти данные, сделать выводы и составить рекомендации.

    Что же все-таки делает этот инструмент?

    • Определяет просканированные URL: узнайте, какие именно ссылки Googlebot и другие поисковые роботы могут сканировать, когда и как часто.

    Просканированные URL

    • Показывает частоту сканирования: узнайте какие страницы поисковые роботы посещают наиболее часто и сколько URL-адресов сканируются каждый день.
    • Находит неработающие ссылки и ошибки: показывает все коды ответов, неработающие ссылки и ошибки, с которыми роботы поисковых систем столкнулись при сканировании сайта.

    Находит неработающие ссылки и ошибки

    • Проверяет наличие редиректов: находит временные и постоянные редиректы, с которыми сталкиваются поисковые роботы.
    • Помогает оптимизировать краулинговый бюджет: покажет ваши наиболее и наименее часто просканированные URL, с целью выявить потери и повысить эффективность сканирования.
    • Находит неотсканированные урлы и страницы-сироты: можно импортировать список URL-адресов и сравнить их с данными логов для выявления неизвестных страниц или URL-адресов, которые Googlebot не в состоянии обработать.
    • Позволяет объединить и сравнить любые данные.

    Итак, приступим. Думаю, с установкой программы у вас не возникнет проблем. Поэтому переходим к основному этапу – загрузке данных.

    Импортировать можно 2 вида данных:

    • лог-файлы;
    • список URL (в excel формате).

    Для начала, расскажу, как импортировать файлы логов.

    Прежде всего, вам потребуется достать с сервера лог-файлы (access.log) вашего сайта. Они часто хранятся в папке /logs/ или /access_logs/, и через FTP вы можете загрузить эти файлы на ваш компьютер.

    Для того, чтобы у вас было достаточно данных для анализа, я бы порекомендовала использовать лог-файлы за месяц.

    После того как вы их скачали просто нажимаете кнопку «Import» и выбираете пункт «Log file».

    Далее после загрузки данных, вам нужно будет придумать название проекту (тут делайте как удобно, главное чтоб потом было понятно) и выбрать часовой пояс.
    Вводим название проекта, часовой поясПосле этого появится главное окно панели управления:
    Главное окно панели управленияЗдесь вы можете сразу увидеть, какие поисковые роботы заходили на ваш сайт и как часто, сколько страниц они посещают и т.д.

    После этого вы можете переходить к более глубокому анализу. Например, можно определить, какие URL-адреса наиболее медленно загружаются, а какие очень часто посещаются.

    Также можно увидеть  какие коды ответов отдают ссылки. Для этого переходите на вкладку «Response Codes», где у вас есть возможность отфильтровать урлы по типу кода. Таким образом, вы можете найти ошибки.
    Коды ответов, которые отдают ссылкиА также я обнаружила интересную штуку ☺ При нажатии правой кнопкой на ссылку появляются такие возможности:

    • Скопировать ссылку;
    • Открыть урл в браузере;
    • Проверить на наличие в индексе ПС (Google, Yahoo, Bing);
    • Просмотреть внешние ссылки, ведущие конкретно на эту страницу;
    • Открыть файл robots.txt и др.

    Полный список вы можете увидеть на следующем скриншоте:
    Интересная находка, скриминг фрогСкопировать и открыть ссылку это конечно стандартные вещи. А вот проверить на наличие в индексе или одной кнопкой перейти к robots.txt – это уже интересно. А главное, очень удобно.

    Теперь расскажу о втором способе импорта – загрузке списка  URL в excel формате. Зачем это нужно подумаете вы?

    В программе есть возможность импортировать URL-адреса из различных источников и объединить их с файлом логов для более сложного анализа. После того как вы их импортировали программа может показать URL-адреса, которые совпадают или не совпадают в этих наборах данных.

    При таком сравнении вы можете проанализировать сайт для целого ряда различных вопросов:

    • Какие страницы на вашем сайте посещаются чаще всего? Или какие страницы не посещались роботом вообще?
    • Все ли URL-адреса из XML-карты сайта  робот посетил? Если нет, то почему?
    • Как часто обновления карты сайта проверяются роботом?
    • При изменении страницы, сколько времени пройдет от повторного обхода до момента, когда индекс поиска обновится?
    • Как влияет новые ссылки на скорость сканирования?
    • Как быстро вновь запущенный сайт или раздел сайта будет просканирован?

    И многие другие вопросы.

    Потенциал для анализа практически не ограничен. Сравнивая любые данные, вы можете получить значимое представление о взаимодействии вашего сайта с поисковыми роботами. А это, в свою очередь, позволяет обнаружить проблемы на вашем сайте, которые другие SEO-инструменты не смогли бы так просто найти.

    Итак, в целом можно сказать, что файлы логов содержат огромное количество информации, которая может помочь вам проанализировать производительность вашего сайта и избежать некоторых ошибок. А Screaming Frog SEO Log File Analyser поможет вам в этом анализе.

    5/5 - (4 голоса)