Анализ логов сайта с помощью Screaming Frog SEO Log File Analyser

in SЕО, Обзоры

Зачем нужно анализировать логи сайта и с помощью каких инструментов это можно сделать, я уже писала вам в этой статье.

В наше время немногие способны проанализировать логи сайта, а тем более вручную (как это делалось раньше). Но иногда это сделать необходимо и даже очень полезно, ведь работая с логами вы сталкиваетесь с первичной информацией: каждое посещение сайта роботом и человеком отображается в них полностью.

Что же они могут рассказать? Давайте рассмотрим на примере. Вот как выглядит одна строчка из журнала:
Что содержат тоги сайта

  • Домен;
  • IP-адрес, с которого был переход;
  • точное время посещения запроса;
  • сама страница, которая была посещена краулером;
  • код ответа, с которыми сталкиваются и роботы, и люди;
  • размер страницы в байтах;
  • user-agent — имя клиента, который обратился к серверу, с помощью которого можно узнать какой браузер и робот обращался к странице.

А теперь представьте, как выглядят логи, которые содержат не пару посещений, а несколько сотен, а то и тысяч посещений робота.
Файл логов сайтаОчень сложно анализировать такие данные вручную, не правда ли?
Я не говорю, что это невозможно. Вот только потратите на этот анализ вы очень много времени.

К счастью, сейчас уже есть масса инструментов для анализа логов сайта, как платных, так и бесплатных. Пересмотрев несколько из них, я остановилась на инструменте от Screaming Frog — SEO Log File Analyser. Именно ему и посвящен мой сегодняшний обзор.

Инструмент платный: 1 лицензия – 99$ в год. Но есть и бесплатная версия, которая имеет некоторые ограничения:

  • 1 проект;
  • Всего 1000 строк в журнале событий;
  • Отсутствует бесплатная техническая поддержка.

Узнать более подробную информацию и скачать программу можно здесь.

Если думаете, что программа сделает все за вас, то вы ошибаетесь. Да, она сделает большую часть работы, т.е. соберет все данные в кучу и представит их в удобном и понятном виде. А вам останется самая главная задача – проанализировать эти данные, сделать выводы и составить рекомендации.

Что же все-таки делает этот инструмент?

  • Определяет просканированные URL: узнайте, какие именно ссылки Googlebot и другие поисковые роботы могут сканировать, когда и как часто.

Просканированные URL

  • Показывает частоту сканирования: узнайте какие страницы поисковые роботы посещают наиболее часто и сколько URL-адресов сканируются каждый день.
  • Находит неработающие ссылки и ошибки: показывает все коды ответов, неработающие ссылки и ошибки, с которыми роботы поисковых систем столкнулись при сканировании сайта.
Читайте также  Обзор мастер-класса по эффективному email-маркетингу для бизнеса

Находит неработающие ссылки и ошибки

  • Проверяет наличие редиректов: находит временные и постоянные редиректы, с которыми сталкиваются поисковые роботы.
  • Помогает оптимизировать краулинговый бюджет: покажет ваши наиболее и наименее часто просканированные URL, с целью выявить потери и повысить эффективность сканирования.
  • Находит неотсканированные урлы и страницы-сироты: можно импортировать список URL-адресов и сравнить их с данными логов для выявления неизвестных страниц или URL-адресов, которые Googlebot не в состоянии обработать.
  • Позволяет объединить и сравнить любые данные.

Итак, приступим. Думаю, с установкой программы у вас не возникнет проблем. Поэтому переходим к основному этапу – загрузке данных.

Импортировать можно 2 вида данных:

  • лог-файлы;
  • список URL (в excel формате).

Для начала, расскажу, как импортировать файлы логов.

Прежде всего, вам потребуется достать с сервера лог-файлы (access.log) вашего сайта. Они часто хранятся в папке /logs/ или /access_logs/, и через FTP вы можете загрузить эти файлы на ваш компьютер.

Для того, чтобы у вас было достаточно данных для анализа, я бы порекомендовала использовать лог-файлы за месяц.

После того как вы их скачали просто нажимаете кнопку «Import» и выбираете пункт «Log file».

Далее после загрузки данных, вам нужно будет придумать название проекту (тут делайте как удобно, главное чтоб потом было понятно) и выбрать часовой пояс.
Вводим название проекта, часовой поясПосле этого появится главное окно панели управления:
Главное окно панели управленияЗдесь вы можете сразу увидеть, какие поисковые роботы заходили на ваш сайт и как часто, сколько страниц они посещают и т.д.

После этого вы можете переходить к более глубокому анализу. Например, можно определить, какие URL-адреса наиболее медленно загружаются, а какие очень часто посещаются.

Также можно увидеть  какие коды ответов отдают ссылки. Для этого переходите на вкладку «Response Codes», где у вас есть возможность отфильтровать урлы по типу кода. Таким образом, вы можете найти ошибки.
Коды ответов, которые отдают ссылкиА также я обнаружила интересную штуку ☺ При нажатии правой кнопкой на ссылку появляются такие возможности:

  • Скопировать ссылку;
  • Открыть урл в браузере;
  • Проверить на наличие в индексе ПС (Google, Yahoo, Bing);
  • Просмотреть внешние ссылки, ведущие конкретно на эту страницу;
  • Открыть файл robots.txt и др.
Читайте также  Обзор облачного сервиса для владельцев интернет-бизнеса vaddox.com

Полный список вы можете увидеть на следующем скриншоте:
Интересная находка, скриминг фрогСкопировать и открыть ссылку это конечно стандартные вещи. А вот проверить на наличие в индексе или одной кнопкой перейти к robots.txt – это уже интересно. А главное, очень удобно.

Теперь расскажу о втором способе импорта — загрузке списка  URL в excel формате. Зачем это нужно подумаете вы?

В программе есть возможность импортировать URL-адреса из различных источников и объединить их с файлом логов для более сложного анализа. После того как вы их импортировали программа может показать URL-адреса, которые совпадают или не совпадают в этих наборах данных.

При таком сравнении вы можете проанализировать сайт для целого ряда различных вопросов:

  • Какие страницы на вашем сайте посещаются чаще всего? Или какие страницы не посещались роботом вообще?
  • Все ли URL-адреса из XML-карты сайта  робот посетил? Если нет, то почему?
  • Как часто обновления карты сайта проверяются роботом?
  • При изменении страницы, сколько времени пройдет от повторного обхода до момента, когда индекс поиска обновится?
  • Как влияет новые ссылки на скорость сканирования?
  • Как быстро вновь запущенный сайт или раздел сайта будет просканирован?

И многие другие вопросы.

Потенциал для анализа практически не ограничен. Сравнивая любые данные, вы можете получить значимое представление о взаимодействии вашего сайта с поисковыми роботами. А это, в свою очередь, позволяет обнаружить проблемы на вашем сайте, которые другие SEO-инструменты не смогли бы так просто найти.

Итак, в целом можно сказать, что файлы логов содержат огромное количество информации, которая может помочь вам проанализировать производительность вашего сайта и избежать некоторых ошибок. А Screaming Frog SEO Log File Analyser поможет вам в этом анализе.

2 анекдота в рассылке Гарантированно!
А также получайте всевозможные бонусы, бесплатные билеты и скидки на конференции!