Analiza pliku log
Analiza pliku log (log file analysis) to badanie surowych logów serwera w celu zrozumienia, jak roboty wyszukiwarek – przede wszystkim Googlebot – crawlują stronę. Pozwala zobaczyć które strony są odwiedzane, jak często, jakie zwracają kody HTTP i gdzie marnowany jest crawl budget.
Czym jest analiza pliku log?
Logi serwera to surowy zapis każdego zapytania HTTP do Twojego serwera – od użytkowników, botów, crawlerów i innych systemów. Analiza logów pod kątem SEO polega na wyodrębnieniu i zbadaniu aktywności Googlebota: które URL odwiedza, jak często, jakie kody statusu otrzymuje i w jakiej kolejności crawluje strony. To jedyne narzędzie, które pokazuje rzeczywiste zachowanie Googlebota na Twojej stronie – w odróżnieniu od Google Search Console, które pokazuje tylko zagregowane dane.
Jak przeprowadzić analizę logów serwera?
Analiza logów wymaga dostępu do plików log serwera i odpowiedniego narzędzia do ich parsowania. Pliki logów są zazwyczaj duże – dla aktywnych serwisów kilkaset MB dziennie – więc ręczna analiza jest niepraktyczna. Specjalistyczne narzędzia automatycznie filtrują logi i wizualizują dane istotne dla SEO.
- 1Pobierz logi serwera przez FTP/SSH lub panel hostingowy – szukaj pliku access.log lub access_log w katalogu /var/log/apache2/ lub /var/log/nginx/
- 2Użyj narzędzia Screaming Frog Log File Analyser lub Sitebulb do automatycznego parsowania logów – filtrują aktywność Googlebota i wizualizują dane
- 3Filtruj logi po User-Agent zawierającym 'Googlebot’ – to oddzieli ruch robota od użytkowników i innych botów
- 4Szukaj anomalii: stron crawlowanych zbyt często (marnowanie budżetu), ważnych stron crawlowanych rzadko lub wcale, masowych błędów 404 i 5xx
- 5Porównaj crawlowane URL z listą stron w sitemap – różnice wskazują problemy z linkowaniem wewnętrznym lub blokowaniem w robots.txt
Najczęstsze błędy
Poniżej najczęstsze błędy związane z analiza pliku log, które warto znać i unikać w codziennej pracy SEO.
- Brak dostępu do logów serwera – Wiele hostingów współdzielonych nie udostępnia surowych logów lub usuwa je po krótkim czasie. Upewnij się że Twój hosting daje dostęp do logów – to podstawa technicznego audytu SEO.
- Analiza tylko jednego dnia logów – Jeden dzień logów to za mało – aktywność Googlebota jest nieregularna. Analizuj minimum 2-4 tygodnie logów, żeby zobaczyć pełny wzorzec crawlowania.
- Ignorowanie botów innych niż Googlebot – Inne boty (Bingbot, AhrefsBot, SemrushBot) też crawlują stronę i mogą marnować zasoby serwera. Analiza logów pozwala zidentyfikować i zablokować agresywne boty.
- Brak regularnej analizy logów – Jednorazowa analiza to za mało – logi warto sprawdzać regularnie (co miesiąc lub po dużych zmianach na stronie) żeby wychwycić zmiany w zachowaniu Googlebota.
Często zadawane pytania
Poniżej odpowiedzi na najczęściej zadawane pytania dotyczące Analiza pliku log.
Gdzie znajdę pliki log serwera?
Czym różni się analiza logów od Google Search Console?
Jak duże są pliki logów i jak je otworzyć?
Co to jest crawl budget i jak logi pomagają go optymalizować?
Powiązane hasła w słowniku SEO
Analiza pliku log jest powiązane z wieloma innymi pojęciami SEO. Poznaj je, aby lepiej rozumieć cały ekosystem pozycjonowania.
Powiązane artykuły na blogu
Jeśli chcesz dowiedzieć się więcej o analiza pliku log, zajrzyj do poniższych artykułów.