Słownik SEO – Techniczne SEO

Analiza pliku log

Analiza pliku log (log file analysis) to badanie surowych logów serwera w celu zrozumienia, jak roboty wyszukiwarek – przede wszystkim Googlebot – crawlują stronę. Pozwala zobaczyć które strony są odwiedzane, jak często, jakie zwracają kody HTTP i gdzie marnowany jest crawl budget.

Czas czytania: ok. 5 minutKategoria: Techniczne SEO

Czym jest analiza pliku log?

Logi serwera to surowy zapis każdego zapytania HTTP do Twojego serwera – od użytkowników, botów, crawlerów i innych systemów. Analiza logów pod kątem SEO polega na wyodrębnieniu i zbadaniu aktywności Googlebota: które URL odwiedza, jak często, jakie kody statusu otrzymuje i w jakiej kolejności crawluje strony. To jedyne narzędzie, które pokazuje rzeczywiste zachowanie Googlebota na Twojej stronie – w odróżnieniu od Google Search Console, które pokazuje tylko zagregowane dane.

Crawl budget
Analiza logów pokazuje dokładnie ile stron Googlebot crawluje dziennie i czy marnuje ten budżet na strony bez wartości SEO – parametryzowane URL, strony techniczne, błędy 404.
Częstotliwość crawlowania
Logi pokazują które strony Googlebot odwiedza codziennie, które co tydzień, a których nie odwiedza wcale. Strony ważne SEO powinny być crawlowane regularnie.
Kody statusu HTTP
Rzeczywiste kody HTTP zwracane Googlebotowi – 200, 301, 404, 500. Masowe błędy 5xx czy łańcuchy 301 widoczne w logach to sygnał problemów technicznych.
Nieindeksowane strony
Strony, które Googlebot nigdy nie odwiedził lub odwiedził raz dawno temu, mimo że są ważne SEO – sygnał problemów z linkowaniem wewnętrznym lub crawl budgetem.

Jak przeprowadzić analizę logów serwera?

Analiza logów wymaga dostępu do plików log serwera i odpowiedniego narzędzia do ich parsowania. Pliki logów są zazwyczaj duże – dla aktywnych serwisów kilkaset MB dziennie – więc ręczna analiza jest niepraktyczna. Specjalistyczne narzędzia automatycznie filtrują logi i wizualizują dane istotne dla SEO.

  • 1Pobierz logi serwera przez FTP/SSH lub panel hostingowy – szukaj pliku access.log lub access_log w katalogu /var/log/apache2/ lub /var/log/nginx/
  • 2Użyj narzędzia Screaming Frog Log File Analyser lub Sitebulb do automatycznego parsowania logów – filtrują aktywność Googlebota i wizualizują dane
  • 3Filtruj logi po User-Agent zawierającym 'Googlebot’ – to oddzieli ruch robota od użytkowników i innych botów
  • 4Szukaj anomalii: stron crawlowanych zbyt często (marnowanie budżetu), ważnych stron crawlowanych rzadko lub wcale, masowych błędów 404 i 5xx
  • 5Porównaj crawlowane URL z listą stron w sitemap – różnice wskazują problemy z linkowaniem wewnętrznym lub blokowaniem w robots.txt

Najczęstsze błędy

Poniżej najczęstsze błędy związane z analiza pliku log, które warto znać i unikać w codziennej pracy SEO.

  • Brak dostępu do logów serwera – Wiele hostingów współdzielonych nie udostępnia surowych logów lub usuwa je po krótkim czasie. Upewnij się że Twój hosting daje dostęp do logów – to podstawa technicznego audytu SEO.
  • Analiza tylko jednego dnia logów – Jeden dzień logów to za mało – aktywność Googlebota jest nieregularna. Analizuj minimum 2-4 tygodnie logów, żeby zobaczyć pełny wzorzec crawlowania.
  • Ignorowanie botów innych niż Googlebot – Inne boty (Bingbot, AhrefsBot, SemrushBot) też crawlują stronę i mogą marnować zasoby serwera. Analiza logów pozwala zidentyfikować i zablokować agresywne boty.
  • Brak regularnej analizy logów – Jednorazowa analiza to za mało – logi warto sprawdzać regularnie (co miesiąc lub po dużych zmianach na stronie) żeby wychwycić zmiany w zachowaniu Googlebota.

Często zadawane pytania

Poniżej odpowiedzi na najczęściej zadawane pytania dotyczące Analiza pliku log.

Gdzie znajdę pliki log serwera?
Lokalizacja zależy od serwera i hostingu. Na Apache typowo /var/log/apache2/access.log, na Nginx /var/log/nginx/access.log. W panelach hostingowych (cPanel, Plesk) szukaj sekcji 'Logi’ lub 'Statystyki’. Przy hostingu współdzielonym możesz potrzebować pomocy supportu – nie wszystkie hostingi dają bezpośredni dostęp do surowych logów.
Czym różni się analiza logów od Google Search Console?
Google Search Console pokazuje zagregowane dane o tym co Google zaindeksował i jakie ma problemy – ale tylko to co Google zdecydował się pokazać. Logi serwera pokazują dosłownie każde zapytanie Googlebota w czasie rzeczywistym – włącznie ze stronami, o których GSC nie wspomina. Logi są dokładniejsze i bardziej szczegółowe, ale trudniejsze w obsłudze.
Jak duże są pliki logów i jak je otworzyć?
Dla aktywnych serwisów logi mogą mieć kilkaset MB do kilku GB dziennie – za duże dla Excela czy Notatnika. Użyj dedykowanych narzędzi: Screaming Frog Log File Analyser (płatny), GoAccess (darmowy, terminalowy) lub Splunk (enterprise). Możesz też filtrować logi w terminalu komendą grep 'Googlebot’ access.log > googlebot.log.
Co to jest crawl budget i jak logi pomagają go optymalizować?
Crawl budget to przybliżona liczba stron, które Googlebot jest gotowy crawlować na Twojej stronie w danym czasie. Logi pokazują dokładnie jak ten budżet jest wydawany – ile na strony z wartością SEO, ile na błędy 404, parametryzowane URL czy zduplikowane strony. Optymalizacja polega na blokowaniu w robots.txt stron bez wartości, żeby Googlebot skupił się na ważnych stronach.

Powiązane hasła w słowniku SEO

Analiza pliku log jest powiązane z wieloma innymi pojęciami SEO. Poznaj je, aby lepiej rozumieć cały ekosystem pozycjonowania.

Powiązane artykuły na blogu

Jeśli chcesz dowiedzieć się więcej o analiza pliku log, zajrzyj do poniższych artykułów.