Gdy administruje się dużymi stronami internetowymi raz na czas np. po większych zmianach w konfiguracji zachodzi potrzeba sprawdzenia czy na stronie nie ma stron prowadzących donikąd. O ile w małych serwisach można samemu szybko przeklikać się przez stronkę to dla starych rozrośniętych serwisów nie jest to takie proste.
Jest kilka narzędzi których można użyć do testowania linków na stronach - każde z nich ma swoje zalety i wady, postaram się je przybliżyć.
wget
Wget’a najprawdopodobniej już masz i możesz zaczynać:
wget -o /tmp/wget.log -nv -r -p http://example.com
W pliku /tmp/wget.log możemy znaleźć komunikaty błędów i na dobrą sprawę tyle. Ciężko to przetworzyć ale jeśli nasz serwis ma mechanizm do np. mailowego powiadomienia w momencie wystąpienia krytycznego błędu to wget’em najszybciej można takie strony wyłapać.
linkchecker
Uruchamia się go tak:
linkchecker -t3 --no-warnings http://example.com
Program jakoś nie przypadł mi do gustu - działał cholernie wolno i to na całkiem małej stronie.
linklint
Z trzech programów ten ma najdziwniejszą składnię - ale da się tego nauczyć, a możliwości ma chyba najwięcej.
linklint -error -warn -xref -forward -out report.txt -net -http -host example.com /@
Wystarczająco szybki i generuje przejrzyste raporty.przejrzyste raporty.