Co pokazuje ta lista
- Dokładny ciąg User-agent każdego ważnego crawlera AI, pobrany z dokumentacji dostawcy
- Czy każdy crawler respektuje robots.txt — i gdzie istnieją wyjątki
- Do czego służy każdy crawler: trening AI, indeks wyszukiwania AI, pobieranie inicjowane przez użytkownika, wyszukiwanie klasyczne lub zbiór danych współdzielony