Was diese Liste zeigt
- Den exakten User-Agent-String jedes wichtigen AI-Crawlers, aus Anbieterdokumentation übernommen
- Ob jeder Crawler robots.txt respektiert — und wo Ausnahmen bestehen
- Wofür jeder Crawler dient: AI-Training, AI-Suchindex, benutzerinitiierter Abruf, klassische Suche oder geteilter Datensatz