Vai al contenuto principale
🇮🇹

Elenco User-Agent Crawler IA

Elenco di riferimento di ogni crawler e user-agent IA importante — cosa fanno, chi li gestisce e se rispettano robots.txt.

21 crawler mostrati
User-agentFornitore
GPTBotOpenAI
OAI-SearchBotOpenAI
ChatGPT-UserOpenAI
ClaudeBotAnthropic
Claude-SearchBotAnthropic
Claude-UserAnthropic
Google-ExtendedGoogle
GoogleOtherGoogle
GooglebotGoogle
PerplexityBotPerplexity
Perplexity-UserPerplexity
ApplebotApple
Applebot-ExtendedApple
CCBotCommon Crawl
Meta-ExternalAgentMeta
Meta-ExternalFetcherMeta
BytespiderByteDance
AmazonbotAmazon
DuckAssistBotDuckDuckGo
MistralAI-UserMistral
YouBotYou.com
robots.txt
# AI crawler block list — generated from clickfrom.ai/tools/ai-crawler-user-agent-list
# Remove the Disallow line for any crawler you want to allow.

# OpenAI — Crawls public web pages to improve OpenAI foundation models.
# Source: https://platform.openai.com/docs/bots
User-agent: GPTBot
Disallow: /

# OpenAI — Indexes web pages so ChatGPT search and SearchGPT can cite them.
# Source: https://platform.openai.com/docs/bots
User-agent: OAI-SearchBot
Disallow: /

# OpenAI — Fetches a page on the spot when a ChatGPT user asks the assistant about a specific URL.
# Source: https://platform.openai.com/docs/bots
User-agent: ChatGPT-User
Disallow: /

# Anthropic — Crawls public web pages for Anthropic foundation-model training.
# Source: https://support.anthropic.com/en/articles/8896518-does-anthropic-crawl-data-from-the-web-and-how-can-site-owners-block-the-crawler
User-agent: ClaudeBot
Disallow: /

# Anthropic — Indexes web pages so Claude can cite them in search-like answers.
# Source: https://support.anthropic.com/en/articles/8896518-does-anthropic-crawl-data-from-the-web-and-how-can-site-owners-block-the-crawler
User-agent: Claude-SearchBot
Disallow: /

# Anthropic — Fetches a page on the spot when a Claude user asks the assistant about a specific URL.
# Source: https://support.anthropic.com/en/articles/8896518-does-anthropic-crawl-data-from-the-web-and-how-can-site-owners-block-the-crawler
User-agent: Claude-User
Disallow: /

# Google — Opt-out token (not a real user-agent) controlling whether Gemini and Vertex AI may train on your content.
# Source: https://developers.google.com/search/docs/crawling-indexing/google-common-crawlers#google-extended
User-agent: Google-Extended
Disallow: /

# Google — Internal R&D and product-team crawls outside of Search and Ads.
# Source: https://developers.google.com/search/docs/crawling-indexing/google-common-crawlers#googleother
User-agent: GoogleOther
Disallow: /

# Google — Classical Google Search indexer. Powers AI Overviews via the same index.
# Source: https://developers.google.com/search/docs/crawling-indexing/googlebot
User-agent: Googlebot
Disallow: /

# Perplexity — Indexes web pages so Perplexity can surface them as cited sources in answers.
# Source: https://docs.perplexity.ai/guides/bots
User-agent: PerplexityBot
Disallow: /

# Perplexity — Fetches a page on the spot when a Perplexity user asks the assistant about a specific URL.
# Source: https://docs.perplexity.ai/guides/bots
User-agent: Perplexity-User
Disallow: /

# Apple — Powers Siri, Spotlight, and Safari Suggestions search.
# Source: https://support.apple.com/en-us/119829
User-agent: Applebot
Disallow: /

# Apple — Opt-out token controlling whether Apple Intelligence may train on your content.
# Source: https://support.apple.com/en-us/119829
User-agent: Applebot-Extended
Disallow: /

# Common Crawl — Bulk crawl of the public web. Downstream datasets feed many AI model training pipelines (including some at OpenAI, Anthropic, and academic groups).
# Source: https://commoncrawl.org/ccbot
User-agent: CCBot
Disallow: /

# Meta — Crawls public web pages for Meta AI (Llama family) training and indexing.
# Source: https://developers.facebook.com/docs/sharing/webmasters/web-crawlers/
User-agent: Meta-ExternalAgent
Disallow: /

# Meta — Fetches a page on the spot when a Meta AI user asks the assistant about a specific URL.
# Source: https://developers.facebook.com/docs/sharing/webmasters/web-crawlers/
User-agent: Meta-ExternalFetcher
Disallow: /

# ByteDance — Crawls public web pages for ByteDance's foundation-model training (Doubao and related models).
# Source: https://bytespider.bytedance.com/
User-agent: Bytespider
Disallow: /

# Amazon — Powers Alexa and other Amazon answer/AI experiences.
# Source: https://developer.amazon.com/amazonbot
User-agent: Amazonbot
Disallow: /

# DuckDuckGo — Indexes web pages so DuckAssist can summarize them in DuckDuckGo answers.
# Source: https://duckduckgo.com/duckduckgo-help-pages/results/duckassistbot/
User-agent: DuckAssistBot
Disallow: /

# Mistral — Fetches a page on the spot when a Mistral Le Chat user asks the assistant about a specific URL.
# Source: https://docs.mistral.ai/robots/
User-agent: MistralAI-User
Disallow: /

# You.com — Indexes web pages for You.com AI search and chat.
# Source: https://about.you.com/youbot/
User-agent: YouBot
Disallow: /

Cosa mostra questa lista

  • La stringa User-agent esatta di ogni crawler IA importante, presa dalla documentazione del fornitore
  • Se ogni crawler rispetta robots.txt — e dove esistono eccezioni
  • A cosa serve ogni crawler: addestramento IA, indice di ricerca IA, recupero avviato dall'utente, ricerca classica o dataset condiviso

Perché conta una lista di crawler con fonti

Le regole robots.txt funzionano solo se scrivi lo User-agent esattamente come il crawler si annuncia. Un errore di battitura («GPT-Bot» invece di «GPTBot») fallisce silenziosamente. Questa lista prende ogni nome direttamente dai documenti pubblici del fornitore in modo che il tuo robots.txt faccia davvero ciò che intendi.

Come i merchant usano questa lista

  • Incolla il blocco filtrato «Copia come robots.txt» nel tuo override Shopify robots.txt.liquid per bloccare i crawler che non vuoi
  • Per Google-Extended e Applebot-Extended: sono token robots.txt — non compaiono mai nei tuoi log di accesso
  • Esegui /tools/robots-analyzer contro il tuo robots.txt attuale per verificare che i crawler giusti siano consentiti o bloccati

Errori comuni da evitare

  • Bloccare Googlebot per optare fuori da AI Overviews — non c'è uno UA separato per AI Overviews; bloccare Googlebot ti rimuove anche dalla ricerca Google classica
  • Assumere che i fetcher avviati dall'utente rispettino robots.txt — Perplexity-User esplicitamente non lo fa
  • Copiare una stringa UA da un post di blog senza controllare la fonte del fornitore — i nomi cambiano, i blog invecchiano

FAQ lista crawler IA

Dovrei bloccare i crawler IA nel mio negozio Shopify?

Di solito no — la maggior parte dei crawler IA è il modo in cui gli acquirenti ti trovano nelle risposte di ChatGPT, Perplexity, Claude e Gemini. Blocca solo i crawler il cui valore per il tuo negozio è incerto (es. Bytespider) o i cui token di opt-out (Google-Extended, Applebot-Extended) hai deciso di non partecipare all'addestramento.

Con che frequenza viene aggiornata questa lista?

Ogni volta che un fornitore pubblica un nuovo crawler, ne deprezza uno o cambia il suo comportamento dichiarato di robots.txt. Ogni voce rimanda alla fonte del fornitore per verifica diretta.

Perché alcune voci sono contrassegnate come «parziale» o «non chiaro»?

Perché il comportamento dichiarato dal fornitore e gli audit di terze parti non concordano, o il fornitore non ha pubblicato una posizione chiara. Non fabbrichiamo un «sì» pulito quando la realtà è più complicata.