Web agentico 2026: il tuo sito è pronto per gli AI agent?
Negli ultimi mesi è cambiato qualcosa di silenzioso ma significativo nel tipo di visitatori che arrivano sul tuo sito. Non sono solo persone con un browser e una tastiera. Sempre più spesso sono agenti AI che leggono, confrontano, decidono e a volte comprano al posto di qualcuno. A maggio 2026 Cloudflare ha dedicato un'intera settimana di annunci a questo scenario, la cosiddetta "Agents Week", e ha introdotto un concetto destinato a diventare familiare a chiunque gestisca un sito: l'Agent Readiness score.
Il punto non è "Cloudflare ha lanciato un prodotto". Il punto è che il web sta diventando agentico, e chi gestisce un sito ha qualche mese per capire cosa significa prima che la cosa diventi visibile nelle analytics.
Cos'è il web agentico
Il web agentico, o "agentic web", è la trasformazione in corso di internet da rete pensata per umani a rete in cui agenti AI navigano, leggono, prenotano, comprano e interagiscono al posto dell'utente. Non si tratta di un crawler che indicizza pagine: un agent è un'entità con un obiettivo, che prende decisioni in autonomia e usa strumenti per arrivare al risultato. Ti compra il volo, ti prenota la cena, confronta tre hosting e sceglie quello che risponde meglio ai tuoi vincoli.
Per chi possiede un sito, la conseguenza è concreta. Il "visitatore tipo" non è più solo un essere umano con browser, JavaScript, mouse e cookie. È anche, sempre più spesso, un agente AI che fa una richiesta HTTP, legge il markup, segue link e in pochi millisecondi decide se il tuo contenuto risponde alla richiesta del suo principal (la persona o il sistema che lo ha incaricato).
Cosa è cambiato a maggio 2026
Durante l'Agents Week 2026, conclusa il 9 maggio, Cloudflare ha presentato un pacchetto di strumenti che disegnano per la prima volta un'infrastruttura nativa per AI agent:
- Browser Run sostituisce il vecchio Browser Rendering: sandbox browser per agent con session recording, modalità "human in the loop" e quattro volte più concorrenza.
- Cloudflare Agent Memory: memoria persistente managed per gli agent, così possono ricordare le interazioni e migliorare nel tempo.
- Cloudflare Mesh: rete privata pensata specificamente per AI agent, sviluppatori e infrastruttura multi-cloud.
- Cloudflare Registrar API in beta: API per registrare domini direttamente da un agent, sì, gli AI possono ora comprare il loro dominio in autonomia.
- Email Service in public beta: agent che inviano e ricevono email senza dover configurare un SMTP esterno.
- AI Search e Artifacts: search e storage versionato (Git-compatible) pensati per workflow di agent.
Ma il pezzo più interessante per chi gestisce un sito è uno solo: l'Agent Readiness score, un indicatore pubblico che valuta quanto il tuo sito è leggibile e usabile da un AI agent. È pensato per il proprietario del sito, non per chi sviluppa agent.
L'Agent Readiness score: cosa misura
L'Agent Readiness è essenzialmente una checklist tecnica che combina più segnali di accessibilità per agent. I criteri principali sono cinque.
1. Presenza di un file llms.txt alla root del dominio. È una convenzione proposta nel 2024 da Jeremy Howard (fast.ai) e adottata in modo crescente: un manifesto markdown leggibile dagli LLM che riassume i contenuti del sito, mette in evidenza le pagine chiave e dichiara la struttura informativa. Pensalo come un sitemap.xml ma per LLM e agent.
2. Politica esplicita su robots.txt per i bot AI conosciuti (GPTBot di OpenAI, ClaudeBot di Anthropic, PerplexityBot, Google-Extended, CCBot di Common Crawl, ChatGPT-User). Bloccarli, permetterli o consentire solo alcuni è una scelta legittima. L'importante è essere espliciti: un robots.txt che non menziona affatto i bot AI lascia il sito in una zona grigia interpretata diversamente da ogni operatore.
3. Markup semantico e Schema.org. Dati strutturati su prodotti, articoli, FAQ, prezzi e local business. Un agent legge molto meglio HTML semantico con microdata che <div> annidati senza significato. Ed è esattamente lo stesso lavoro che faresti per la SEO classica.
4. Performance lato server. Gli agent fanno molte chiamate in parallelo e hanno un budget di tempo e token limitato. Un sito che impiega 4 secondi a rispondere viene scartato in favore di alternative più rapide. Il TTFB (time to first byte) torna a contare in modo crescente.
5. Niente contenuto JavaScript-only. Se il main content del sito arriva solo dopo l'idratazione client-side, molti agent non lo vedono affatto. SSR (server-side rendering) o SSG (static generation) diventano de facto obbligatori. Il caching HTML lato server è il tuo migliore amico.
Cloudflare sta inoltre proponendo /.well-known/agent-readiness.json come endpoint standard per esporre in modo dichiarativo le capability del sito (login OAuth, MCP server disponibili, API pubbliche, lingua, area geografica). Non è ancora uno standard W3C, ma la traiettoria è chiara.
Perché conta, anche se oggi i tuoi visitatori sono "solo umani"
Due dati concreti per inquadrare il fenomeno.
Il primo: le AI Overviews di Google, di cui abbiamo parlato qui, coprono ormai il 25,8% delle ricerche US e arrivano al 39% sulle query informative. Quando un utente fa una domanda informativa, il primo punto di contatto con la SERP è la sintesi AI, non i dieci link organici. La sintesi cita le sue fonti, e quelle fonti sono i siti che hanno markup leggibile e contenuto strutturato.
Il secondo: i fornitori di analytics stanno iniziando a separare il traffico da AI agent da quello human. Operatori come Cloudflare e Vercel hanno aggiunto questa dimensione ai loro dashboard nei primi mesi del 2026. La quota assoluta è ancora piccola (qualche percento) ma la traiettoria è di crescita a doppia cifra mese su mese.
Tradotto in pratica: se oggi il 95% dei tuoi visitatori è ancora umano, fra diciotto o ventiquattro mesi la quota di agent potrebbe diventare significativa. Chi si prepara ora trova un sito ottimizzato. Chi aspetta scopre tardi che gli agent saltavano il suo dominio.
Cosa significa per chi gestisce un sito su SpazioRC
Se hai un sito su hosting condiviso, su cloud server o su un piano dedicato, la roadmap concreta è ragionevolmente semplice e si applica anche a un'installazione WordPress di anni fa. Cinque azioni, mezza giornata di lavoro.
Aggiungi un llms.txt alla root. È un file di testo. Bastano dieci righe ben fatte. Esempio minimo:
# Nome azienda
> Descrizione in una riga di cosa offri.
## Pagine principali
- [Servizi](/servizi): cosa proponi
- [Prezzi](/prezzi): listino e piani
- [Contatti](/contatti): come raggiungerti
## Documentazione e contenuti
- [FAQ](/faq): risposte alle domande comuni
- [Blog](/blog): articoli aggiornati su...
Lo carichi via FTP o File Manager nella root del dominio, esattamente come faresti per robots.txt. Su WordPress va nella stessa cartella di wp-config.php.
Aggiorna robots.txt con istruzioni esplicite per i bot AI. Decidi cosa fare. Bloccarli tutti è una scelta legittima se il tuo contenuto è premium e non vuoi alimentare LLM esterni. Permetterli è la scelta giusta se vuoi essere citato negli AI Overviews e nelle risposte di ChatGPT/Claude/Perplexity. Un esempio "open":
User-agent: GPTBot
Allow: /
User-agent: ClaudeBot
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: Google-Extended
Allow: /
User-agent: CCBot
Allow: /
Verifica il rendering lato server. Su WordPress con cache pagina attiva (LiteSpeed Cache, WP Rocket, W3 Total Cache) sei già a posto: ogni pagina viene servita come HTML completo. Se hai un sito React/Next/Nuxt/Astro, verifica che usi SSR o SSG e non solo client-side rendering. Per testarlo basta caricare la pagina con JavaScript disattivato nel browser: se il contenuto principale è ancora visibile, gli agent lo vedranno.
Cura i dati strutturati. Schema.org su pagine prodotto, articoli (Article, BlogPosting), FAQ (FAQPage), recensioni (Review), e per le attività locali LocalBusiness. Su WordPress i plugin SEO maturi come Yoast SEO, Rank Math o SEOPress fanno gran parte del lavoro. Tu devi solo compilare i campi.
Misura il traffico da bot AI. Gli access log del tuo hosting non mentono. Cerca user-agent come GPTBot, ClaudeBot, PerplexityBot, ChatGPT-User, CCBot negli access log degli ultimi 30 giorni: la traiettoria di crescita di queste richieste è il segnale più onesto del momento in cui devi accelerare le ottimizzazioni.
Cosa fare oggi
Non c'è bisogno di rifare il sito. Le cinque azioni qui sopra si fanno in mezza giornata di lavoro tecnico, anche da chi non è uno sviluppatore esperto. Quello che cambia è la consapevolezza: il sito non è più solo una vetrina per umani, è una capability esposta a un internet in cui chi cerca, confronta e a volte compra può essere un'entità AI con un obiettivo da raggiungere. Trattare gli agent come crawler ostili da bloccare per default sarà, fra due anni, l'equivalente di non aver mai messo HTTPS sul sito.
Se non sai da dove partire, l'Area Riservata SpazioRC ti permette di scaricare gli access log del tuo hosting in un clic. Il primo passo è onesto e tecnico: guarda cosa già accede al tuo sito oggi. Se vedi GPTBot e ClaudeBot apparire con regolarità, la tua decisione su come trattarli è il primo capitolo della tua strategia agent-ready.
Bypass OTP WordPress: la stringa 'true' che apre l'admin
Il plugin User Verification by PickPlugins (5.000+ installazioni) validava l'OTP con == invece di ===. Inviando true ci si autentica come qualsiasi utente, admin inclusi. Patch 2.0.47, audit immediato consigliato.
Registra il tuo dominio e paga in Bitcoin
SpazioRC da oggi accetta i Bitcoin e altre criptovalute! Cos’è il Bitcoin? Bitcoin (simbolo: ₿; codice: BTC o XBT) è una moneta elettronica creata nel 2009 da un anonimo inventore, noto con lo pseudonimo di Satoshi Nakamoto, che sviluppò un’idea da lui stesso presentata su Internet a fine 2008.