Modulo 1 — Le basi della SEO nel nuovo web (2 ore)
- Cosa resta davvero importante nella SEO moderna? Struttura delle pagine, meta tag, collegamenti interni e contenuti: gli elementi che Google continua a considerare fondamentali anche nell’era dell’AI.
- Contenuti “helpful” e importanza dell’esperienza, dell’autorevolezza e dell’affidabilità (E-E-A-T): i criteri che influenzano i risultati e le risposte generate dalle AI.
- Le nuove funzioni AI dei motori di ricerca (es: AI Overviews di Google): come strutturare i contenuti per apparire in questi risultati.
Modulo 2 — SEO tecnica e gestione del crawling nel 2025 (2 ore)
- Come funziona oggi il crawl budget e quali strategie permettono di ottimizzare la scansione delle pagine da parte dei motori di ricerca.
- Come progettare sitemap realmente efficaci, migliorare la velocità del sito e gestire in modo equilibrato le richieste dei crawler, senza compromettere l’esperienza utente.
- Il protocollo IndexNow: quando conviene adottarlo, come integrarlo con gli strumenti di Google e come sfruttarlo per una indicizzazione più rapida e controllata.
Modulo 3 — Struttura dei contenuti “AI-friendly” (2 ore)
- Come rendere i testi facilmente interpretabili dai modelli di linguaggio: titoli coerenti, paragrafi brevi e ricchi di informazioni chiave.
- Il ruolo dei dati strutturati (FAQ e Q&A) per facilitare la comprensione e la citazione da parte delle AI.
- Il principio “short answer first”: offrire subito la risposta principale e poi l’approfondimento.
Modulo 4 — Come prepararsi agli AI Overviews di Google (2 ore)
- Cosa raccomanda ufficialmente Google per ottenere visibilità nei nuovi risultati generati con l’intelligenza artificiale.
- Come valutare unicità, utilità e affidabilità dei contenuti attraverso una matrice di analisi.
- Gli ultimi aggiornamenti anti-spam e i rischi legati ai contenuti di bassa qualità.
Modulo 5 — llms.txt: realtà, limiti e sperimentazioni (1,5 ore)
- Che cos’è davvero il file llms.txt: uno strumento teorico per orientare i crawler delle AI, ancora poco supportato.
- Perché Google non lo utilizza e come altre piattaforme lo stanno testando in modo frammentario.
- I rischi di un uso improprio e i casi in cui può valere la pena provarlo come esperimento controllato.
Modulo 6 — RAG e visibilità nei sistemi AI (2 ore)
- Cos’è la Retrieval-Augmented Generation (RAG) e perché è centrale per far emergere i contenuti nelle risposte delle AI.
- Come strutturare un sito “RAG-friendly”: testi modulari, glossari, tabelle e FAQ per una comprensione automatica più efficace.
- Le tecniche di chunking dei contenuti: come suddividerli in blocchi recuperabili e ottimizzarne lunghezza e sovrapposizione.
Modulo 7 — Gestione dei crawler delle AI e controllo degli accessi (1,5 ore)
- I principali crawler delle AI (OpenAI, Anthropic, Common Crawl) e come gestirli selettivamente tramite robots.txt.
- Come interpretare la documentazione ufficiale di OpenAI e predisporre regole di blocco o accesso controllato.
Modulo 8 — Laboratorio finale e roadmap di implementazione (1 ora)
Messa in pratica di tutte le competenze acquisite: audit tecnico, ottimizzazione dei contenuti, dati strutturati e piano operativo di 90 giorni.