Modulo 1 — Fiducia calibrata: usare l’AI senza farsi usare (4 ore)
Come si costruisce la “muscolatura” di base: distinguere compiti adatti/non adatti, riconoscere la falsa sensazione di certezza, e impostare una collaborazione uomo+AI dove la responsabilità resta ben piantata a terra.
- Fiducia vs affidabilità: perché l’AI può convincere anche quando sbaglia
- Dove l’AI eccelle e dove è strutturalmente vulnerabile
- Bias tipici: overconfidence, automation bias, “effetto oracolo”
- Regole d’ingaggio pratiche: quando delegare, quando affiancare, quando vietare
Modulo 2 — Verifica intelligente: qualità, fonti, tracciabilità (4 ore)
Verificare non significa “controllare tutto”: significa creare un metodo proporzionato al rischio. In questo modulo si imparano tecniche rapide per validare output, intercettare allucinazioni e rendere trasparente il percorso che ha portato a una risposta.
- Checklist di qualità (coerenza interna, completezza, specificità, assunzioni implicite)
- Tecniche di fact-checking “a campione” e triangolazione
- Gestione delle fonti: distinguere evidenze, opinioni, stime e invenzioni
- Prompting orientato alla verificabilità (citazioni, livelli di confidenza, alternative)
- Mini-lab: trasformare un output “bello” in un output “difendibile”
Modulo 3 — Decisioni e responsabilità: scegliere bene sotto incertezza (4 ore)
Il punto non è produrre più output: è decidere meglio. Qui si uniscono giudizio umano, criteri di rischio e pratiche di decision-making per contesti ambigui, dove l’AI può aiutare… o far deragliare.
- Decision log: rendere esplicite ipotesi, trade-off e motivazioni
- Soglie di rischio: quando serve validazione umana, quando serve escalation
- Error budget e apprendimento: trasformare gli inciampi in metodo, non in colpa
- Output finale: Playbook di team “Trust & Judgment” (regole, checklist, rituali)