Caricamento

TRUST & JUDGMENT LAB

Fiducia, verifica e decisioni nell’era dell’AI
share Condividi
Non ci sono sessioni attive al momento

Overview

L’AI generativa è un amplificatore: accelera scrittura, analisi, sintesi e ideazione. Ma proprio perché “sembra” competente, introduce un rischio sottile: fidarsi troppo, troppo presto, e prendere decisioni su basi fragili (fonti deboli, errori plausibili, omissioni eleganti).
Questo laboratorio allena una competenza rara e preziosa: il giudizio. Non in astratto, ma dentro i flussi reali di lavoro, con protocolli semplici e replicabili per decidere quando usare l’AI, quanto crederle e come verificare senza diventare burocratici.

 

Programma

PROGRAMMA

Modulo 1 — Fiducia calibrata: usare l’AI senza farsi usare (4 ore)
Come si costruisce la “muscolatura” di base: distinguere compiti adatti/non adatti, riconoscere la falsa sensazione di certezza, e impostare una collaborazione uomo+AI dove la responsabilità resta ben piantata a terra.

  • Fiducia vs affidabilità: perché l’AI può convincere anche quando sbaglia
  • Dove l’AI eccelle e dove è strutturalmente vulnerabile
  • Bias tipici: overconfidence, automation bias, “effetto oracolo”
  • Regole d’ingaggio pratiche: quando delegare, quando affiancare, quando vietare

 

Modulo 2 — Verifica intelligente: qualità, fonti, tracciabilità (4 ore)
Verificare non significa “controllare tutto”: significa creare un metodo proporzionato al rischio. In questo modulo si imparano tecniche rapide per validare output, intercettare allucinazioni e rendere trasparente il percorso che ha portato a una risposta.

  • Checklist di qualità (coerenza interna, completezza, specificità, assunzioni implicite)
  • Tecniche di fact-checking “a campione” e triangolazione
  • Gestione delle fonti: distinguere evidenze, opinioni, stime e invenzioni
  • Prompting orientato alla verificabilità (citazioni, livelli di confidenza, alternative)
  • Mini-lab: trasformare un output “bello” in un output “difendibile”

 

Modulo 3 — Decisioni e responsabilità: scegliere bene sotto incertezza (4 ore)
Il punto non è produrre più output: è decidere meglio. Qui si uniscono giudizio umano, criteri di rischio e pratiche di decision-making per contesti ambigui, dove l’AI può aiutare… o far deragliare.

  • Decision log: rendere esplicite ipotesi, trade-off e motivazioni
  • Soglie di rischio: quando serve validazione umana, quando serve escalation
  • Error budget e apprendimento: trasformare gli inciampi in metodo, non in colpa
  • Output finale: Playbook di team “Trust & Judgment” (regole, checklist, rituali)
Durata

12 ore, in presenza o webinar

Sessioni

On demand

FACULTY

Symboolic. Startup innovativa fondata nel 2022 a Sassuolo, in Emilia-Romagna.​ Sviluppa soluzioni di intelligenza artificiale per valorizzare la conoscenza aziendale e il patrimonio informativo, attraverso piattaforme aperte e personalizzabili.
Con focus su etica, privacy e sicurezza del dato, l’azienda crea strumenti integrabili per i processi, il mindset e la governance delle aziende.

INFORMAZIONI

Daria Dolfini
daria.dolfini@fav.it
Cel +39 3280022686 – Tel +39 059247904

In breve
date_range
Sessioni
Stay tuned. Contattaci per conoscere le prossime date.
schedule
Durata:
12
gps_not_fixed
Area Tematica
Risorse umane Intelligenza Artificiale Human Skills Human First
Informazioni