Albert Bandura, psicologo canadese tra i più influenti del Novecento, ha cambiato il modo in cui pensiamo all’apprendimento umano. La sua teoria dell’apprendimento sociale dimostra che gran parte delle nostre competenze nasce non solo dall’esperienza diretta, ma anche dall’osservazione di altri in azione, dalla modellazione del comportamento e dal contesto in cui questo avviene.
Oggi, mentre l’intelligenza artificiale diventa parte integrante dei processi decisionali — dalla diagnosi medica alle assunzioni, dalla gestione dei rischi finanziari all’allocazione delle risorse pubbliche — quella lezione è più attuale che mai. C’è un aspetto che viene raramente discusso: non stiamo creando spazi in cui allenare le persone a supervisionare l’IA.
Parliamo di regolamenti, framework etici, linee guida internazionali, ma non di dove e come le persone possano imparare a “vedere” i sistemi in azione e a intervenire quando serve.
Il concetto di “human-in-the-loop” (HITL) — un essere umano che monitora e interviene in processi automatizzati — è presente in quasi tutti i principali documenti di policy:
AI Act dell’Unione Europea
Executive Order del Presidente degli Stati Uniti sull’IA
Linee guida dell’OMS sull’uso etico e sicuro dell’intelligenza artificiale in sanità
Raccomandazioni OCSE sull’IA
Tutti ribadiscono che la supervisione umana è una misura di salvaguardia essenziale.
Eppure, mancano risposte concrete a tre domande decisive:
Chi sarà la persona incaricata di vigilare?
Quali competenze pratiche avrà sviluppato?
In quali contesti avrà esercitato quelle competenze prima di essere chiamata a usarle?
Bandura ha mostrato che l’osservazione non è passiva: è un processo attivo in cui analizziamo, interpretiamo e imitiamo comportamenti, sviluppando capacità di giudizio.
Per traslare questa intuizione nell’IA, serve un modello formativo che includa:
Esposizione a scenari reali
Non basta studiare casi su carta: bisogna vedere come i sistemi si comportano in situazioni complesse, ambigue o eticamente delicate.
Modellazione del comportamento
L’etica non si trasmette con una lezione frontale: si impara osservando persone competenti affrontare dilemmi in tempo reale.
Contesto e pressione reale
Le decisioni prese sotto stress rivelano più della teoria: se vogliamo formare buoni supervisori, dobbiamo prepararli a lavorare in condizioni di incertezza e urgenza.
1️⃣ L’osservazione è un allenamento, non uno spettatore passivo
Come l’IA viene pre-addestrata su enormi quantità di dati, così gli esseri umani calibrano il loro giudizio vivendo e osservando scenari reali. Senza esposizione diretta, il controllo resta solo nominale.
2️⃣ La supervisione è una competenza comportamentale
Mettere “un umano nel ciclo” non significa che sia in grado di prendere decisioni informate. La vigilanza richiede allenamento specifico, attenzione ai dettagli e capacità di agire in tempo reale.
3️⃣ L’etica si apprende per modellamento
Nessuno diventa capace di valutare rischi e responsabilità leggendo slide. Serve vedere esempi concreti di come si corregge un errore, si riconosce un bias o si blocca un’azione potenzialmente dannosa.
4️⃣ Senza visibilità, non esiste governance
Molte criticità emergono solo osservando i sistemi “in movimento”. Per questo, i supervisori devono avere accesso non solo ai risultati finali, ma anche ai processi e alle decisioni intermedie.
5️⃣ La simulazione come palestra pubblica
Gli errori sono inevitabili: meglio farli in un contesto simulato, dove diventano occasione di apprendimento. La simulazione non è un esercizio accademico, ma un’infrastruttura formativa per la sicurezza collettiva.
La governance dell’IA non può ridursi a un PDF o a un corso teorico.
Significa creare ambienti in cui i futuri supervisori possano vedere, interpretare, decidere e correggere.
Significa passare dal concetto astratto di “essere umano nel ciclo” a una figura preparata, allenata e capace di agire.
Questa è l’eredità di Bandura riletta oggi: non impariamo solo facendo, ma osservando chi fa, modellando il nostro comportamento sul loro, e mettendo in scena — in contesti sicuri — le sfide che dovremo affrontare nella realtà.
Finché non costruiremo luoghi dove questo avviene, continueremo a parlare di supervisione come se fosse una clausola legale. Ma la vera sicurezza arriverà solo quando la trasformeremo in una competenza viva, coltivata sul campo.