Governare l’IA: non basta una legge, serve un luogo per imparare

Governare l’IA: non basta una legge, serve un luogo per imparare

Team GestAI
4 min
Albert Banduragovernance AIsupervisione umanacompetenze digitaliapprendimento sociale

Albert Bandura, psicologo canadese tra i più influenti del Novecento, ha cambiato il modo in cui pensiamo all’apprendimento umano. La sua teoria dell’apprendimento sociale dimostra che gran parte delle nostre competenze nasce non solo dall’esperienza diretta, ma anche dall’osservazione di altri in azione, dalla modellazione del comportamento e dal contesto in cui questo avviene.

Oggi, mentre l’intelligenza artificiale diventa parte integrante dei processi decisionali — dalla diagnosi medica alle assunzioni, dalla gestione dei rischi finanziari all’allocazione delle risorse pubbliche — quella lezione è più attuale che mai. C’è un aspetto che viene raramente discusso: non stiamo creando spazi in cui allenare le persone a supervisionare l’IA.

Parliamo di regolamenti, framework etici, linee guida internazionali, ma non di dove e come le persone possano imparare a “vedere” i sistemi in azione e a intervenire quando serve.

Il paradosso della supervisione umana

Il concetto di “human-in-the-loop” (HITL) — un essere umano che monitora e interviene in processi automatizzati — è presente in quasi tutti i principali documenti di policy:

  • AI Act dell’Unione Europea

  • Executive Order del Presidente degli Stati Uniti sull’IA

  • Linee guida dell’OMS sull’uso etico e sicuro dell’intelligenza artificiale in sanità

  • Raccomandazioni OCSE sull’IA

Tutti ribadiscono che la supervisione umana è una misura di salvaguardia essenziale.

Eppure, mancano risposte concrete a tre domande decisive:

  1. Chi sarà la persona incaricata di vigilare?

  2. Quali competenze pratiche avrà sviluppato?

  3. In quali contesti avrà esercitato quelle competenze prima di essere chiamata a usarle?

Bandura nell’era dell’IA: l’apprendimento come pratica osservativa

Bandura ha mostrato che l’osservazione non è passiva: è un processo attivo in cui analizziamo, interpretiamo e imitiamo comportamenti, sviluppando capacità di giudizio.

Per traslare questa intuizione nell’IA, serve un modello formativo che includa:

  • Esposizione a scenari reali

    Non basta studiare casi su carta: bisogna vedere come i sistemi si comportano in situazioni complesse, ambigue o eticamente delicate.

  • Modellazione del comportamento

    L’etica non si trasmette con una lezione frontale: si impara osservando persone competenti affrontare dilemmi in tempo reale.

  • Contesto e pressione reale

    Le decisioni prese sotto stress rivelano più della teoria: se vogliamo formare buoni supervisori, dobbiamo prepararli a lavorare in condizioni di incertezza e urgenza.

Cinque principi per una governance che si impara sul campo

1️⃣ L’osservazione è un allenamento, non uno spettatore passivo

Come l’IA viene pre-addestrata su enormi quantità di dati, così gli esseri umani calibrano il loro giudizio vivendo e osservando scenari reali. Senza esposizione diretta, il controllo resta solo nominale.

2️⃣ La supervisione è una competenza comportamentale

Mettere “un umano nel ciclo” non significa che sia in grado di prendere decisioni informate. La vigilanza richiede allenamento specifico, attenzione ai dettagli e capacità di agire in tempo reale.

3️⃣ L’etica si apprende per modellamento

Nessuno diventa capace di valutare rischi e responsabilità leggendo slide. Serve vedere esempi concreti di come si corregge un errore, si riconosce un bias o si blocca un’azione potenzialmente dannosa.

4️⃣ Senza visibilità, non esiste governance

Molte criticità emergono solo osservando i sistemi “in movimento”. Per questo, i supervisori devono avere accesso non solo ai risultati finali, ma anche ai processi e alle decisioni intermedie.

5️⃣ La simulazione come palestra pubblica

Gli errori sono inevitabili: meglio farli in un contesto simulato, dove diventano occasione di apprendimento. La simulazione non è un esercizio accademico, ma un’infrastruttura formativa per la sicurezza collettiva.

Dal manuale alla pratica viva

La governance dell’IA non può ridursi a un PDF o a un corso teorico.

Significa creare ambienti in cui i futuri supervisori possano vedere, interpretare, decidere e correggere.

Significa passare dal concetto astratto di “essere umano nel ciclo” a una figura preparata, allenata e capace di agire.

Questa è l’eredità di Bandura riletta oggi: non impariamo solo facendo, ma osservando chi fa, modellando il nostro comportamento sul loro, e mettendo in scena — in contesti sicuri — le sfide che dovremo affrontare nella realtà.

Finché non costruiremo luoghi dove questo avviene, continueremo a parlare di supervisione come se fosse una clausola legale. Ma la vera sicurezza arriverà solo quando la trasformeremo in una competenza viva, coltivata sul campo.