Ogni giorno, milioni di decisioni che impattano la nostra vita vengono prese da sistemi di intelligenza artificiale (IA). Ma su quali basi vengono formulate queste decisioni? In altre parole, quanto sono trasparenti i sistemi predittivi?
Questa domanda è cruciale, specialmente quando la Pubblica Amministrazione (PA) si affida all’IA, e diventa un tema non solo tecnico, ma anche etico e politico.
Trasparenza: Non un Optional, ma una Necessità
La trasparenza nell’IA significa rendere visibili e comprensibili i criteri, i dati e le logiche che generano le previsioni e le decisioni automatiche. Questo vale sia per gli algoritmi predittivi tradizionali che per i più recenti Large Language Model (LLM), che oggi non si limitano a generare testo, ma possono anche sintetizzare diagnosi mediche, consigliare investimenti o automatizzare valutazioni complesse.
Quando questi sistemi influenzano direttamente i diritti dei cittadini, le risorse economiche o altre sfere fondamentali della vita, la trasparenza non può essere un’opzione. Senza informazioni chiare sui meccanismi decisionali, cittadini, imprese e autorità non possono verificare la correttezza delle scelte automatizzate. Al contrario, un ecosistema trasparente rafforza la fiducia, permette di correggere tempestivamente imprecisioni e, soprattutto, di contrastare decisioni discriminatorie.
Strumenti per la Trasparenza dell’IA
Per rendere i sistemi di IA più trasparenti, si utilizzano diversi strumenti fondamentali:
- Schede tecniche del modello (Model Cards): Documenti che indicano lo scopo, i dati di addestramento, le metriche di performance e i limiti del modello IA.
- Tecniche di spiegabilità (eXplainable AI – XAI): Metodologie che mirano a chiarire come i diversi fattori influenzano la predizione finale di un sistema di IA.
- Audit indipendenti: Valutazioni esterne condotte da organismi neutrali per individuare errori o bias (pregiudizi) prima che possano causare danni.
La Sfida degli LLM e la “Confabulazione”
Il tema della trasparenza è particolarmente urgente per gli LLM. Questi sistemi, nonostante la loro sofisticazione, possono “confabulare”, ovvero produrre affermazioni errate o addirittura inventate, presentandole con un tono sicuro e verosimile. Senza trasparenza sulle fonti utilizzate e sui meccanismi decisionali interni, diventa estremamente difficile per gli utenti riconoscere queste “confabulazioni”.
La trasparenza, tuttavia, non si limita ai modelli: anche i dati su cui l’IA si addestra devono essere tracciabili e verificabili. Le schede tecniche per dataset (datasheet for datasets) sono strumenti utili per tracciare il ciclo di vita dell’informazione, dalla raccolta all’utilizzo.
Le Conseguenze dell’Opacità: Discriminazioni e Mancanza di Responsabilità
Algoritmi non verificabili possono perpetuare discriminazioni latenti, erodere la fiducia pubblica e rendere impossibile l’attribuzione di responsabilità in caso di errore. Anche il modello più accurato, se rimane una “scatola nera” (black box), può generare effetti sociali inaccettabili e sottrarsi a qualsiasi forma di controllo.
Un esempio lampante è emerso nel 2021, quando uno studio ha analizzato gli algoritmi di pricing di alcune assicurazioni auto. Pur senza utilizzare dati esplicitamente proibiti, le correlazioni all’interno dei dataset portavano variabili come la residenza o il tipo di veicolo a riflettere indirettamente il luogo di nascita o il genere. Il risultato? A parità di condizioni, un conducente nato all’estero poteva pagare fino a mille euro in più. Senza trasparenza sui criteri applicati, né le compagnie né i clienti erano in grado di accorgersene in tempo.