Gli ultimi due anni hanno visto crescere esponenzialmente il numero di utilizzatori di Intelligenza Artificiale (in particolare Intelligenza Artificiale Generativa). Tale crescita si è registrata sia tra gli utenti consumatori, per lo svolgimento di attività quotidiane anche di poca importanza, sia tra gli utenti aziende (cioè, nel concreto, i dipendenti), soprattutto al fine di ridurre le tempistiche per svolgere certe tipologie di lavoro.
Tuttavia, come abbiamo visto in un precedente articolo, l’utilizzo dell’Intelligenza Artificiale da parte dei dipendenti potrebbe comportare diversi rischi, tra i quali allucinazioni, bias (distorsioni), rivelazione di segreti industriali, e molti altri ancora. Tali rischi non sono fissi, al contrario sono variabili in funzione della tipologia di impresa, del tipo di contesto in cui operano, della tipologia di ruolo del dipendente e del tipo di strumento impiegato.
La domanda è a questo punto: come ridurre questi rischi? Tanti sono gli strumenti utilizzabili, tra cui la creazione di metodologie di lavoro specifiche o l’introduzione di sistemi di sicurezza specifici. Ma insieme a tutte queste misure, una è di fondamentale importanza: l’adeguata formazione del personale. Questa, infatti, rappresenta da un lato un modo molto efficace per ridurre le possibilità che si verifichino i pericoli di un utilizzo scorretto di un’Intelligenza Artificiale nella propria quotidianità e, dall’altro, la vera chiave del successo dell’ingresso di queste tecnologie nelle realtà imprenditoriali.
Il recente Regolamento UE denominato Artificial Intelligence Act, consapevole di tutto questo, rende obbligatoria alle imprese l’adozione di misure (un vero e proprio programma) per implementare l’AI literacy, cioè l’alfabetizzazione in materia di Intelligenza Artificiale dei dipendenti. L’alfabetizzazione consiste nell’acquisire consapevolezza in merito alle opportunità e ai rischi dell’IA e ai possibili danni che essa può causare e dunque favorire una “diffusione informata” di queste tecnologie. Ciò che conta, dunque, nel predisporre le misure è:
- la comprensione del fenomeno Intelligenza Artificiale, per non lasciarsi sopraffare dal cambiamento in corso;
- la capacità di agire in modo corretto o comunque in modo non lesivo, al fine di evitare danni interni ovvero a terzi.
Anzitutto è necessario specificare che tale obbligo è diretto sia alle imprese che realizzano e mettono in commercio (“vendono”) prodotti AI, sia a chi è semplicemente un utilizzatore di Intelligenza Artificiale, il celebre Deployer: cioè, a tendere, tutte le imprese. Altro profilo molto importante dell’alfabetizzazione è quello relativo alla personalizzazione del percorso di alfabetizzazione: il grado e la specificità di questo dovrà essere commisurata alle effettive e specifiche caratteristiche del dipendente che è oggetto e soggetto del dovere di alfabetizzazione.
Recentemente, per aiutare le imprese a adempiere a questo obbligo di legge, la Commissione europea ha emanato alcune linee guida nella forma di Q&A (simili alle FAQ che ultimamente vanno tanto di moda). Una di queste mi ha colpito molto, perché riguarda il contenuto minimo del programma di alfabetizzazione e, sostanzialmente, impone un dovere molto ampio:
- Deve essere chiaro a tutti i dipendenti che cos’è un’IA, come funziona e quali vengono specificamente utilizzate. Deve poi esserci chiarezza circa qual è il ruolo della società nella catena di valore (es. fornitore o deployer?).
- I dipendenti devono essere informati dei rischi legati all’AI che li riguardano.
- Deve essere adottato un programma che abbia lo scopo di migliorare la situazione di alfabetizzazione interna.
Per comprendere la portata del dovere, il documento chiarisce che nemmeno le persone dotate di competenze tecniche in materia di Intelligenza Artificiale sono automaticamente escluse dal programma di AI Literacy. Infatti, anche questi potrebbero averne bisogno, a seconda dello strumento di IA in questione, dello sviluppo delle tecnologie di riferimento e dalla specifica qualifica del dipendente. In particolare, dovrebbero essere considerati anche gli aspetti etici e legali dell’Intelligenza Artificiale.
di Avv. Piergiorgio Belotti del Foro di Brescia






