Chi ha paura degli algoritmi? Un po’ tutti. Chi lavora in azienda sa che l’Intelligenza Artificiale permea ormai ogni settore, dal servizio clienti all’assunzione di nuovi collaboratori. Eppure, chi non è un esperto (ma certe volte anche chi lo è) non capisce bene come funzionino tali algoritmi.
Un rapporto realizzato da FICO, una grande società di software e di analisi di mercato, ha rilevato che ben il 65% dei dipendenti intervistati non è stato in grado di spiegare come vengono determinate le decisioni o le previsioni realizzate dal programma di Intelligenza Artificiale della propria azienda.
Insomma, l’IA viene considerata un po’ come una “scatola nera” o un mistero che appare difficile da decifrare. Per fortuna, sembra che stia sempre più facendosi strada un altro sistema di Intelligenza Artificiale chiamato XAI, cioè eXplainable Artificial Intelligence.
Vediamo di capire meglio di cosa si tratta. XAI è in tutto e per tutto una normale applicazione di intelligenza artificiale, tranne per il fatto che i processi e i risultati di un algoritmo XAI possono essere spiegati in modo chiaro e quindi essere compresi da tutti.
Ricordiamo che l’intelligenza artificiale prende decisioni in tempo reale sulla base di deduzioni che è riuscita ad elaborare dai dati che hanno alimentato la sua memoria. Quando non comprendiamo appieno come l’intelligenza artificiale sta prendendo tali decisioni, non siamo in grado di ottimizzare completamente l’applicazione che utilizziamo e rischiamo di perdere elementi di interpretazione preziosi.
XAI consente alle persone (anche ai non tecnici) di comprendere il funzionamento di tali meccanismi e sorvegliare anche l’apprendimento automatico (Machine Learning) che permette di prendere decisioni, ipotizzare previsioni, proporre approfondimenti.
I vantaggi di XAI stanno cominciando ad essere ben riconosciuti, non solo da scienziati e data engineer. La bozza di regolamento AI dell’Unione Europea ha individuato come la XAI sia un prerequisito per l’eventuale normalizzazione dell’apprendimento automatico nelle aziende.
Anche le organizzazioni di standardizzazione, tra cui l’Istituto europeo per gli standard di telecomunicazione (ETSI) e l’Istituto per gli standard degli ingegneri elettrici ed elettronici (IEEE SA), riconoscono l’importanza di XAI in relazione all’accettazione e alla fiducia dell’IA in futuro.

In sintesi, l’obiettivo generale di XAI è aiutare gli esseri umani a comprendere, fidarsi e gestire efficacemente i risultati delle applicazioni della tecnologia AI. L’obiettivo principale di XAI è produrre modelli di intelligenza artificiale più spiegabili, pur mantenendo un alto livello di accuratezza delle prestazioni di apprendimento/previsione.
Secondo Philip Pilgerstorfer, un Data Scientist e specialista XAI per QuantumBlack, questi sono alcuni degli importanti vantaggi di XAI:
- Costruire la fiducia degli utenti
- Soddisfare i requisiti legali
- Fornire una giustificazione relativa all’etica
- Ottenere informazioni fruibili e solide
AI e Machine Learning (ML), forniscono la capacità di ricavare informazioni strategiche e solide, tuttavia, XAI consente agli esseri umani di capire come e perché ha funzionato un certo algoritmo e se la sua scelta è stata davvero la migliore possibile.