Explainable AI (XAI) è l'intelligenza artificiale programmata per descrivere il suo scopo, la logica e il processo decisionale in un modo che può essere compreso dalla persona media. L'XAI viene spesso discusso in relazione all'apprendimento profondo e svolge un ruolo importante nel modello FAT ML (equità, responsabilità e trasparenza nell'apprendimento automatico).
XAI fornisce informazioni generali su come un programma di intelligenza artificiale prende una decisione rivelando:
- I punti di forza e di debolezza del programma.
- I criteri specifici utilizzati dal programma per arrivare a una decisione.
- Perché un programma prende una decisione particolare rispetto alle alternative.
- Il livello di fiducia appropriato per vari tipi di decisioni.
- A quali tipi di errori è soggetto il programma.
- Come correggere gli errori.
Un obiettivo importante di XAI è fornire responsabilità algoritmica. Fino a poco tempo, i sistemi di intelligenza artificiale erano essenzialmente scatole nere. Anche se gli input e gli output sono noti, gli algoritmi utilizzati per arrivare a una decisione sono spesso proprietari o non facilmente comprensibili, nonostante il funzionamento interno della programmazione sia open source e reso liberamente disponibile.
Man mano che l'intelligenza artificiale diventa sempre più diffusa, diventa più importante che mai rivelare come vengono affrontati i pregiudizi e la questione della fiducia. Il regolamento generale sulla protezione dei dati (GDPR) dell'UE, ad esempio, include una clausola relativa al diritto alla spiegazione.