Explainable AI (XAI)

Explainable AI (XAI) è l'intelligenza artificiale programmata per descrivere il suo scopo, la logica e il processo decisionale in un modo che può essere compreso dalla persona media. L'XAI viene spesso discusso in relazione all'apprendimento profondo e svolge un ruolo importante nel modello FAT ML (equità, responsabilità e trasparenza nell'apprendimento automatico).

XAI fornisce informazioni generali su come un programma di intelligenza artificiale prende una decisione rivelando:

  • I punti di forza e di debolezza del programma.
  • I criteri specifici utilizzati dal programma per arrivare a una decisione.
  • Perché un programma prende una decisione particolare rispetto alle alternative.
  • Il livello di fiducia appropriato per vari tipi di decisioni.
  • A quali tipi di errori è soggetto il programma.
  • Come correggere gli errori.

Un obiettivo importante di XAI è fornire responsabilità algoritmica. Fino a poco tempo, i sistemi di intelligenza artificiale erano essenzialmente scatole nere. Anche se gli input e gli output sono noti, gli algoritmi utilizzati per arrivare a una decisione sono spesso proprietari o non facilmente comprensibili, nonostante il funzionamento interno della programmazione sia open source e reso liberamente disponibile.

Man mano che l'intelligenza artificiale diventa sempre più diffusa, diventa più importante che mai rivelare come vengono affrontati i pregiudizi e la questione della fiducia. Il regolamento generale sulla protezione dei dati (GDPR) dell'UE, ad esempio, include una clausola relativa al diritto alla spiegazione.