Codice etico AI

Un codice etico AI, chiamato anche piattaforma di valore AI, è una dichiarazione politica che definisce formalmente il ruolo dell'intelligenza artificiale quando si applica al continuo sviluppo della razza umana. Lo scopo di un codice etico dell'IA è fornire agli stakeholder una guida di fronte a una decisione etica sull'uso dell'intelligenza artificiale.

Isaac Asimov, lo scrittore di fantascienza, ha previsto i potenziali pericoli degli agenti di intelligenza artificiale autonomi molto prima del loro sviluppo e ha creato Le tre leggi della robotica come mezzo per limitare tali rischi. Nel codice etico di Asimov, la prima legge proibisce ai robot di danneggiare attivamente gli esseri umani o di permettere che il danno arriverà agli esseri umani rifiutandosi di agire. La seconda legge ordina ai robot di obbedire agli umani, a meno che gli ordini non siano in accordo con la prima legge. La terza legge ordina ai robot di proteggersi, nella misura in cui ciò è conforme alle prime due leggi.

Sebbene gli sviluppatori siano ancora nelle prime fasi dell'adozione dell'IA, è importante che le aziende adottino approcci etici e responsabili durante la creazione di sistemi di intelligenza artificiale. A tal fine, un istituto senza scopo di lucro fondato dal cosmologo del MIT Max Tegmark, dal co-fondatore di Skype Jaan Tallinn e dal ricercatore di DeepMind Viktoriya Krakovnahas - ha collaborato con ricercatori e sviluppatori di intelligenza artificiale per stabilire una serie di principi guida che ora sono indicati come il Principi di intelligenza artificiale di Asilomar. Questo codice etico dell'IA impone che:

  • L'obiettivo della ricerca sull'IA dovrebbe essere quello di creare un'intelligenza non indiretta, ma un'intelligenza benefica.
  • Gli investimenti nell'IA dovrebbero essere accompagnati da finanziamenti per la ricerca per garantirne un uso vantaggioso.
  • Se un sistema di intelligenza artificiale causa danni, dovrebbe essere possibile accertarne il motivo.
  • Qualsiasi coinvolgimento di un sistema autonomo nel processo decisionale giudiziario dovrebbe fornire una spiegazione soddisfacente che possa essere verificata da un'autorità umana competente.
  • Dovrebbe esserci uno scambio costruttivo e sano tra ricercatori di IA e responsabili politici.
  • Una cultura di cooperazione, fiducia e trasparenza dovrebbe essere promossa tra i ricercatori e gli sviluppatori di intelligenza artificiale.
  • I team che sviluppano sistemi di intelligenza artificiale dovrebbero cooperare attivamente per evitare tagli agli angoli degli standard di sicurezza.
  • I sistemi di intelligenza artificiale dovrebbero essere sicuri e protetti per tutta la loro durata operativa e in modo verificabile laddove applicabile e fattibile.
  • I progettisti e i costruttori di sistemi di IA avanzati sono parti interessate nelle implicazioni morali del loro uso, uso improprio e azioni, con la responsabilità e l'opportunità di plasmare tali implicazioni.
  • I sistemi di intelligenza artificiale altamente autonomi dovrebbero essere progettati in modo che i loro obiettivi e comportamenti possano essere certi che siano in linea con i valori umani durante il loro funzionamento.
  • I sistemi di IA dovrebbero essere progettati e gestiti in modo da essere compatibili con gli ideali di dignità umana, diritti, libertà e diversità culturale.
  • Le persone dovrebbero avere il diritto di accedere, gestire e controllare i dati che generano, data la capacità dei sistemi di intelligenza artificiale di analizzare e utilizzare tali dati.
  • L'applicazione dell'IA ai dati personali non deve limitare in modo irragionevole la libertà reale o percepita delle persone.
  • Le tecnologie di intelligenza artificiale dovrebbero avvantaggiare e responsabilizzare quante più persone possibile.
  • La prosperità economica creata dall'IA dovrebbe essere condivisa ampiamente, a vantaggio di tutta l'umanità.
  • Gli esseri umani dovrebbero scegliere come e se delegare le decisioni ai sistemi di intelligenza artificiale, per raggiungere gli obiettivi scelti dall'uomo.
  • Il potere conferito dal controllo di sistemi di IA altamente avanzati dovrebbe rispettare e migliorare, piuttosto che sovvertire, i processi sociali e civici da cui dipende la salute della società.
  • I rischi posti dai sistemi di intelligenza artificiale, in particolare i rischi catastrofici o esistenziali, devono essere soggetti a sforzi di pianificazione e mitigazione commisurati al loro impatto previsto.
  • Una corsa agli armamenti con armi autonome letali dovrebbe essere evitata.