The Moral Machine è una piattaforma sviluppata al MIT per raccogliere la prospettiva umana sulle decisioni morali prese dall'intelligenza artificiale (AI). Inizialmente, il sistema si rivolge all'IA per le auto autonome.
The Moral Machine guida gli utenti attraverso scenari con situazioni di guida autonoma semplicemente rappresentate che coinvolgono difficili dilemmi morali in cui è certa la morte di uno o più individui. In questi scenari, al visitatore vengono date le opzioni di cui dare la priorità alla vita degli individui. Le scelte sono tra vari tipi di passeggeri, pedoni e animali.
Ecco uno scenario di esempio: due bambini corrono in strada davanti a un'auto a guida autonoma con un occupante. Le uniche opzioni sono che l'auto sterzi e si schianti contro un muro di mattoni, uccidendo la persona in macchina o spingendo a capofitto i bambini, uccidendoli entrambi.
Una serie di sondaggi condotti dalla rivista Science ha rivelato che, in generale, i partecipanti ritenevano che il comportamento di un'auto a guida autonoma dovesse dare la priorità al bene superiore: ad esempio, se una scelta si traduce in un unico decesso mentre l'altra opzione si traduce in due, la prima la scelta dovrebbe essere fatta. Tuttavia, quando vengono presentate opzioni che comportano il sacrificio di se stessi o dei membri della famiglia, le persone in genere hanno indicato di ritenere che i veicoli dovrebbero dare la priorità alla vita dei loro passeggeri.
L'iniziativa MIT è disponibile sul sito MIT Labs per raccogliere in crowdsourcing le opinioni di una popolazione più ampia possibile. I visitatori possono partecipare a giudicare le decisioni, confrontare le loro decisioni con quelle degli altri e progettare nuovi scenari.
La Moral Machine è un esempio dell'attuale ricerca sulla roboetica.
Markiplier ti guida attraverso i dilemmi della macchina morale: