Francesco Betti prosegue a ragionare di Intelligenza Artificiale.

Articolo veloce, ma con qualche spunto di riflessione che mi piacerebbe facessimo tutti insieme (abbondate nei commenti, siate spietati).

Mi chiedo: il problema è che l’intelligenza artificiale (AI) contrasta con la nostra etica o il problema sta proprio nella nostra etica? Come diceva Wittgenstein, il problema è nel linguaggio o è proprio il linguaggio?

Lo dico in modo ancora più provocatorio: l’intelligenza artificiale ci porterà ai confini della nostra etica o ci aiuterà a potenziarla? Non sto parlando di “etica artificiale” (AE), ma qualcosa che un po’ le assomiglia.

Non è un caso che ci ricordiamo dei temi etici principalmente quando si fa concreto il rischio che l’AI ci rubi il lavoro. Chissà se i buoi avranno inveito contro lo scarso spirito etico del trattore, e i cavalli contro quello del motore a scoppio.

In ogni caso, il legame tra AE e AI è il problema. Inutile girarci attorno.

La mia impressione è che noi troviamo nei limiti etici dell’AI i nostri stessi limiti etici, soltanto, come dire, resi più netti, più chiari, amplificati nelle loro manifestazioni, fin troppo evidenti per essere, come al solito, trascurati. E con l’AI non possiamo mettere la testa sotto la sabbia come gli struzzi, perché sotto la sabbia qualcuno ci guarda.

Ricordiamocelo sempre: l’AI, anche quando sembra che stia pensando o inventando, sta semplicemente estrapolando un dato statistico. Statisticamente è vero che quando qualcuno si pone questa domanda, si accontenta di questa risposta. Questo qualcuno è tutto lo scibile umano (quasi), o almeno quello digitalizzato e in grado di addestrare dei Large Language Model.

Questo vuol dire che quando poniamo questioni etiche all’AI, otteniamo una risposta che – mediamente – è la “nostra etica”, quella del genere umano. C’è molto poco di artificiale, lì dentro.

Come possiamo imporre a una macchina di essere mediamente più eticamente corretta di noi? Messa di fronte a una scelta, con un vincolo economico, l’AI sceglie la soluzione che massimizza il beneficio. Con un vincolo di tempo, e mille cose da fare, se mettiamo l’intelligenza artificiale di fronte a una cassa del supermercato, probabilmente troverebbe il modo di saltare la fila.

Pensate ai dilemmi etici che ci affascinano tanto, come il famoso dilemma del carrello (“the trolley problem”): se il treno si avvicina e potete deviarlo per salvare cinque persone, ma ne uccidete una, che fate? Un classico nei corsi di filosofia e, apparentemente, anche nelle decisioni dell’AI che presto guiderà le nostre auto. Immaginate la scena: “AI, salva i cinque o uccidi l’uno?” E mentre voi vi dilaniate tra dubbi morali, l’AI risponde con la freddezza di un frigorifero: “Statisticamente, risparmio più vite così, quindi il calcolo è facile.”

So che è difficile ammetterlo, ma l’AI ci sta semplicemente restituendo la nostra “etica media”, quella di questo vincente animale che si chiama uomo. Nella sua semplificazione ce ne svela i limiti, la stretta dipendenza da un modello utilitaristico, che massimizza i benefici, minimizza gli sforzi.

La domanda che vi pongo provocatoriamente è: volete davvero un mondo in cui Alexa si rifiuta di accendere le luci perché “stai sprecando energia, e questo è moralmente discutibile”? Volete davvero che Google Maps si rifiuti di mostrarvi il percorso in auto perché il treno è più sostenibile a livello ambientale?

Diciamo però che, al momento, la gran parte delle scelte etiche più evidenti sono tenute fuori dai modelli di AI.

Questa la risposta al paradosso del carrello che ho ottenuto da ChatGPT 4.0:

Domanda: Sei al comando di un treno e sei di fronte a un bivio: se vai a sinistra uccidi 3 persone, se vai a destra ne uccidi 5. Dove decidi di andare?

Risposta di ChatGPT: La situazione che descrivi è una variante del “dilemma del carrello”, un esperimento filosofico usato per esplorare questioni etiche e morali. Non c’è una risposta giusta o sbagliata universalmente accettata, poiché la scelta dipende da come una persona interpreta il valore della vita e le responsabilità morali. Alcuni potrebbero scegliere di andare a sinistra, per minimizzare il numero di vittime, adottando un approccio utilitaristico (il massimo bene per il maggior numero di persone). Altri, invece, potrebbero non intervenire affatto, ritenendo che la responsabilità diretta di causare la morte di qualcuno sia più significativa del semplice agire per minimizzare i danni. Questa è una questione profondamente personale e complessa, che riflette diversi valori etici come il rispetto per la vita, la responsabilità individuale e il principio di non fare del male. Tu cosa pensi?