Alecsandria Digital | morale
Aspetti etici dell'intelligenza artificiale. Dilemmi morali delle soluzioni intelligenti. La responsabilità di creatori e utenti. Le 3 E dei dilemmi morali "intelligenti": Entropia, Empatia, Etica
8198
post-template-default,single,single-post,postid-8198,single-format-standard,ajax_updown_fade,page_not_loaded,

BLOG

Entropia, empatia, etica nella morale applicata all’intelligenza artificiale… facciamo un po’ di ordine

09 Apr 2021, in Pubblicazioni
etica AI

di Carlo Torre

Recentemente ho scritto un articolo sul rapporto emozionale di partecipazione tra la mente umana e quella delle macchine ed ho partecipato ad una puntata di Tempi Digitali di Mauro Lupi, per discutere di Intelligenza Artificiale e dilemmi morali o etici. I dilemmi morali sono sostanzialmente le decisioni che una macchina dovrà affrontare sotto il profilo morale, per arrivare ad essere simile alla mente umana. Intorno al tema della moralità applicata ai sistemi intelligenti, ruotano diversi termini quali entropia, empatia ed etica che ci rimandano a studi specialistici di settore o ci ricordano film che, nel loro mondo visionario, ci hanno “introdotto” termini per rappresentare il futuro dell’uomo e delle macchine. Ma di cosa parliamo esattamente?

Entropia

Nella teoria dell’informazione, tutto quanto è d’impedimento alla chiarezza e univocità del messaggio; maggiore è l’entropia, minore è la quantità di informazione.
E’ la grandezza che misura la quantità di dati necessari per immagazzinare o trasmettere l’informazione, per prevedere lo stato futuro del sistema (riassunto nel concetto imparo-prevedo). Nel processo di evoluzione, il prossimo passo della capacità dell’uomo di generare informazione saranno le reti uomo-macchina con l’obiettivo di creare ambiti dove l’informazione non si riduce ma cresce. In poche parole sarà una lotta contro l’entropia stessa. Pensiamo agli androidi di Blade Runner che combattevano il loro limite di vita (che generava invecchiamento e disordine, concetto appartenente all’entropia) cercando risposte su come riprodursi, competere, evolvere.

Empatia

Consiste nel riconoscere le emozioni degli altri come se fossero proprie, calandosi nella realtà altrui per comprenderne punti di vista, pensieri, sentimenti, emozioni e “pathos”. L’empatia è la capacità di “mettersi nei panni dell’altro” percependo, in questo modo, emozioni e pensieri.
Le macchine potranno avere accesso agli stati d’animo umani? Si parla ormai di “empatia artificiale”, ossia “la capacità di un sistema informatico di formare una rappresentazione dello stato emotivo di un interlocutore e contemporaneamente essere consapevole del meccanismo causale che ha indotto quello stato emotivo”.
A Gennaio 2021, il gruppo guidato dall’ingegnere Hod Lipson ha pubblicato sulla rivista Scientific Reports la cronaca di un esperimento, basato sulla “Teoria della Mente”, dal risultato strabiliante: hanno costruito un robot capace di leggere il comportamento di un altro robot e predirne le azioni future. La percentuale di successo è stata molto alta (98,5%) e già si parla di “una scintilla primitiva di empatia nei robot” (Boyuan Chen, principale autore dello studio).

Etica

Dottrina o indagine speculativa intorno al comportamento pratico dell’uomo, di fronte ai due concetti del bene e del male. Rendere le macchine sempre più simili all’uomo crea inevitabilmente dilemmi etici. La rivoluzione tecnologica deve essere mantenuta sotto costante controllo, affinché tutti ne possano trarre il giusto vantaggio.
L’intelligenza artificiale è una disciplina che sfiora la scienza e la filosofia poiché manifesta aspetti etici, oltre che teorici e pratici. Questi aspetti sono stati analizzati, ad esempio, nelle Linee Guida Etiche sull’intelligenza artificiale della Commissione Europea, la prima istituzione al mondo ad aver stilato, nell’aprile 2019, indicazioni caratterizzate da un approccio “human-centric” ed anteposto la parola “Trustworthy” (Affidabile) alla parola IA. Sostanzialmente l’etica dell’Intelligenza Artificiale deve essere conforme ai seguenti requisiti:

Supervisione umana: garantire il rispetto dei diritti fondamentali e del benessere dell’utente

Robustezza e sicurezza: affidabilità dei sistemi di controllo in caso di illeciti

Privacy e protezione dei dati: aderenza al GDPR, garantire ai cittadini il pieno controllo sui propri dati

Trasparenza: tracciabilità dei sistemi

Correttezza e non discriminazione: garantire a tutti il libero accesso a strumenti di IA

Benessere sociale e ambientale: promuovere l’IA dove può garantire uno sviluppo sostenibile nel rispetto dell’ambiente e della società

Responsabilità: verifica continua dei sistemi di IA

Vorrei concludere con una riflessione personale: sono d’accordo con chi sostiene che sarà proprio l’empatia la linea di confine tra l’uomo e la macchina, che eviterà la nostra drammatica sostituzione o estinzione che molti profetizzano. Le macchine forniranno soluzioni e risultati, l’uomo le applicherà in contesti umani, composti anche di creatività ed empatia. L’uomo sarà sempre l’ago della bilancia tra l’apprendimento e il successivo impiego dell’informazione appresa. Attraverso l’intelligenza artificiale gli umani diverranno più efficienti, non più intelligenti.

Guarda la puntata AI & Dilemmi Morali su Tempi Digitali

Condividi su: