Recentemente ho scritto un articolo sul rapporto emozionale di partecipazione tra la mente umana e quella delle macchine ed ho partecipato ad una puntata di Tempi Digitali di Mauro Lupi, per discutere di Intelligenza Artificiale e dilemmi morali o etici.

I dilemmi morali sono sostanzialmente le decisioni che una macchina dovrà affrontare sotto il profilo morale, per arrivare ad essere simile alla mente umana. Intorno al tema della moralità applicata ai sistemi intelligenti, ruotano diversi termini quali entropia, empatia ed etica che ci rimandano a studi specialistici di settore o ci ricordano film che, nel loro mondo visionario, ci hanno “introdotto” termini per rappresentare il futuro dell’uomo e delle macchine. Ma di cosa parliamo esattamente?

Entropia

Nella teoria dell’informazione, tutto quanto è d’impedimento alla chiarezza e univocità del messaggio; maggiore è l’entropia, minore è la quantità di informazione.
E’ la grandezza che misura la quantità di dati necessari per immagazzinare o trasmettere l’informazione e per prevedere lo stato futuro del sistema (riassunto nel concetto imparo-prevedo). Nel processo di evoluzione, il prossimo passo della capacità dell’uomo di generare informazione saranno le reti uomo-macchina. L’obiettivo sarà creare ambiti dove l’informazione non si riduca ma cresca. In altre parole sarà una lotta contro l’entropia stessa. Pensiamo agli androidi di Blade Runner che combattevano il loro limite di vita (che generava invecchiamento e disordine, concetto appartenente all’entropia) cercando risposte su come riprodursi, competere, evolvere.

Etica

Dottrina o indagine speculativa intorno al comportamento pratico dell’uomo, di fronte ai due concetti del bene e del male. Rendere le macchine sempre più simili all’uomo crea inevitabilmente dilemmi etici. La rivoluzione tecnologica deve essere mantenuta sotto costante controllo, affinché tutti ne possano trarre il giusto vantaggio.
L’intelligenza artificiale è una disciplina che sfiora la scienza e la filosofia poiché manifesta aspetti etici, oltre che teorici e pratici. Questi aspetti sono stati analizzati, ad esempio, nelle Linee Guida Etiche sull’intelligenza artificiale della Commissione Europea, la prima istituzione al mondo ad aver stilato, nell’aprile 2019, indicazioni caratterizzate da un approccio “human-centric” ed anteposto la parola “Trustworthy” (Affidabile) alla parola IA.

Sostanzialmente l’etica dell’Intelligenza Artificiale deve essere conforme ai seguenti requisiti:

Supervisione umana: garantire il rispetto dei diritti fondamentali e del benessere dell’utente
Robustezza e sicurezza: affidabilità dei sistemi di controllo in caso di illeciti
Privacy e protezione dei dati: aderenza al GDPR, garantire ai cittadini il pieno controllo sui propri dati
Trasparenza: tracciabilità dei sistemi
Correttezza e non discriminazione: garantire a tutti il libero accesso a strumenti di IA
Benessere sociale e ambientale: promuovere l’IA dove può garantire uno sviluppo sostenibile nel rispetto dell’ambiente e della società
Responsabilità: verifica continua dei sistemi di IA

Vorrei concludere con una riflessione personale: sono d’accordo con chi sostiene che sarà proprio l’empatia la linea di confine tra l’uomo e la macchina, che eviterà la nostra drammatica sostituzione o estinzione che molti profetizzano. Le macchine forniranno soluzioni e risultati, l’uomo le applicherà in contesti umani, composti anche di creatività ed empatia. L’uomo sarà sempre l’ago della bilancia tra l’apprendimento e il successivo impiego dell’informazione appresa. Attraverso l’intelligenza artificiale gli umani diverranno più efficienti, non più intelligenti.

Guarda la puntata AI & Dilemmi Morali su Tempi Digitali

2022-05-30T16:25:58+02:009 Aprile 2021|Categorie: Articoli|Tag: , , |