Tuttoscuola: Scuola digitale

L’etica dell’intelligenza artificiale

Lo scorso 22 marzo la Commissione speciale europea AIDA (Special Committee on Artificial Intelligence in a Digital Age), istituita dal Parlamento europeo nel 2020, ha approvato il suo documento finale (Final Recommendations) a conclusione di 18 mesi di attività. Aida esprime la preoccupazione che l’UE sia “rimasta indietro nella corsa globale alla leadership tecnologica, con la conseguenza che gli standard vengano sviluppati altrove in futuro, spesso da attori non democratici”, e che debba perciò recuperare il ritardo puntando ad “agire come normatore globale nell’AI” (Artificial Intelligence), anche perché “le tecnologie di intelligenza artificiale potrebbero porre questioni etiche e legali cruciali”, legate anche alla ricerca militare e agli “sviluppi tecnologici in sistemi d’arma autonomi letali”.

La Commissione europea ha formulato lo scorso anno una bozza di Regolamento europeo sull’AI, ma l’iter legislativo richiederà ancora tempo, e molte questioni sono rimaste aperte, soprattutto quelle che implicano responsabilità in ordine alla salvaguardia dei fondamentali diritti umani. Per ora esiste solo il “Regolamento generale sulla protezione dei dati” (GDPR, General Data Protection Regulation) che si limita a disciplinare il modo in cui le aziende e le altre organizzazioni trattano i dati personali. Ma la tematica è molto più ampia.

Agli aspetti etici dei molteplici sviluppi e campi di applicazione dell’IA (AI in inglese) è dedicato l’ultimo lavoro di Luciano Floridi, appena uscito in libreria, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide (Raffaello Cortina editore, 2022). Un libro importante e difficile, come egli stesso riconosce, ma di notevole spessore e rigore, nel quale l’autore de La quarta rivoluzione, docente di Filosofia ed etica dell’informazione nell’Università di Oxford, sostiene che la filosofia del nostro tempo, quella più adatta a spiegare e a vivere nell’infosfera che ci circonda, non è più quella teoretica dei grandi pensatori del passato (Floridi cita i suoi “tre eroi”: Platone, Cartesio e Kant) ma quella che mette “al centro dell’impresa filosofica (…) l’etica, la filosofia politica e del diritto”. 

Il libro è diviso in due parti: la prima (“Comprendere l’intelligenza artificiale”) definisce il concetto di IA, la seconda (“Valutare l’intelligenza artificiale”), assai più ampia e supportata da una straordinaria mole di riferimenti e citazioni alle ricerche più aggiornate e al dibattito in corso, individua i dilemmi etici connessi all’uso dell’IA, che come ogni tecnologia (ma in misura incommensurabilmente maggiore) può essere impiegata per il bene sociale ma anche per il male sociale, in caso di suo uso criminale, del quale l’autore fornisce una corposa esemplificazione.

Grande è il rischio che l’ulteriore sviluppo dell’IA, peraltro inevitabile e irreversibile, produca – se non governato e regolato da norme etiche condivise a livello internazionale (ma intanto si potrebbe cominciare dall’UE) – un aumento delle discriminazioni.

Se non elaboreremo migliori quadri normativi giuridici ed etici, l’intelligenza artificiale creerà ulteriori polarizzazioni nella nostra società, specialmente tra i pochi al di sopra delle macchine – i nuovi Patrizi – e coloro che stanno al di sotto di esse – la nuova plebe”. Per evitare che ciò accada, conclude Floridi con citazione tratta dal Giulio Cesare di Shakespeare (“La colpa, caro Bruto, non è nelle nostre stelle. Ma in noi stessi, se siamo schiavi”), servono decisioni che rendano efficaci le regole etiche al più ampio livello possibile. Decisioni che però competono ai politici, non ai filosofi. Per questo il tema del suo prossimo libro sarà La politica dell’informazione.

© RIPRODUZIONE RISERVATA

 

Forgot Password