Chatbot assassini/1. La California vara una legge che vieta i chatbot che spingono al suicidio

Dopo il suicidio dello studente californiano sedicenne Adam Raine, cui ChatGPT aveva dato consigli su come suicidarsi, la società OpenAI (seguita da Meta, Character.AI e da altre aziende produttrici di chatbot conversazionali, i cosiddetti chatbot companion) ha provveduto a introdurre strumenti di selezione automatica dei contenuti e procedure di parental control volte a consentire ai genitori di monitorare le attività dei figli.

Questo non è bastato al governatore democratico dello Stato di California, Gavin Newsom, che ha promosso una apposita legge, già approvata lo scorso 10 settembre dalla Assemblea dei deputati e ora in attesa di una rapida ratifica da parte del Senato californiano, che vieta ai chatbot creati con l’Intelligenza artificiale generativa di trattare argomenti critici come il suicidio e altre forme di autolesionismo e la sessualità nelle conversazioni con minori, e impone alle società interessate di operare con la massima trasparenza, minacciando azioni legali e pesanti sanzioni per quelle che non si adeguano. Se approvata, la legge entrerà in vigore già a partire dal 1° gennaio 2026, e le aziende dovranno presentare dettagliati resoconti annuali sulla sicurezza dei loro chatbot.

OpenAI, la società californiana denunciata dai genitori di Adam Raine per istigazione al suicidio del figlio, si è dotata di un organismo di consulenza scientifica (Expert Council on Well-Being and AI) e ha creato una rete internazionale di medici incaricati di validare le risposte di ChatGPT nelle conversazioni sugli argomenti più delicati.

Il problema è avvertito non solo nella progressista California ma anche in altri Stati, come il Texas, a guida repubblicana, che si apprestano a varare leggi simili a quella californiana, ed è possibile che presto se ne occupi anche il Congresso a livello federale. Gli USA, insomma, si stanno muovendo.

© RIPRODUZIONE RISERVATA