ChatGPT-4 impara e migliora. Che fare?

Il quotidiano inglese The Guardian, sempre molto attento e informato sulle innovazioni che riguardano il mondo dell’educazione, ha pubblicato pochi giorni fa un articolo, a firma Anna Fazackerley, nel quale si riferisce che un saggio accademico intitolato Chatting and Cheating: Ensuring Academic Integrity in the Era of ChatGPT  (“Chattare e barare: come salvaguardare l’integrità dell’Accademia al tempo di ChatGPT”), pubblicato su una importante rivista educativa sottoposta a peer review da parte di ben quattro autorevoli accademici, è stato in realtà scritto dai suoi tre autori (anch’essi docenti universitari) copiando il testo di una risposta data da ChatGPT-4 a un quesito avente il medesimo titolo.

Ma i revisori non se ne sono accorti e hanno attribuito il saggio ai loro tre colleghi accademici. Il fatto è che l’ultima versione del chatbot di OpenAI (e quelle in arrivo di Google, Microsoft e altri) è più accurata delle precedenti: ha imparato ed è migliorata, tanto da ingannare lettori esperti e competenti. E il processo di perfezionamento appare irreversibile. Che fare? Limitarsi a vietare i chatbot e punire gli studenti se ne servono, individuandoli con appositi software indagatori, sempre basati sulla IA? Oppure accettare che gli studenti se ne avvalgano, sottoponendo i prodotti scritti a ulteriori verifiche, magari anche orali (cosa spesso non prevista nelle università dei Paesi anglosassoni)?

Su questi temi la rivista online Education2.0, diretta da Luigi Berlinguer, pubblica nel suo ultimo numero (93 del 22 marzo 2023) un argomentato saggio di Mario Fierli, il primo e per lungo tempo unico ispettore per l’informatica del Ministero della PI, che dopo un rapido ma serrato excursus sugli aspetti storici, filosofici e tecnologici dello sviluppo dell’IA giunge a questa conclusione sulle sue implicazioni didattiche:

Si ripropongono, in modo più complesso, le domande che già da tempo ci rivolgiamo sul rapporto con le tecnologie digitali:

La scelta di ignorare e proibire sembra perdente in partenza. Il problema è sempre quello di imparare a convivere con i sistemi tecnologici, usarli con intelligenza. Sistemi che sembrano rubare l’intelligenza non possono invece richiedere e promuovere un’intelligenza più alta e complessa? Per esempio, spostare la mente dal rispondere alle domande all’imparare a farsi domande più complesse? 

L’esplosione della curiosità, l’esplorazione e le vere e proprie ‘recensioni’ alle risposte di ChatGPT di commentatori non può essere un indizio di come affrontare il problema in modo creativo? I ragazzi sono già entrati in questa ottica in modo ludico, diamolo per acquisito, lavoriamoci sopra”.

Domande e risposte a nostro avviso corrette e condivisibili. Guardare avanti ed esplorare il futuro è sempre meglio che vietare e arroccarsi in una difesa luddistica del passato. (O.N.)

© RIPRODUZIONE RISERVATA