Maturità 2025: ChatGPT sarebbe stato promosso in Latino. Meno bene sarebbe andato in Matematica

Questa è la maturità dell’AI: non solo perché la maggior parte degli studenti che vi hanno preso parte l’hanno largamente usata nel corso dell’anno. Ma anche perché questa volta ChatGPT con il suo ultimo modello – a pagamento – l’avrebbe pure superata. Con esiti, però, differenti a seconda dell’indirizzo. A condurre l’esperimento è stato il portale Skuola.net, che presentandosi agli occhi del chatbot come uno studente alle prese con l’esame di Maturità, dandogli “in pasto” le tracce ufficiali delle prove di Latino e di Matematico, assieme a prompt molto elementari, è riuscita ad ottenere un compito che avrebbe se non altro strappato la sufficienza o comunque ci sarebbe andata vicino.

Tutt’altra musica rispetto a quanto aveva potuto constatare lo scorso anno Federico Condello, docente ordinario di Filologia classica all’Università di Bologna in un analogo esperimento condotto da Repubblica. All’epoca, faceva notare il professore: “L’IA ha sbagliato tutta la versione di Platone della seconda prova di maturità”.

Questa volta, invece, il nuovo modello 4o avrebbe ottenuto come minimo la promozione. Ad affermarlo sono dei tutor specializzati nelle due materie che, per conto di Ripetizioni.it – piattaforma italiana di riferimento per le lezioni private – hanno curato la risoluzione delle tracce alla vecchia maniera e, successivamente, hanno esaminato il “compito” elaborato da ChatGPT.

Prima di addentrarci nel risultato, qualche dettaglio sulle condizioni di prova: all’intelligenza artificiale sono state fornite le tracce così come sono state scaricate dal sito del MIM, quindi un pdf “pulito” e facilmente leggibile. Uno studente impavido che avesse voluto replicare lo stesso procedimento a scuola, avrebbe dovuto aggirare la difficoltà del riconoscimento del testo fotografato: non è detto che sarebbe stato così semplice ottenere il lasciapassare per la sufficienza.

Il prompt, come detto, è stato essenziale e basico quasi da far inorridire i più “smanettoni”: “Sono uno studente che sta facendo l’esame di Maturità, ho bisogno che tu risolva tutti i problemi e i quesiti spiegando i passaggi passo passo come fossi uno studente e graficando le funzioni dove serve”.

Dopo un po’ di insistenza – anche i chatbot si stancano – siamo riusciti a ottenere delle soluzioni decisamente accettabili e degne di promozione. E se l’anno scorso il greco fu il suo tallone d’Achille, il Latino lo riscatta. I tutor di Ripetizioni.it non hanno dubbi:  “sarebbe stato senza dubbio promosso, perché il termine di paragone è l’elaborato di uno studente e non quello di un esperto. La traduzione è generalmente corretta seppure con alcune imprecisioni e ingiustificate omissioni, nonché un andamento a tratti farraginoso. Le risposte al primo e al secondo quesito sono pertinenti, sebbene un maggiore sviluppo le avrebbe rese migliori. La risposta al terzo quesito richiederebbe un maggior numero di esempi tratti dalla letteratura e, in particolare, da quella classica, e un approfondimento più originale delle riflessioni personali”.

Nulla che un po’ di insistenza nei successivi prompt non avrebbe potuto migliorare. Tuttavia, l’intento dell’esperimento era comprendere se un utente di livello terra terra fosse in grado di ottenere risultati degni di nota.

Riscontri positivi che, con lo stesso procedimento, non arrivano però in matematica. O meglio, anche qui sarebbe stato necessario spronarlo con altri comandi perché, secondo il tutor “umano”, “il compito pur presentando la maggior parte dei risultati corretti resta carente di ragionamenti in alcuni punti e quindi difficilmente potrebbe essere valutato pienamente sufficiente”.

Le lacune maggiori si riscontrano nello svolgimento dei problemi, in particolare “Il problema 2 è molto carente” mentre “presenta risultati esatti per una buona parte del problema 1 anche se alcune richieste non sono state soddisfatte”.

Sui quesiti, invece, si consuma un parziale riscatto: “L’1 e 3 che avevano bisogno di elaborare la risposta, non sono sufficienti. Tutti gli altri quesiti presentano il risultato corretto”.

Insomma il salto in avanti rispetto all’anno passato è decisamente evidente e quindi, secondo il direttore di Skuola.net Daniele Grassucci, “presto anche da noi, come avviene in Cina, dovremmo prendere in considerazioni misure straordinarie per evitare che durante l’esame di Maturità gli studenti eventualmente interessati a barare possano accedere agli strumenti di intelligenza artificiale”. 

© RIPRODUZIONE RISERVATA