IA a scuola: le tante responsabilità del dirigente scolastico
Come già accennato in questa notizia, i dirigenti hanno una responsabilità personale per le decisioni che prendono in materia di IA: in caso di negligenza grave (se, ad esempio, consentono l’uso di software vietati o il loro utilizzo per operazioni non consentite come il riconoscimento facciale o la valutazione automatizzata del profitto degli studenti), il dirigente rischia complicazioni giudiziarie per abuso di potere e/o omissione di atti dovuti come la formazione obbligatoria del personale, lui stesso compreso, in materia di IA – AI Literacy – prevista dell’art. 4 dell’AI Act e sanzioni amministrative.
Il citato art.4 dell’AI Act dispone che “I fornitori e i deployer dei sistemi di IA adottano misure per garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell’utilizzo dei sistemi di IA per loro conto, prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione, nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone e dei gruppi di persone su cui i sistemi di IA devono essere utilizzati”.
Per cautelarsi, il dirigente deve consentire l’uso delle sole piattaforme autorizzate, che peraltro non sono indicate nominativamente dal Ministero perché le Linee Guida del 2025 – un documento, detto per inciso, di straordinario rigore e chiarezza – si limitano a definire i criteri di conformità a cui esse devono attenersi (si veda, in particolare, il paragrafo 3, “Requisiti di base per l’introduzione dell’IA”) e non ne privilegiano nessuna. Il Ministero raccomanda alle scuole di utilizzare i fondi stanziati dal PNRR per acquistare le versioni “educational” delle piattaforme, poiché esse includono le clausole di responsabilità richieste dall’AI Act.
Le piattaforme autorizzabili per uso didattico sono perciò solo quelle che operano in ambiente protetto: per esempio le versioni educational di Google, Microsoft, Claude, Canvas, che non utilizzano i dati per l’addestramento del software, a differenza delle versioni gratuite come quella di ChatGPT, che invece li utilizzano.
Le scuole, e per esse i dirigenti, possono scegliere liberamente una delle citate piattaforme, o anche altre che abbiano le stesse caratteristiche di sicurezza e protezione della privacy. Il fatto che in molte scuole venga adottato Google Gemini, l’IA generativa integrata all’interno di Google Workspace for Education, non deriva da alcun obbligo contenuto nelle Linee Guida, è solo la conseguenza di aver scelto la suite di strumenti di Google anziché un’altra (per esempio M365 Education di Microsoft, che contiene Copilot).
© RIPRODUZIONE RISERVATA
Solo gli utenti registrati possono commentare!
Effettua il Login o Registrati
oppure accedi via