Quanti indicatori per una corretta valutazione dell’apprendimento?

Nella querelle su verifiche e valutazioni degli studenti, registriamo il nuovo intervento del lettore Carlo Eltini, in risposta al precedente intervento di Gabriella Villa. Pubblichiamo ora volentieri la controreplica del primo.

Invitiamo anche gli altri lettori a inserirsi nel dibattito in corso (o a proporre nuovi argomenti di discussione), scrivendoci come di consueto a botta_e_risposta@tuttoscuola.com.

—-

Alcune risposte alla cortese dottoressa Gabriella Villa:

1) La mia interlocutrice chiama ‘verifica’ “quell’operazione che il docente fa per capire se un argomento trattato (sia esso il congiuntivo, le equazioni di secondo grado…) è conosciuto e applicato dai propri studenti in una determinata situazione“.
Si tratta qui di confrontare una prestazione (degli studenti) con uno standard. E’ un’operazione di controllo. Non occorre ricorrere all’idea di verità – implicita nel termine ‘verifica’.

2) Si tratta quindi di valutare (non misurare!) le competenze e conoscenze acquisite dagli studenti, sulla base di una classificazione ordinata (“ottimo”, “buono”, “sufficiente” ecc) o una scala auto ancorante (da 0 a 10 – ad esempio).
L’illusione di misurare è tipica dello scientismo; alla sua base c’è una forte sottovalutazione della classificazione – un’operazione logica necessaria ad organizzare concettualmente il mondo e dare ad esso un senso.
La misurazione (ad es. 1342,34 grammi) richiede un’unità di misura, che in questo caso è assente. Qui usiamo invece una classificazione ordinata per valutare un insieme di prestazioni degli studenti.

3) Subito dopo anche la dott.ssa Villa introduce il termine valutazione. Cito: “proprio perché per valutare una “competenza” è necessario ampliare la “raccolta di informazioni” per arrivare a conoscere non solo l’apprendimento di conoscenze e il conseguente uso di abilità ma anche le motivazioni, gli atteggiamenti e soprattutto i comportamenti“.
Per poter ampliare la raccolta di informazioni, occorre individuare e definire operativamente indicatori validi.
Sarei però molto cauto nell’includere tra i referenti del concetto di ‘competenza’ anche “motivazioni, atteggiamenti e comportamenti“. Per almeno due ragioni: perché si tratta di aspetti molto diversi; perché l’elenco degli indicatori diventerebbe troppo ampio e ingestibile.
Invece di raccogliere più informazioni non è preferibile usare una teoria capace di spiegare l’apprendimento o l’orientamento verso lo studio degli studenti? “Meno è meglio”: una buona teoria ci permette di concentrare l’attenzione su aspetti specifici; è inoltre passibile di controllo (di nuovo: non verifica) empirico.
Tanto meno sappiamo su un argomento, tanto più siamo tentati di raccogliere un gran numero di informazioni. E’ invece preferibile ricorrere ad una buona teoria, raccogliere dati su in un insieme limitato di indicatori, in modo da poterla controllare empiricamente.

4) Infine, due parole su PISA/OCSE: sono d’accordo che questo non sia un “modello unico per la valutazione a scuola“. Si può sempre migliorare e magari anche cambiare radicalmente. Appunto perché modelli e teorie sono più o meno utili, più o meno plausibili, non veri o falsi. Tra cinquant’anni le nostre idee in merito saranno senza dubbio cambiate.

I test di PISA possono essere utilmente usati a livello micro, in una singola classe. Il loro grande vantaggio è la comparabilità — sincronica e diacronica — dei dati che essi producono. Si possono comparare i risultati degli studenti in tempi diversi, tra studenti dello stesso istituto, distretto, provincia, regione o, anche, con quelli ottenuti da studenti trentini, finlandesi, coreani.

Carlo Eltini

—-

I lettori di tuttoscuola.com sono invitati a dire la loro su questo tema, scrivendo a botta_e_risposta@tuttoscuola.com. La redazione pubblicherà le risposte più significative. Analogamente, coloro che vogliono proporre nuovi temi di discussione possono scriverci al medesimo indirizzo botta_e_risposta@tuttoscuola.com.