Se l’esame non serve né agli studenti, né agli insegnanti, né allo stato che vuol valutare gli uni e gli altri
Di Andrea Ichino
Di Andrea Ichino
È calato il sipario sugli esami di maturità, ma i veri problemi di questa prova restano aperti e non sono certo quelli generati dagli errori nella formulazione delle domande che hanno movimentato gli scritti dell’ultima edizione.
Tra i paesi avanzati con sistema di istruzione pubblico l’Italia è forse l’unico in cui le prove dell’esame che determina il passaggio dalla scuola all’università non vengono corrette in modo centralizzato e uguale per tutti gli studenti. In Inghilterra sono addirittura 4 nella carriera di uno studente gli esami standardizzati e corretti centralmente: a 7, 11, 14 e 16 anni. In Italia, invece, questo non accade mai nemmeno per la maturità nella quale, pur essendo uguali per tutti alcuni quesiti delle prove scritte, la correzione è fatta da una commissione locale nella quale la presenza di membri esterni non è e non può essere garanzia di uniformità nei metri di giudizio. Strano questo modo di valutare l’esame conclusivo di un processo di apprendimento di cui lo Stato controlla puntigliosamente ogni altro aspetto con l’intento di garantire un’istruzione rigorosamente identica per tutti. Sarà anche uguale l’istruzione impartita ad ogni studente, ma non è certo uguale, nei fatti, l’esame che deve valutare i risultati raggiunti. E questo ha due conseguenze negative importanti.
La prima è che i voti dell’esame sono totalmente inutili per confrontare studenti di classi o scuole diverse. Ossia non possiamo stabilire se uno studente valutato con 95 nel liceo X sia più e meno bravo di uno valutato con 90 nel liceo Y, perché i professori che hanno attribuito quei voti hanno metri di giudizio diversi e hanno valutato prove d’esame almeno in parte differenti. Non deve sorprendere quindi che mentre nelle indagini standardizzate PISA gli studenti del sud risultino peggiori e quelli del nord-est siano gli unici vicini alla media europea (vedi Checchi e Radaelli su www.lavoce.info), i dati sulla maturità pubblicati ieri dal Ministero dicano esattamente l’opposto, con il primato delle promozioni in Calabria e delle bocciature in Veneto e Friuli.
Inoltre, nella situazione attuale, gli insegnanti peggiori cercano di nascondere i loro difetti regalando voti, mentre quelli migliori si trovano costretti, di conseguenza, a dare voti più alti ai propri studenti perché non siano danneggiati nel confronto con quelli che all’esame hanno avuto vita facile. Non sorprende quindi che i voti siano ovunque molto alti e le bocciature praticamente inesistenti (3 % tra i maschi e 2 % tra le femmine). Per analogia, avendo l’esame valore legale, sarebbe come se lo Stato stampasse banconote ma non garantisse che i numeri stampati su di esse fossero una misura autentica e confrontabile del loro valore. E così, mentre in Spagna, Inghilterra o Israele i risultati di questo esame sono usati dagli atenei per scegliere gli studenti da ammettere ai corsi di laurea, in Italia si rendono necessari costosi test di ingresso perché a tutti è chiaro che il voto di maturità è attualmente di scarsa utilità informativa.
La seconda conseguenza negativa è che, così facendo, lo Stato rinuncia ad ottenere un dato utile per la valutazione delle scuole e degli insegnanti. Immaginiamo che l’esame di terza media e quello di maturità siano standardizzati, al fine di misurare quello che riteniamo uno studente debba sapere in ciascuna materia, e siano corretti centralmente. Di ogni studente italiano potremmo quindi conoscere la posizione nella classifica nazionale di ciascuno dei due esami. Sarebbe quindi possibile valutare gli insegnanti delle superiori sulla base dei risultati conseguiti dai loro studenti all’esame di maturità, opportunamente tarati in base ai risultati degli stessi studenti all’esame di terza media. Questo affinché sia possibile valutare gli insegnanti sulla base non solo dei livelli ma anche delle variazioni di performance dei loro studenti, in modo da poter premiare anche (e forse soprattutto) gli insegnanti che si trovino a lavorare in scuole con studenti meno bravi.
In Inghilterra, i risultati dei test standardizzati per scuole e insegnanti sono resi pubblici in modo che anche le famiglie ne siano a conoscenza e possano scegliere a ragion veduta dove iscrivere i propri figli. E le scuole peggiori possono essere chiuse. A fronte di questo però presidi e insegnanti hanno un’autonomia gestionale infinitamente maggiore che in Italia nel decidere cosa e come insegnare, con quali strutture e quali risorse umane. Solo a fronte della concessione di questa autonomia ha senso valutare scuole e insegnanti per il loro operato.
Si potrebbe obiettare che la correzione centralizzata di migliaia di prove non può essere fatta da un unico correttore e quindi comunque implica differenze di giudizio. In effetti, nei paesi in cui gli esami nazionali sono corretti centralmente, esiste un “corpo” specifico di persone che amministrano l’esame nelle scuole e correggono i compiti con criteri il più possibile uniformi, ma certamente non perfettamente identici. Tuttavia questi correttori non sono influenzati dagli incentivi distorti che operano quando a correggere sono gli insegnanti: quindi offrono maggiori garanzie di indipendenza e confrontabilità di giudizio. Ma una soluzione forse ancora migliore è quella dei test a risposta multipla che possono essere corretti elettronicamente in modo rapido e poco costoso. Sono test che fanno fatica ad essere accettati come validi in Italia, essenzialmente perché poco conosciuti e spesso male utilizzati. L’esperienza americana (vedi www.ets.org) tuttavia da tempo suggerisce che siano un modo efficace per valutare l’apprendimento e le capacità degli studenti in moltissimi campi del sapere.
Se il Ministro Gelmini volesse raccogliere questo suggerimento, potrebbe inserire già dal giugno 2009, in via sperimentale, una prova aggiuntiva nazionale amministrata e corretta in modo centralizzato negli esami di terza media e di maturità. Ci vorrà del tempo per affinare il metodo e integrarlo in un sistema di valutazione di insegnanti e scuole a cui sia stata preventivamente data l’autonomia di cui hanno bisogno. Ma sarebbe molto interessante confrontare subito i risultati del nuovo test con quelli della altre prove tradizionali, corrette localmente.
Tra i paesi avanzati con sistema di istruzione pubblico l’Italia è forse l’unico in cui le prove dell’esame che determina il passaggio dalla scuola all’università non vengono corrette in modo centralizzato e uguale per tutti gli studenti. In Inghilterra sono addirittura 4 nella carriera di uno studente gli esami standardizzati e corretti centralmente: a 7, 11, 14 e 16 anni. In Italia, invece, questo non accade mai nemmeno per la maturità nella quale, pur essendo uguali per tutti alcuni quesiti delle prove scritte, la correzione è fatta da una commissione locale nella quale la presenza di membri esterni non è e non può essere garanzia di uniformità nei metri di giudizio. Strano questo modo di valutare l’esame conclusivo di un processo di apprendimento di cui lo Stato controlla puntigliosamente ogni altro aspetto con l’intento di garantire un’istruzione rigorosamente identica per tutti. Sarà anche uguale l’istruzione impartita ad ogni studente, ma non è certo uguale, nei fatti, l’esame che deve valutare i risultati raggiunti. E questo ha due conseguenze negative importanti.
La prima è che i voti dell’esame sono totalmente inutili per confrontare studenti di classi o scuole diverse. Ossia non possiamo stabilire se uno studente valutato con 95 nel liceo X sia più e meno bravo di uno valutato con 90 nel liceo Y, perché i professori che hanno attribuito quei voti hanno metri di giudizio diversi e hanno valutato prove d’esame almeno in parte differenti. Non deve sorprendere quindi che mentre nelle indagini standardizzate PISA gli studenti del sud risultino peggiori e quelli del nord-est siano gli unici vicini alla media europea (vedi Checchi e Radaelli su www.lavoce.info), i dati sulla maturità pubblicati ieri dal Ministero dicano esattamente l’opposto, con il primato delle promozioni in Calabria e delle bocciature in Veneto e Friuli.
Inoltre, nella situazione attuale, gli insegnanti peggiori cercano di nascondere i loro difetti regalando voti, mentre quelli migliori si trovano costretti, di conseguenza, a dare voti più alti ai propri studenti perché non siano danneggiati nel confronto con quelli che all’esame hanno avuto vita facile. Non sorprende quindi che i voti siano ovunque molto alti e le bocciature praticamente inesistenti (3 % tra i maschi e 2 % tra le femmine). Per analogia, avendo l’esame valore legale, sarebbe come se lo Stato stampasse banconote ma non garantisse che i numeri stampati su di esse fossero una misura autentica e confrontabile del loro valore. E così, mentre in Spagna, Inghilterra o Israele i risultati di questo esame sono usati dagli atenei per scegliere gli studenti da ammettere ai corsi di laurea, in Italia si rendono necessari costosi test di ingresso perché a tutti è chiaro che il voto di maturità è attualmente di scarsa utilità informativa.
La seconda conseguenza negativa è che, così facendo, lo Stato rinuncia ad ottenere un dato utile per la valutazione delle scuole e degli insegnanti. Immaginiamo che l’esame di terza media e quello di maturità siano standardizzati, al fine di misurare quello che riteniamo uno studente debba sapere in ciascuna materia, e siano corretti centralmente. Di ogni studente italiano potremmo quindi conoscere la posizione nella classifica nazionale di ciascuno dei due esami. Sarebbe quindi possibile valutare gli insegnanti delle superiori sulla base dei risultati conseguiti dai loro studenti all’esame di maturità, opportunamente tarati in base ai risultati degli stessi studenti all’esame di terza media. Questo affinché sia possibile valutare gli insegnanti sulla base non solo dei livelli ma anche delle variazioni di performance dei loro studenti, in modo da poter premiare anche (e forse soprattutto) gli insegnanti che si trovino a lavorare in scuole con studenti meno bravi.
In Inghilterra, i risultati dei test standardizzati per scuole e insegnanti sono resi pubblici in modo che anche le famiglie ne siano a conoscenza e possano scegliere a ragion veduta dove iscrivere i propri figli. E le scuole peggiori possono essere chiuse. A fronte di questo però presidi e insegnanti hanno un’autonomia gestionale infinitamente maggiore che in Italia nel decidere cosa e come insegnare, con quali strutture e quali risorse umane. Solo a fronte della concessione di questa autonomia ha senso valutare scuole e insegnanti per il loro operato.
Si potrebbe obiettare che la correzione centralizzata di migliaia di prove non può essere fatta da un unico correttore e quindi comunque implica differenze di giudizio. In effetti, nei paesi in cui gli esami nazionali sono corretti centralmente, esiste un “corpo” specifico di persone che amministrano l’esame nelle scuole e correggono i compiti con criteri il più possibile uniformi, ma certamente non perfettamente identici. Tuttavia questi correttori non sono influenzati dagli incentivi distorti che operano quando a correggere sono gli insegnanti: quindi offrono maggiori garanzie di indipendenza e confrontabilità di giudizio. Ma una soluzione forse ancora migliore è quella dei test a risposta multipla che possono essere corretti elettronicamente in modo rapido e poco costoso. Sono test che fanno fatica ad essere accettati come validi in Italia, essenzialmente perché poco conosciuti e spesso male utilizzati. L’esperienza americana (vedi www.ets.org) tuttavia da tempo suggerisce che siano un modo efficace per valutare l’apprendimento e le capacità degli studenti in moltissimi campi del sapere.
Se il Ministro Gelmini volesse raccogliere questo suggerimento, potrebbe inserire già dal giugno 2009, in via sperimentale, una prova aggiuntiva nazionale amministrata e corretta in modo centralizzato negli esami di terza media e di maturità. Ci vorrà del tempo per affinare il metodo e integrarlo in un sistema di valutazione di insegnanti e scuole a cui sia stata preventivamente data l’autonomia di cui hanno bisogno. Ma sarebbe molto interessante confrontare subito i risultati del nuovo test con quelli della altre prove tradizionali, corrette localmente.
“Il Sole 24 Ore” del 23 luglio 2008
Nessun commento:
Posta un commento