Scuola

Maturità 2013, il bonus della discordia

Da quest’anno, un ottimo voto alla maturità permette di aggiungere punti ai risultati conseguiti nei test di ingresso alle facoltà a numero chiuso. Ma come evitare le ingiustizie? Meglio basarsi sulla performance assoluta dello studente o su quella relativa ai suoi pari? O affidarsi solo ai test?
di , 07.06.13, lavoce.info

Voto di maturità e test d’ingresso

A partire da quest’anno, l’ex ministro dell’Istruzione Francesco Profumo ha previsto un “bonus-maturità’’: fino a un massimo di 10 punti, da attribuire ai diplomati che abbiano conseguito almeno un punteggio di 80 centesimi nell’esame finale, che vanno a sommarsi ai punti conseguiti nei test di ingresso per i corsi universitari a numero chiuso.

Il bonus, però, viene attribuito allo studente sulla base della sua posizione rispetto ai percentili dei voti all’interno della sua scuola: il fatto che uno studente sia nel 95mo percentile indica per esempio che appartiene al 5 per cento degli studenti con punteggi più alti dell’istituto. Il bonus viene quindi assegnato sulla base dei risultati relativi degli studenti rispetto a quelli dei pari nelle stesse scuole. Il criterio potrebbe dunque far sì che studenti della stessa città, ma provenienti da scuole diverse, pur con lo stesso voto di diploma conseguano bonus di entità diversa: questa osservazione ha suscitato una certa dose di critiche, per il rischio di ingiustizie che ciò genererebbe. Ma un bonus che riflettesse delle “performance assolute” e non relative, ovvero un bonus uguale per tutti gli studenti con lo stesso punteggio di diploma a prescindere dalla scuola da cui provengono, basato ad esempio sui quantili calcolati a livello nazionale, offrirebbe forse la garanzia di essere “giusto”?

I test standardizzati

Mettiamoci nei panni di un’università che voglia selezionare gli studenti nei corsi a numero chiuso e vediamo quali sono le opzioni disponibili.
Una possibilità è certamente quella di utilizzare dei test standardizzati. Hanno il vantaggio di essere gli stessi per tutti coloro che li sostengono, e pertanto consentono di valutare gli studenti utilizzando lo stesso “metro” di misura. Tuttavia, presentano anche dei limiti. Innanzitutto sono costosi, soprattutto se diversi test devono essere utilizzati in diverse discipline. E dato che non è possibile testare tutte le conoscenze in possesso dagli studenti utilizzando un numero limitato di quesiti e che il risultato degli studenti nei test potrebbe essere influenzato da fattori di breve-periodo (ad esempio lo stato psico-fisico durante il test), molte università ritengono utile integrarli con un bonus calcolato sulla base del voto di diploma. Bonus che può essere attribuito sulla base della performance assoluta dello studente oppure sulla base della sua performance relativa.

Bonus basato sulla performance assoluta

Il bonus basato sulla performance assoluta è quello richiesto dai critici del “premio” pensato da Profumo. In base a questa idea, gli studenti con lo stesso voto di diploma dovrebbero conseguire lo stesso bonus (al massimo con una correzione relativa alla città o alla regione di residenza). Il criterio di uguaglianza formale rispetterebbe anche un criterio di uguaglianza sostanziale? Nell’ambito dell’economia dell’istruzione, ma anche di altre discipline (sociologia, pedagogia), ci si è già ampiamente occupati del fenomeno della cosiddetta grade inflation, o “inflazione dei voti”. È la tendenza che potrebbero avere certi docenti o scuole a attribuire voti più o meno alti a studenti con lo stesso livello di conoscenze o preparazione. Il fenomeno è stato già osservato nei dati delProgramme for International Student Assessment dell’Ocse.

Il vantaggio offerto dal test Pisa è che  è basato su un test standardizzato che misura le competenze degli studenti. Pur con i suoi limiti, si tratta di un raro caso in cui si ha la possibilità di confrontare tra scuole e regioni la corrispondenza tra le valutazioni interne degli insegnanti e il livello di competenze degli studenti. Nella tabella 1 abbiamo riportato i livelli medi di capacità in lettura (reading literacy) degli studenti misurato in Pisa 2009 corrispondenti a diverse fasce di voto attribuito agli studenti dai propri insegnanti. Sono state riportate le medie per tipo di scuola e per macro-area geografica. È evidente che alla stessa fascia di voto corrispondono livelli di competenze molto diversi. Negli istituti tecnici e professionali addirittura le competenze medie di coloro che riportato voti di 9 e 10 risultano più basse di quelle di coloro che hanno valutazioni di 7 o 8 al liceo (il fenomeno è trainato dal Centro e Sud), il che mostra chiaramente che in certe scuole gli insegnanti sono più generosi nei voti (grading standard). Un bonus uguale per tutti non offrirebbe pertanto sufficienti garanzie di “giustizia”.

Tabella 1. Medie dei punteggi Pisa in lettura (2009) per tipo di scuola, classe di voto e macro-area

 

 

 

 

 

 

 

Bonus basato sulla performance relativa

È da qui che chiaramente trae origine la soluzione introdotta da Francesco Profumo. Un bonus basato su performance assolute potrebbe creare incentivi avversi per le scuole, che avrebbero l’interesse ad alzare le valutazioni dei propri studenti per aumentarne la probabilità di accettazione nei corsi a numero chiuso. Ciò produrrebbe necessariamente un gonfiamento del livello dei voti (grade inflation) a livello di intero sistema scolastico, perché nessuna scuola vorrebbe rimanere indietro. Se il il bonus è basto sulla performance relativa, l’incentivo viene a mancare: anche alzando i voti di tutti gli studenti (nella stessa misura), la posizione relativa all’interno della scuola non cambia. Vediamo allora, sempre attraverso i dati Pisa, se questo criterio garantisce una migliore corrispondenza tra ranking dello studente e livello di conoscenze.

Nella figura 1 è stata riportata la distribuzione dei punteggi Pisa per livello di scuola per il quartile più elevato del voto attribuito dai docenti misurato a livello di singola scuola. Abbiamo considerato solo le scuole con almeno dieci studenti. Idealmente vorremmo una distribuzione molto concentrata (ovvero poche differenze tra scuole), ma la figura 1 mostra che non è così, neppure all’interno delle quattro macro-aree geografiche. Quindi anche questo criterio preso da solo non funziona.

Figura 2. Distribuzione dei punteggi medi Pisa (2009) in lettura per scuola, per gli studenti nel quartile più elevato del voto degli insegnanti

 

 

 

 

 

 

 

 

 

 

 

Il ‘peccato originale’

L’errore principale del bonus così come pensato dall’ex-ministro Profumo è che si basa sull’ipotesi che gli studenti si distribuiscano in maniera casuale tra le diverse scuole. Soltanto in questo caso infatti degli indicatori di performance relativi misurano anche in media la performance assoluta degli studenti. Ciò evidentemente non funziona in un sistema come quello italiano, differenziato per indirizzi, in cui gli studenti scelgono diversi tipi di scuola (licei, istituti tecnici, istituti professionali) a seconda del loro livello di abilità. In questo caso, usare degli indicatori basati sulla performance relativa ha degli esiti paradossali, per cui studenti “bravi” che hanno compagni altrettanto “bravi” (ovvero con punteggio di diploma elevato) potrebbero essere svantaggiati nell’attribuzione del bonus.

Nelle analisi sopra riportate abbiamo usato a scopo esemplificativo i dati Pisa, tuttavia a risultati analoghi si arriva utilizzando altre misure di performance scolastica.
In un recente studio che ho condotto per la Fondazione Cariplo insieme a Daniele Checchi e Antonio Filippin, si è cercato di costruire indici di performance esterna delle scuole secondarie superiori lombarde sulla base dei risultati conseguiti dagli studenti che provenendo da queste scuole si sono iscritti agli atenei lombardi.(1) Abbiamo considerato quali indicatori di risultato scolastico il numero di crediti conseguiti e il voto medio negli esami universitari pesato per il numero di crediti. L’analisi mostra che voto di diploma, posizione relativa dello studente all’interno della scuola (percentile di voto di diploma) e punteggio nel test di ingresso contribuiscono tutti a spiegare in maniera indipendente il successo degli studenti a livello di studi universitari. (2)
In conclusione, se proprio devono essere introdotti correttivi al punteggio dei test di ingresso, questi dovrebbero prendere in considerazione sia il voto di diploma che la posizione relativa degli studenti all’interno della propria scuola. Bonus basati su uno solo dei due elementi rischiano di introdurre più ingiustizie di quelle che intendono rimuovere.

(1) Bratti, M., Checchi, D. e Filippin, A. (2011), “Valore di segnalazione del voto di diploma e grading standard nelle scuole secondarie superiori”, in Rapporto per la Fondazione Cariplo. Uno studio analogo esiste anche per il Piemonte: De Simone, G., Monastero, B. e Stanchi, A. (2009), “Un esercizio di valutazione esterna: come le università piemontesi giudicano (indirettamente) le scuole della Regione”, Programma Education Fondazione Giovanni Agnelli, Working Paper n. 18.
(2) Aumenti di una deviazione standard nel punteggio del test di ingresso e nel voto di diploma sono associati significativamente ad aumenti di una e di mezza unità (circa), rispettivamente, nel voto medio pesato per i crediti. L’aumento di uno nel percentile dello studente è associato invece a un aumento di mezza unità nello stesso indicatore di performance.