Il valore aggiunto di INVALSI – di Renata Puleo, Roars, 31-07-2019

di Renata Puleo, 

Roars, 31-07-2019

 

Le oltre 100 pagine del Rapporto Prove 2019, presentato alla Camera il 10 luglio dal vertice dell’INVALSI, sollecitano una serie di riflessioni per individuarne alcune chiavi di lettura.

Quest’anno, forse a causa delle critiche sulla invasività delle locuzioni economiche contenute nelle analisi dei risultati, si è preferito non citare l’espressione “valore aggiunto” in modo esplicito.

Le argomentazioni a esso relative sono disperse in numerosi paragrafi che descrivono le differenze di prestazione e, nel merito, in quello significativamente intitolato “Quanto è equa la scuola?”

Ma cosa si nasconde sotto la retorica dell’equità e del suo succedaneo, il valore aggiunto?

Ci si dice convinti che una società non abbastanza inclusiva può cambiare in meglio grazie ad una scuola completamente affidata a chi di statistica e di numeri è esperto e dunque sa suggerire all’agenda politica il programma scolastico.

Eppure, le prove, per essere valide e validabili in quanto test, secondo la letteratura statistica, dovrebbero essere allineate con la caratteristica dell’oggetto che si intende rilevare (un fattore tipico della comprensione di un testo come può esserlo – ad esempio – l’individuazione del protagonista).

Non solo, ma ex ante ed ex post contenuti e criteri devono costantemente essere verificati, anche rispetto alla stabilità, alla riproducibilità dei risultati.

Ora, molti ricercatori sostengono con buonissime ragioni, che tale allineamento fra test INVALSI e Indicazioni Nazionali non c’è.

L’INVALSI piega le Indicazioni Nazionali nelle strette di una didattica di Stato di cui i test sono l’esito. Tutto questo lavoro di accanimento numerico e di tabelle a doppia entrata per “misurare” cosa la scuola XY ha effettivamente immesso nel processo di valorizzazione del capitale umano che avevano a disposizione nelle classi.

Versione modificata di “IVA: imposizione del valore aggiunto. INVALSI ed economia della pochezza“, pubblicato il 23.07.2019 su La scuola delle tre i

_____

Le oltre 100 pagine del Rapporto Prove 2019, presentato alla Camera il 10 luglio dal vertice dell’INVALSI, sollecitano una serie di riflessioni per individuarne alcune chiavi di lettura.

Riflessioni reiterate sicuramente, come ripetitivo – anche se in rinnovata veste grafica – è il rapporto.

Del resto, le stesse prove sono per struttura sovrapponibili, soprattutto quelle “storiche” per il Primo Ciclo.

Altre considerazioni sono già state presentate, con differente intelligenza e consapevolezza di ciò di cui si parla, sui media di varia tendenza (si veda un riscontro sul dibattito, ancora in corso, in “ Dati INVALSI: una fotografia o strumenti di intimidazione matematica?” 15/07/19, ROARS on line).

1. Il valore aggiunto e la retorica dell’equità

Qui provo a dire qualcosa sul concetto di valore aggiunto. Sostantivo più participio in funzione aggettivante, chiunque ne intuisce il significato rifacendosi, sia alla sua esperienza di consumatore, sia al buon senso sull’uso delle parole a livello colloquiale, aspetto importante del comprendersi, come ebbe a dire Wittgenstein.

Ma vengo a ciò che invece sfugge anche al senso comune, alla maggioranza dei docenti e delle famiglie, nell’uso che ne fa l’INVALSI.

Lo scorso anno un fascicoletto, a parte rispetto al corpus del Rapporto Prove 2018, era intitolato “ L’effetto scuola (valore aggiunto) nelle prove INVALSI 2018”, a cura di Angela Martini, una carriera nella scuola e in istituto come esperta della elaborazione dei dati, con Roberto Ricci, Responsabile Prove. Quest’anno, forse a causa delle critiche sulla invasività delle locuzioni economiche contenute nelle analisi dei risultati, si è preferito non citare l’espressione in modo esplicito. Le argomentazioni a esso relative sono disperse in numerosi paragrafi che descrivono le differenze di prestazione e, nel merito, in quello significativamente intitolato “Quanto è equa la scuola?” L’equità, come da anni va dicendo Roberto Ricci, in un giro di pensiero tipico del senso comune del venditore di cravatte (siamo tutti diversamente uguali…), è quantificabile, come pare lo sia, nell’ottica invalsiana, praticamente tutto ciò che è osservabile.

L’esito del successo formativo si configura nei risultati conseguiti nei test, strumenti diagnostici utilizzati lungo l’arco dell’intero percorso scolastico. Questo corpus di dati ci informa sulle condizioni che hanno permesso, impedito o rallentato il proficuo godimento da parte degli alunni delle stesse opportunità formative, tutti anche “i meno fortunati” (sic)

Chi siano i meno fortunati è facile intuire: immigrati di varia provenienza e generazione, alunni dal retroterra famigliare povero materialmente e culturalmente, mentre bambine e fanciulle rappresentano aspetti di differenza di genere nelle prestazioni che, pur nella vaghezza dei riferimenti, vanno considerate in ossequio al politicamente corretto.

Gli alunni classificati nell’area delle disabilità, fanno gruppo a sé.

Così, in cerca dell’equità misurata come effetto dell’efficacia (effectiveness) di un’istituzione (ovviamente in sana competizione con altre), il rapporto si appunta sulla scomposizione della variabilità dei punteggi, considerati in relazione con i contesti geografici, socio-famigliari strutturali e, a questi legati, con debole argomentazione, quelli strutturali per tipologia di scuola e per qualità dell’insegnamento impartito.

Credo valga la pena di rifarsi al fascicoletto specifico dello scorso anno per capire meglio cosa si nasconde sotto la retorica dell’equità e del suo succedaneo, il valore aggiunto, in una società per ora – si ammette – non abbastanza inclusiva.

Una società che, ci si dice convinti, può cambiare in meglio grazie ad una scuola completamente affidata a chi di statistica e di numeri è esperto e dunque sa suggerire all’agenda politica il programma scolastico, senza scomodare pericolose mobilitazioni della coscienza politica.

Prima di passare alla definizione lì fornita dico brevemente in cosa consiste il valore aggiunto in campo economico. Banalmente sappiamo cos’è il profitto. Anche nei problemi di aritmetica della nostra infanzia se ne trattava in termini di guadagno, al saldo della spesa sostenuta per produrre e per commerciare un bene o un servizio. In un’azienda – mi si perdoni la ulteriore banalizzazione – per capire se c’è stata messa a valore del capitale investito nella produzione, si calcola il saldo contabile fra mezzi impiegati (tutti: umani, materiali, finanziari, ecc) e messa sul mercato del bene, verso la stessa possibilità della definizione del prezzo. Calcolo difficilissimo sia a livello micro, di singola unità produttiva, sia macro, visto che già gli economisti classici descrivevano la laboriosità del legame che incatenava una contabilità locale al più ampio mercato mondiale, al regime monetario, alla fiscalità, al costo del lavoro ecc. Infatti, attualmente, anche in economia si usano altri algoritmi proprio per le imprecisioni cui espone il calcolo più semplice.

2. Misurare l’efficacia delle scuole: una faccenda tecnico-statistica

Vediamo che cosa scrive l’INVALSI sotto il titolo “Introduzione: perché il valore aggiunto”:

L’efficacia può essere misurata in termini assoluti o in termini relativi e di conseguenza, la comparazione dell’efficacia delle scuole può essere fatta basandosi sui loro risultati assoluti (grezzi) oppure sui loro risultati netti depurati, cioè, dal peso dei fattori estranei all’azione educativa che hanno influenza sull’apprendimento (sic, evidente incongruenza logica…)

Quali siano questi elementi esogeni ce lo chiarisce il testo poco dopo:

le caratteristiche socio-demografiche degli alunni (famiglia di provenienza, l’eventuale origine immigrata, il genere, ecc) e, ciò che più conta, le competenze possedute in Italiano e in Matematica all’ingresso in una certa istituzione scolastica.

Operazione ci dicono tanto più necessaria per superare le critiche rivolte alle prove censuarie, uguali per tutte le situazioni, dalle Alpi a Pantelleria.

Poiché i modelli per il calcolo del valore aggiunto sono sia di carattere trasversale che longitudinale (le prestazioni di un alunno almeno in due momenti successivi della sua permanenza in una certa scuola), si chiarisce che si adotterà un “modello di regressione” che dia conto delle differenze fra osservazione e attesa. Poiché qui la faccenda si fa molto tecnico-statistica e si rischia che il lettore abbia già abbandonato la pagina, il testo ricorre alla formula di soluzione del problemino: “ VA = risultati osservati– risultati attesi”.

Seguono pagine di tabelle con i livelli di “regressione multilevel”, cioè a più variabili.

Vengo alla sequenza che se ne può ricavare:

  1. Prova censuaria;

  2. risultati grezzi, assoluti per popolazione totale

  3. indicazione statistica (a questo punto su base campionaria) del discostarsi, non tanto da un test eseguito da un alunno-tipo ideale, ma dalla media dei rispondenti (con altre complicazioni di calcolo rispetto alle deviazioni);

  4. operazione di depurazione delle variabili di contesto;

  5. restituzione in termini di valore aggiunto.

Le prove per essere valide e validabili in quanto test, secondo la letteratura statistica, dovrebbero garantire il rapporto fra la caratteristica dell’oggetto che si intende rilevare (un fattore tipico della comprensione di un testo come può esserlo – ad esempio – l’individuazione del protagonista) e la concettualizzazione che sta a monte, dal lato della teoria di cui è portatore il ricercatore (qual è la risposta “esatta” per quella specifica domanda formulata: chi è il protagonista anche, ad esempio, in costanza di più personaggi e/o deuteragonisti).

Ancora, quanto esista di concordanza, mantenendo lo stesso esempio, fra i parametri scelti come rivelatori di quella abilità e le caratteristiche che se ne danno nelle Indicazioni Nazionali e nei Quadri di Riferimento Lingua relativi all’insegnamento-apprendimento dell’analisi testuale.

Non solo, ma ex ante ed ex post contenuti e criteri devono costantemente essere verificati, anche rispetto alla stabilità, alla riproducibilità dei risultati.

Ora, molti ricercatori sostengono con buonissime ragioni, che tale allineamento fra test INVALSI e Indicazioni Nazionali non c’è, per non parlare di quanto sono disallineati da ciò che oggi è entrato nei paradigmi della letteratura sulla comprensione di un testo.

3. Nelle strette della “Didattica di Stato”

Riprendiamo un momento la prosa del fascicoletto.

Tutto questo lavoro di accanimento numerico e di tabelle a doppia entrata, ci direbbe cosa la scuola XY, gli insegnanti delle discipline coinvolte, hanno effettivamente immesso nel processo di valorizzazione del capitale umano che avevano a disposizione nelle classi (e chissà, magari anche gli altri docenti che “fanno contesto relazionale”, ma che forse vengono “depurati” nel passaggio fra dati grezzi e dati rielaborati).

Alla alunna Renata Puleo, che abita al residence per senza casa di Primavalle, periferia di Roma, con famiglia multiproblematica secondo la definizione sociologica, frequentante una classe con campagne e compagni in situazioni analoghe, più un certo numero di minori di recente immigrazione, un organico della scuola fortemente instabile, sussidi didattici carenti, scolarità pregressa difficile per effetto di spostamenti continui nella cintura periferica romana, a questa bimba cosa ha dato la scuola dove ha svolto il test di fine ciclo perché sia messa in grado di conseguire lo stesso risultato di una sua coetanea “più fortunata”?

Rileggendo capisco – e spero sia chiaro a chi legge – che tutto ciò è francamente un paradosso pedagogico e nello specifico valutativo. Un paradosso che non tiene conto che si impara necessariamente in relazione affettivo-cognitiva con l’Altro, sia un pari sia un adulto, sia un compagno più capace, che non ci si separa dai saperi informali acquisiti per gli strani giochi della vita, tutti elementi di cui nessuno può essere considerato “estraneo all’azione educativa” come recita la prosa invalsiana. Forse si imparano cose diverse da quelle previste dai test, magari apprendimenti che si discostano anche da quelli indicativi – non strettamente programmatici – dei cosiddetti “quadri di sviluppo delle competenze”.

L’INVALSI traduce le Indicazioni Nazionali (male, come ho detto più su) piegandole nelle strette di una didattica di Stato di cui i test sono l’esito.

Si lavora per superare il test, non importa se – sempre tornando all’esempio del testo scritto da leggere e capire – si possono capire cose diverse, cogliere altri nessi, magari capaci di aprire nuove vie interpretative.

Nessuno degli alunni di Carla Melazzini, insegnante di San Giovanni a Teduccio, avrebbe – a 15 anni suonati – superato un test di fine ciclo, che per lui era un ciclo che non riusciva a finire, e anche la docente ne sarebbe uscita con le ossa rotte (“ Insegnare al Principe di Danimarca”, 2011). Eppure la Melazzini, malgrado e in virtù della sua classe “scassata”, aveva la certezza di stare insegnando molto ai suoi “sfortunati” alunni. Una valorizzazione del capitale umano che forse non sarebbe mai potuta entrare nel circuito economico del mercato del lavoro legale.

 

Già, e l’equità, e l’inclusività, e la retorica dell’efficacia come misura dell’incremento del PIL?

 

Il valore aggiunto di INVALSI

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *