domenica 14 ottobre 2012

La nuova lingua - EP (2012)

IL TRASFORMATORE ED IL CONVERTITORE ROTANTE


Molto scalpore ha suscitato l’uscita del ministro Profumo riguardo l’aumento delle ore lavorative (24 al posto di 18 a parità di stipendio) per i docenti della scuola pubblica, accompagnata da una  prebenda di 15 giorni di ferie. Ovviamente le 6 ore aggiuntive sono tutte di presenza in classe e non, come in altri paesi, di attività affini alla didattica. Anche l’allungamento delle ferie impedirebbe di fatto, a qualsiasi istituto, di chiudere l’anno scolastico, con gli esami di riparazione, a luglio.
Che, poi, il ministro sia digiuno di competenze pedagogiche si è evidenziato allorchè si è espresso nei confronti della categoria (che dovrebbe, ogni tanto, tutelare) come non si fa ormai da decenni nei confronti degli studenti, resuscitando la storiella del bastone e della carota (alla manifestazione di venerdi 12 ottobre gli studenti, alla luce delle ultime esternazioni, si erano carotadotati).
L’attuale ministro ha un curriculum invidiabile (basta cercare su wikipedia). E’ un ingegnere elettrotecnico. Ho provato, quindi, stupore, quando leggendo la sua infelice esternazione non abbia trovato scritto che “gli insegnanti vanno presi con il trasformatore ed il convertitore rotante”…pure un cacciavite potrebbe servire. Magari un cercafase per monitorare la tensione del docente.
Da cosa nasce tutto questo autentico disprezzo?  Dal fatto che la scuola  sia considerata, nell’opinione pubblica, ma anche e soprattutto in settori dell’economia, un sostanziale spreco di denaro pubblico. Per dimostrare tale spreco si utilizzano indici di dubbia attendibilità. Sappiamo come vanno a finire certe cose: invece di aggiornare questi indici li si usa come totem. Prendiamo ad esempio l’indice basato sul rapporto tra numero di docenti e numero di alunni è un indice importato da altri settori economici e viene subdolamente utilizzato a dimostrazione di una eccessiva presenza di insegnanti (e quindi di spreco di denaro pubblico). Attualmente questo rapporto è pari circa a 4: in media ci sono 4 studenti per ogni insegnante. Gettato in questa maniera nella piazza mediatica e a caratteri cubitali crea quasi comprensibile sdegno. Come se davvero entrando in classe un insegnante mediamente trovasse 4 alunni che stanno ad ascoltarlo.
Quasi sempre si utilizzano i numeri a favore di una tesi precostituita, soprattutto se si applica il metodo scientifico moderno alle scienze sociali.. Lo sanno bene gli economisti, intenti a lustrare i loro modelli matematici come fossero macchine d’epoca. Non ci vuole molto a capire che lo stesso rapporto di 1 a 4 è lo stesso che si avrebbe in una classe di 40 alunni con 10 insegnanti (quante sono le materie).  Eppure una classe di 40 alunni non è, per motivi di sicurezza, possibile in nessun istituto. E’ evidente che ci sia un problema di interpretazione dei numeri: L’equivoco di fondo è  che si tratta l’insegnamento alla stessa stregua delle altre attività lavorative dove il rapporto tra erogatore e utenza è di uno a uno, mentre nella scuola è uno a molti (non solo per gl insegnanti ma anche per tutte le altre componenti all’interno di una struttura scolastica). In termini statistici si sta confondendo una media aritmetica con una media armonica: se infatti utilizzassimo lo stesso indice materia per materia (docenti di matematica su numero studenti; docenti di lettere su numero studenti e così via) scopriremmo che l’indice in questione non è la media aritmetica ponderata degli indici per materia.
Tayloristicamente parlando, insegnare un‘ora in una classe, supponiamo di 10 alunni, o dividere l’ora in 10 parti (6 minuti) da dedicare a ciascun alunno è la stessa identica cosa (10 alunni è un caso estremo: la capienza media della classi si aggira attorno ai 25-30 alunni). Ma insegnare “collettivamente” e non come se fossimo dal medico o ad  uno sportello della posta, dove si viene visitati o serviti uno alla volta, è un’altra cosa: come dicono tutte le scuole del pensiero pedagogico moderno la numerosità delle classi, l’insegnare ad un gruppo piuttosto che singolarmente crea valore aggiunto.  Strano che sfugga proprio ai cervelloni economici (anche quelli di area progressista). Meno che sfugga alla stragrande rappresentanza sindacale intenta più a contare le tessere. Difatti, traccia di questo valore aggiunto a livello contrattuale non esiste essendo rimasti a modelli di riferimento orario con larga compiacenza dei colleghi irriducibili (le BR avevano un disegno e altre sciocchezze,...) a cui il paragone con il mondo operaio risveglia in loro sopiti aneliti giovanili.
Le reazioni, che io definisco romantiche, che provengono dal mondo della scuola non faranno mai breccia nei cuori aridi dei tecnocrati. Per poter fare cadere le convinzioni occorre usare i loro stessi strumenti. Fermo restando che, poi, ognuno deve fare il proprio compito e assumersi le proprie responsabilità. L’idea di dovermi affiancare in questa battaglia  a colleghi e colleghe che hanno trovato nella scuola un vero e proprio pozzo di S. Patrizio mi fa accapponare la pelle. In questo aiutati dalle varie sigle sindacali che ritengo essere stati tra i responsabili dell’inattuazione dei principi dell’autonomia scolastica. Che ha portato la scuola ad essere “circondata” anno dopo anno da forze molto ben organizzate: sull’Invalsi ho già detto altrove come pure dello studio della Banca d’Italia,  statisticamente scorretto, uscito tre anni fa senza che nessuno sollevasse obiezioni.

domenica 1 luglio 2012

Mastery learning vs Invalsi: processi educativi o processi casuali?


In questi giorni sono tornate prepotentemente alla ribalta le famigerate prove Invalsi:negli esami di terza media sono ormai parte integrante della valutazione finale; nelle classi seconde della  secondaria superiore sono, già da un paio di anni, somministrate nel periodo di maggio; nei prossimi esami di maturità pare che l’Istituto in questione elaborerà le tracce per la terza prova. In altro blog ho già espresso le mie perplessità su questo fenomeno e sulla sua diffusione a macchia d’olio di fronte ad una platea di docenti la maggior parte dei quali è ben contenta di trovarsi prove preparate, vendendo la propria dignità professionale a metter crocette per un piatto di lenticchie (mi riferisco in particolare alle superiori dove il fenomeno, ancor peggio, non è imposto ma si insinua raccogliendo adepti qua e là).
In realtà le prove sono graziose. Il problema non sta nel loro contenuto. Rimangono delle perplessità , almeno sulle domande a risposta chiusa, dove dal semplice segno dello studente non è possibile risalire al processo intellettuale messo in atto. Paradossalmente una risposta errata potrebbe essere il frutto di un procedimento migliore di quello che ha portato all’individuazione dell’alternativa esatta. Anche in quelle poche “procedimentali” allo studente è chiesto di apporre delle risposte parziali  che  possono essere solo delle flebili spie del processo di cui sopra. In genere si è sempre pensato che l’alto numero dei quesiti possa ovviare a questi inconvenienti: indovinare per sbaglio tre o 4 quesiti è un conto, 30 o 40 un altro. Tralasciando i calcoli sulle probabilità di indovinare a caso i quesiti , rimane sempre il problema che affidarsi ai grandi numeri non sia sempre così produttivo. Se da una parte si riduce l’errore casuale (casuale: termine chiave), dall’altra cresce la misura del disordine legato alla probabilità che lo studente risponda a caso. Esempio: supponiamo che uno studente A risponda a caso nel 20% dei casi; se il test fosse formato da 40 domande, mediamente dovrebbe avere risposto a caso ad 8 di queste. Quali?? Beh, sono più di 70 milioni di combinazioni. A voi il piacere di spulciarle ad una ad una.. Nel frattempo che spulciate, il caos continua a regnare alla grande…
Non ho mai messo in dubbio il fatto che le prove tradizionali, in particolare riferimento le prove orali,  possano evidenziare elementi quali la soggettività (effetto stereotipo, effetto alone) e lo stesso stato d’animo del docente. E anche nelle prove scritte la ricerca docimologica ci dice che la correlazione (leggi: concordia) tra diversi correttori dello stesso compito è ben lontana dal suo massimo valore (cioè: uno). A tal proposito è bene precisare che l’indice di Pearson che viene utilizzato a questo scopo, può avvicinarsi ad uno anche di fronte al caso di due correttori le cui distribuzioni di voti, pur mantenendo la stessa gerarchia tra i singoli  studenti, presentino un valore medio diverso (anche di molto). 

Mastery Learning:  La distinzione tra valutazione “riassuntiva” e valutazione “formativa” è stata delineata da Scriven: la prima consiste nel controllo finale del rendimento complessivo; la seconda in frequenti controlli da effettuarsi durante il processo di apprendimento, capaci di rilevare il livello raggiunto su una porzione ristretta di contenuti e di permettere al docente una verifica del proprio operato. Due valutazioni, quindi, che si contrappongono: da una parte una classificazione, dall’altra diagnosi e didattica. La valutazione formativa acquista particolare importanza all’interno del Mastery Learning (apprendimento per la padronanza), un insieme di procedure di educazione individualizzata teorizzate da Bloom, Carrol ed altri. secondo i quali è possibile, se si riescono a migliorare le qualità dell’attività educativa, far sì che la maggior parte degli studenti (dal 75% al 90%) ottenga risultati di alto livello, appannaggio, solitamente, di una ristretta minoranza. Alla base del “mastery learning” c’è il modello di apprendimento messo a punto da Carrol con la definizone di attitudine in termini di tempo per cui tutti possono arrivare alla padronanza purchè dispongano del tempo necessario. Tempo che può essere ridotto se si migliora l’attività educativa. In base a quanto detto prima, Bloom e compagni sono convinti che la distribuzione dei dati dell’attività educativa secondo la curva normale può e deve essere superata. La distribuzione normale è detta comunemente Gaussiana (con la tipica forma a campana). Chiunque si sia imbattuto in questa fondamentale curva sa benissimo che essa descrive i risultati di un processo casuale: poiché quella educativa è e deve essere un’attività intenzionale, i suoi risultati devono disporsi diversamente dalla curva di Gauss. In base  all’esperienza, gli insegnanti di Educazione Fisica sono i più bravi ad attenersi a questo principio (non so quanto conoscano il Mastery Learning…) Gli altri, chi inconsciamente, chi consciamente giocano a dadi. In questa specie di casinò valutativo spiccano i colleghi di materie scientifiche, bravissimi ma digiuni di pedagogia, che quasi si vantano di riprodurre nelle loro valutazioni la curva gaussiana. I fautori del Mastery Learning (tra cui il sottoscritto) auspicano, in sostanza, che la distribuzione delle valutazioni si avvicini più ad una J piuttosto che ad una U (da cui "pedagogia della curva a J").   
L’utilizzazione della valutazione formativa degli insegnanti acquista rilevanza. Possiamo abbinarla alla valutazione riassuntiva che serve come controllo finale rispetto agli obiettivi prefissati. Non sappiamo se e in che misura i docenti utilizzano la valutazione “formativa”, secondo le modalità del M.L., al fine di aggiustare il tiro. Due cose sono certe:
  1. L’attuale sistema decimale di valutazione sprona inconsapevolmente alla “gaussiana” anche quei docenti che volessero avvicinarsi alle pratiche del Masterry Learning
  2. molti docenti effettuano medie su stesse unità di apprendimento dimenticando una fondamentale nozione per cui l’apprendimento si cumula e non si media (se ad un esame universitario si prende 23 e si rifiuta, all’appello successivo se si prende 30, 30 compare sul libretto e non la media dei due voti)  


Invalsi: Nel contesto che si è venuto a creare, all’Invalsi spetterebbe “l’onere della prova”, cioè la valutazione riassuntiva. Quale è il difetto? Tanto per cominciare: le prove sono uguali per tutti. Secondo il nostro ordinamento, però, i gradi di apprendimento si fissano preventivamente e sono diversi non solo tra indirizzo e indirizzo ma anche tra scuola e scuola dello stesso indirizzo. I motivi sono talmente evidenti che chi non riesce ad afferrarli può tranquillamente rientrare nella categoria dei razzisti. Inutile ricordare che la  funzione di stabilire obiettivi e finalità disciplinari spetta al docente o eventualmente ai dipartimenti interni a ciascuno istituto. Per fortuna , non c’è ancora un Ministero della Cultura Popolare unico erogatore di obiettivi (fino a quando?). E' la stessa Costituzione che lo vieta espressamente nel comma 1 dell'articolo 33. Siamo pienamente d’accordo che i contenuti e le modalità di apprendimento debbano essere modernizzati. Ma mi spiegate che valore didattico ha una crocetta, in un quesito di tipo problem solving laddove è il processo di apprendimento quello che andrebbe valutato maggiormente?
Le prove standardizzate, come quelle Invalsi, dati i loro scopi prevalentemente classificatori e discriminatori nei confronti dei singoli, sono degli ottimi strumenti selettivi. Chi ha esperienza di test selettivi in aziende non può far altro che riconoscere quanto detto.  Sono, invece, scadenti strumenti formativi. Difficilmente, infatti, esse possono rispondere del tutto agli obiettivi che i docenti si propongono di raggiungere in una certa situazione. Invece la costruzione di prove riassuntive fatte “in casa” viene fatta in funzione di una situazione specifica, senza pretesa di confrontabilità. Con gli insegnanti che se ne occupano e con gli studenti ad esaminare i propri risultati. Tutto questo con l’Invalsi non avviene. O meglio: il contributo degli insegnanti è, come abbiamo visto, quello di mettere crocette; mentre agli studenti come unico feedback non resta che affidarsi ai mass-media.