Abstract
Si prospetta un quadro complessivo delle diverse metodiche di valutazione in classe e all’interno di questo quadro si sviluppa un’analisi approfondita sul significato, sulla progettazione e sull’utilizzo delle rubric, innovativo strumento di valutazione. Il tutto è preceduto da una discussione sui concetti di apprendimento e valutazione autentici nonché su quello di valutazione delle prestazioni.
Le considerazioni esposte si basano tutte, non solo sulla letteratura di riferimento ma anche e soprattutto, su un’esperienza concreta, pluriennale, che l’autore ha condotto all’interno di una scuola superiore e che si rivela fonte di suggerimenti pratici sulla progettazione e l’uso delle rubric stesse. Dato il particolare settore, quello della valutazione/misurazione, ci si avvale di analogie, quando utili e non forzate, con le metodiche proprie dell’ambito scientifico.
Nota:questo knol è stato pubblicato per la prima volta il10 Dicembre 2004sulla rivista online dell’Ufficio Scolastico Regionale, Emilia Romagna, Ministero Pubblica Istruzione. La versione presente contiene gli ultimi aggiornamenti.
1 Premessa
Il percorso che seguirò nell’articolare questo lavoro, che ha come punto d’approdo l’analisi approfondita delle rubric, prevede necessari passaggi attraverso i concetti di valutazione e apprendimento autentici nonché un inquadramento coerente delle tecniche di valutazione delle prestazioni. Il tutto inserito idealmente e concretamente all’interno di ambienti di apprendimento costruttivisti. Questo approccio, sbilanciato a favore di una didattica costruttivista, è favorito da una letteratura prorompente, orientata secondo questa prospettiva, e dalla lunga esperienza sul campo dell’autore, testimone diretto di una Scuola, purtroppo, praticamente ancorata a stili di didattica trasmissiva ed espressione di un pensiero profondamente comportamentista/cognitivista. Questo soprattutto in riferimento alle scuole superiori: interessanti segnali provengono dal mondo delle scuole elementari e medie.
E’ comunque opinione di chi scrive che, almeno dal punto di vista teorico, anche questa prospettiva costruttivista abbia toccato l’apice e attualmente siano maturi i tempi per metabolizzarla all’interno di una visione più ampia che recuperi il meglio delle prospettive precedenti. Questo credo e questo voglio premettere perché non si interpretino queste pagine come un inno all’innovazione, costruttivismo radicale e apprendimento cooperativo, ed una condanna irrevocabile delle metodiche tradizionali. Non così è, e non così vuole essere. Non essendo certo questa la sede per approfondire tale tematica mi limito a suggerire alcuni interessanti contributi. In particolare, per una riflessione sul dopo costruttivismo e sul recupero della dimensione solipsistica dell’apprendere segnalo i recenti lavori di Winn (2003) e di Hopper (2003).
2 La Valutazione Autentica
Il significato di autentico è quello di cosa originale, non contraffatta, genuina, vera (Sabatini Coletti, 2004). Non proprio lo stesso quando si parla di valutazione autentica. Se vogliamo attingere alla letteratura, fiumi di inchiostro sono stati spesi a proposito e non è difficile trovare definizioni in merito. Wiggins, nel lontano 1990, definiva la valutazione autentica come quel tipo di valutazione che si ha “quando siamo in grado di esaminare direttamente le prestazioni dello studente nell’atto di svolgere significativi compiti intellettuali”. Già in questa definizione il concetto di valutazione autentica risulta strettamente collegato al concetto di valutazione delle prestazioni (performance assessment) e anche recentemente Jonassen (2003) ribadisce come la valutazione autentica sia strettamente correlata alla valutazione delle prestazioni nel senso che gli studenti vengono valutati quando stanno svolgendo compiti reali che forse si troverrano a svolgere anche nel loro futuro. Judith Arter chiarisce ancora meglio il concetto affermando che una valutazione che voglia essere più autentica deve esprimere un giudizio non solo su ciò che una persona dimostra di conoscere, ma anche su ciò che riesce a fare in compiti che, se da una parte richiedono quella conoscenza, dall’altra richiedono anche di utilizzare processi elevati quali: pensare criticamente, risolvere problemi, essere metacognitivi, mostrare efficienza nelle prove, lavorare in gruppo, ragionare ed apprendere in modo permanente (Arter, Bond, 1996, p.1). Per un approfondimento ulteriore sul concetto di valutazione autentica rimando ancora a Wiggins che nel già citato lavoro del 1990 elenca le differenze delle metodiche di valutazione autentica rispetto ai test tradizionali (Wiggins 1990) ed in uno successivo elenca le principali caratteristiche della valutazione autentica (Wiggins 1998).
Se per valutazione autentica si intende invece valutazione vera, complessiva della persona, credo che questa non possa coincidere con la valutazione delle prestazioni. Il valutare uno studente all’opera, mentre sta svolgendo un compito, ossia valutarlo dal processo di realizzazione di un prodotto o addirittura dagli esiti del processo stesso e quindi dal prodotto, non coincide necessariamente con la valutazione globale dello studente. Esistono infatti delle potenzialità non attualizzate nelle prestazioni. Ad esempio uno studente può non essere stato stimolato/motivato a dovere per lo svolgimento di un certo compito, per cui quello che di lui misuriamo non è in effetti il suo valore autentico, ma soltanto quello che sta facendo, quello per cui è stato stimolato ad agire. Un’analogia con la Fisica mi dice che stiamo misurando la sua energia attuale ma nulla la valutazione delle prestazioni ci dice sulla sua energia potenziale.
3 L’Apprendimento Autentico
Se è vera l’affermazione di Jonassen (2003, p.228) che “per valutare un apprendimento autentico dobbiamo usare metodi di valutazione autentici”, ritengo altrettanto vero che
una valutazione autentica abbia senso solo in un ambiente di apprendimento autentico. Questa mia premessa per chiarire che non bastano metodi di valutazione autentici per avere una scuola più autentica. Sono inutili e dispersivi se non inseriti nel contesto corretto. Sarebbe come se un medico per misurare l’altezza di una persona decidesse di usare un micrometro o ancora peggio, sbagliasse strumento di misura. Se al contrario ci caliamo in un contesto di apprendimento autentico questi strumenti diventano insostituibili e qui le forme di valutazione tradizionali sono del tutto insufficienti o addirittura fuori luogo.
Quando mi riferisco a rinnovati ambienti di apprendimento penso soprattutto a quelli a matrice costruttivista il cui tratto distintivo è rappresentato da un rinnovato approccio nei confronti della conoscenza: si apprende per necessità, per affrontare casi, per impostare e condurre progetti o, più in generale, per risolvere problemi. L’apprendimento è finalizzato, una necessità e non fine a se stesso: non avviene, cioè, tramite un processo predeterminato di trasmissione-ricezione. E’ questa una delle intuizioni/innovazioni più importanti in campo pedagogico degli ultimi anni. Anche nella didattica di tipo trasmissivo ci sono problemi da risolvere, però questi sono “a corredo”, per dimostrare che i contenuti sono stati appresi. Negli ambienti di apprendimento costruttivisti, o più semplicemente nella didattica per problemi, la logica si capovolge: i problemi sono il fulcro e sono loro che spingono lo studente ad impossessarsi dei contenuti necessari a risolverli.
In questo modo si possono superare due delle grandi critiche che vengono promosse all’apprendimento di tipo scolastico: quella di produrre una conoscenza inerte e quella di non promuovere il transfer. Tutti abbiamo esperito quanto diventino nostre le nozioni apprese nella necessità di risolvere problemi importanti. E’ il superamento di quella che il gruppo di Vanderbit definisce appunto “conoscenza inerte”, di quel tipo di sapere da esame che, una volta passata la prova e trascorso un breve periodo di tempo, scompare totalmente o quasi. Rappresenta cioè il superamento di quel tipo di conoscenza richiesto nella maggior parte degli istituti scolastici dove inevitabilmente si premiano le intelligenze convergenti e diligenti a scapito di quel prezioso bagaglio di intelligenze divergenti e difficili per le quali non viene assolutamente previsto un adeguato percorso di crescita e di formazione. Un’intelligenza di questo tipo, spesso, finisce per affermarsi comunque nel mondo delle professioni: ma questo avviene nel modo migliore possibile? Credo proprio di no. Credo, invece, che un adeguato ambiente formativo possa dotare l’individuo, che di tale forma mentis è in possesso, di ulteriori risorse permettendogli di inserirsi in modo più efficace ed organico nel tessuto socio economico, a vantaggio non solo di sé ma della collettività nel suo complesso. Si pensi, ad esempio, alla miriade di microimprenditori che si muovono solo sulla base di una loro innata intelligenza e che, spesso rifiutati dall’ambiente scolastico, non entrano in possesso di quel bagaglio di saperi e strumenti cognitivi, fondamentali per una crescita sistemica della loro attività. Credo che in un ambiente di apprendimento ben congegnato riescano non solo a ritagliarsi uno spazio importante ma possano diventare una risorsa nodale per l’ambiente stesso. Un’attenzione prestata a questo tipo di “formae mentis” mi ha permesso di valorizzare studenti dai risultati modesti o deludenti quando esposti ad una didattica tradizionale e generalmente considerati non adeguati dalla maggior parte dei colleghi dei consigli di classe: in numerosi casi ho trovato positiva conferma negli anni successivi, dopo il conseguimento del diploma o della laurea. E quello che è più sorprendente ed in un certo senso paradossale è che anche gli studenti più diligenti e convergenti hanno tratto un indubbio beneficio dalla giusta valorizzazione di queste forme di intelligenza. E’ stata per loro l’occasione di esperire un mondo non ovattato e facile, di relazionarsi con intelligenze scomode, di acquisire non solo saperi disciplinari ma modi di rapportarsi con gli altri, di sostituire un’esperienza principalmente solipsistica con una di lavoro cooperativo: hanno potuto sostanzialmente e proficuamente anticipare l’esperienza del mondo reale.
4 La Sperimentazione
Forte di queste convinzioni, da anni, sto sperimentando forme di didattica per problemi/progetti: la disciplina che insegno, teoria dei Sistemi, a questo si presta in modo particolare. Per tre anni ho sperimentato un’implementazione classica dell’impianto metodologico costruttivista che si articola in quattro fasi: apprendimento per scoperta, ristrutturazione delle idee, applicazione e valutazione. (Zecchi, 2003). Nell’ultimo biennio ho inquadrato questa mia sperimentazione nel modello degli ambienti di apprendimento costruttivisti proposto da Jonassen (1999). Un salto di qualità nella sperimentazione, tuttavia, l’ho ottenuto solo quando ho affrontato scientificamente il problema della valutazione introducendo, anche, l’uso delle rubric. Questo conferma del resto la mia convinzione che ogni attività, per funzionare correttamente, ha bisogno di una sua metrica. In un prossimo lavoro descriverò dettagliatamente la sperimentazione: per ora mi limito a tracciarne i contorni fondamentali e le idee portanti.
L’idea base è quella di chiedere agli studenti, un gruppo classe del quarto anno di un istituto sperimentale per periti informatici, di progettare/implementare prodotti multimediali per l’insegnamento di parti del programma curriculare. Gli studenti, invece di studiare settori di contenuto del curriculum nell’ottica di superare una prova, lo fanno per trasferirli in un ambiente multimediale e-learning; si trovano cioè nella condizione favorevole di studiare per realizzare un progetto. E’ cruciale in questa fase il modo in cui viene proposta agli studenti l’attività complessiva, perché è da qui che nasce la motivazione vera. L’utilizzo di nuove tecnologie multimediali e l’idea di lavorare in modo cooperativo, nel nostro caso, si sono rivelati due elementi vincenti.
La sperimentazione è stata condotta suddividendo il gruppo classe in sottogruppi, ognuno con il compito di implementare con tecniche multimediali un particolare settore di contenuto. Mi sono ispirato, anche se con diversi adattamenti, alla metodologia “Learning Together” proposta da Johnson & Johnson (1999). Pe una visione più sintetica si veda Johnson & Johnson (1994). Un’attenzione particolare è stata rivolta alla creazione di equipe trasversali, nell’ottica di fornire risorse specializzate di riferimento per tutti i sottogruppi. A due studenti, dotati di buone capacità riflessive, critiche e metacognitive ho assegnato il ruolo di progettisti di rubric: una volta individuata la necessità di una nuova rubric, loro era il compito di arrivare ad una prima stesura e successivamente di condividerla con tutta la classe. Sempre loro erano i deputati a raccogliere le osservazioni emergenti in fase d’uso, per eventuali successive revisioni. Per la compilazione ho costituito un gruppo di valutatori variabile (di cui tuttavia il nucleo rimaneva stabile) che oltre ad assolvere il compito di effettuare compilazioni le più oggettive possibili, ha anche fornito frequenti e utili suggerimenti ai progettisti. Un altro ruolo si è rivelato di fondamentale importanza: quello assegnato ad uno studente, rigoroso e metodico, di seguire lo sviluppo dei progetti con l’utilizzo di un software di project management. Si è dimostrato risorsa fondamentale per il rispetto dei tempi e per la raccolta dei materiali per il portfolio (rubric comprese).
La sperimentazione, nel corso dell’anno, è stata collocata all’interno dell’area di progetto. Allo stesso gruppo classe, in parallelo, ho somministrato momenti di didattica trasmissiva in cui ho trattato gli elementi fondamentali della disciplina Sistemi: ho attuato questa scelta metodologica per poter “coprire” tutti i contenuti previsti, come richiesto dalla programmazione didattica e come base cognitiva, comunque indispensabile, per gli approfondimenti successivi. In sostanza mi sono garantito la verifica dell’acquisizione dei primi due livelli, conoscenza e comprensione, della tassonomia di Bloom per tutti i contenuti richiesti.
Della sperimentazione mi limito in questa sede a trattare la parte della valutazione che, data l’eterogeneità degli approcci didattici, ho cercato di affrontare nella sua complessità e, per quanto possibile, con un approccio scientificamente fondato, nei limiti del tempo e dei mezzi disponibili in una situazione concreta di classe. Il tutto ha fornito l’opportunità di verificare sul campo un’ampia varietà di metodiche, determinandone l’efficacia, i limiti e le modalità di applicazione/integrazione e ha permesso di confrontare i risultati ottenuti con quanto riportato in letteratura. Per chiarezza procederò, ora, ad esporre l’impianto valutativo esperito, soffermandomi principalmente su quelle metodiche più innovative che afferiscono alla valutazione delle prestazioni e che nella loro accezione più articolata si concretizzano nelle Rubric.
5 Le forme di Valutazione-Misurazione in Classe
Molti sono i metodi di valutazione in classe, test a risposta multipla, matching, vero o falso, saggi, misurazione delle prestazioni, presentazioni orali, osservazioni ed altri ancora, comunque è sempre possibile inquadrarli all’interno di due grandi famiglie: quelli a selezione di risposta o a risposta breve e quelli a costruzione di risposta. (Arter, 2001). La fig.1 schematizza i principali metodi di valutazione in classe.
5.1 I metodi a selezione di risposta
I metodi a selezione di risposta sono adatti, soprattutto, a verificare se uno studente ha acquisito la padronanza dei livelli più bassi di una scala tassonomica. In riferimento alla tassonomia di Bloom (1956) sono utili per verificare velocemente e misurare oggettivamente il livello della conoscenza ed in parte quello della comprensione di un determinato soggetto. Delle varie metodiche a selezione di risposta (test a risposta chiusa, test vero falso, matching … ) quella che, nella mia particolare pratica di classe, si è dimostrata più efficace è stata senza dubbio quella a risposta multipla con un numero variabile di risposte esatte possibili. Per questa ho utilizzato un modello per la misurazione, basato sul concetto di speranza matematica uguale a zero, e successivamente implementato in Excel, che mi ha permesso e mi permette di misurare velocemente le prove fornendomi sia gli indici di facilità e discriminatività nonché un’articolata student analisys per la trasformazione dei punteggi grezzi in valutazioni normalizzate.
Tuttavia i metodi a selezione di risposta, anche nelle loro varianti più articolate, nulla o quasi ci dicono sui livelli più alti della scala tassonomica, cioè quelli dell’applicazione, dell’analisi, della sintesi e della valutazione. Si prestano soprattutto a verificare quello che Ausubel (1968) definisce il “rote learning” (apprendimento meccanico), cioè quell’apprendimento in cui i concetti appresi rimangono entità isolate e non si collegano in modo significativo a strutture cognitive preesistenti. La verifica del “meaningful learning” (apprendimento significativo), cioè quell’apprendimento in cui le cose apprese si collegano in modo significativo a strutture cognitive preesistenti, s’ha da fare con altri strumenti.
Nulla, ancora, i metodi a selezione di risposta ci dicono sulla capacità dello studente di utilizzare efficacemente le nozioni apprese in contesti reali, nell’affrontare problemi quotidiani poco strutturati, dalla soluzione non univoca e da individuare, spesso, in condizioni di incertezza. Nulla ci dicono cioè su quello che Mayer e Wittrock (1996, p.47) definiscono “problem solving transfer” ossia la capacità di una persona di utilizzare in una situazione problemica nuova l’esperienza acquisita, precedentemente, nell’affrontare e risolvere problemi analoghi.
Potrei procedere con l’individuazione in altre tassonomie dei livelli la cui verifica può essere affidata ai metodi a selezione di risposta. Rischierei di perdermi in un esercizio accademico: rimane comunque il fatto che questa metodica risulta molto utile quando si vuole verificare velocemente se gli studenti “hanno studiato” ossia se hanno fatto proprie quelle nozioni di base indispensabili per gli apprendimenti successivi, indipendentemente da come quelle nozioni sono state apprese. Nella pratica di classe quotidiana, in modo pragmatico, potrei affermare che sono strumenti comodi ed efficaci perché permettono di
misurarein modo oggettivo, e quindi non contestabile, un livello di conoscenza necessario anche se spesso non sufficiente.
Fig. 1 I principali metodi di valutazione in classe
5.2I metodi a costruzione di risposta
Come risolvere allora il problema? Come fare cioè a valutare la padronanza dei livelli alti delle scale tassonomiche? Come fare a valutare le abilità di problem posing e problem solving? Come fare a valutare la capacità di fare ricerca in ambito scientifico? Come la capacità di comunicazione orale e scritta? Come le abilità fisiche? E così via. La risposta è che dobbiamo prendere in considerazione altre modalità di valutazione, dobbiamo cioè riferirci alla seconda grande famiglia di metodiche di valutazione in classe e cioè quelle a costruzione di risposta. Queste comprendono sia la valutazione di risposte aperte, generalmente composizioni scritte, sia la valutazione delle prestazioni.
Qui si apre un altro grande problema: come fare a misurare una prestazione, come, cioè, rendere misurabile quanto, a prima vista, pare discostarsi grandemente dal concetto di misura così come lo intendiamo in ambito fisico? A nessuno di noi passa per la testa di rispolverare il concetto di misura quando dobbiamo esprimere un parere su una rappresentazione teatrale, su un brano musicale, su una relazione orale, su una sfilata di moda, su un’esecuzione di danza etc. Eppure in tutti questi casi noi, inconsciamente o meno, scomponiamo il giudizio in una serie di sottogiudizi, della grandezza finale andiamo a prendere in considerazione una serie di parametri, a partire dai quali riusciamo ad avere un giudizio olistico definitivo. La via verso la misura della prestazione diventa ancora più evidente se spingiamo l’analogia con la Fisica. Quando dobbiamo caratterizzare un sistema fisico cominciamo con la misura delle principali grandezze che lo caratterizzano. Ad esempio misuriamo le lunghezze, la temperatura e se ci sono dei corpi in movimento ne misuriamo la velocità e la posizione (tralasciamo le considerazioni quantistiche). Se nel sistema compaiono grandezze elettriche misuriamo la corrente, la differenza di potenziale etc. Dall’insieme delle misure di queste grandezze otteniamo una caratterizzazione del sistema: una valutazione. Analogamente quando dobbiamo valutare delle prestazioni, individuiamo delle grandezze che le caratterizzano e delle regole per misurarle, troviamo cioè quelli che in letteratura si chiamano “performance criteria” ossia dei criteri per le prestazioni. A seconda dei tipi di prestazioni possiamo pensare a criteri diversi.
Nel caso della misura di prestazioni semplici bastano quei criteri normalmente definiti come checklist. Ad esempio se vogliamo valutare le prestazioni di uno studente a partire dall’esito delle stesse e cioè dal prodotto realizzato, spesso, ci basta un’elenco di elementi importanti a fianco dei quali dichiarare se sono presenti o meno. Per verificare se un bimbo ha preparato in modo accurato la propria cartella può bastare l’elenco degli oggetti richiesti ed una casella di spunta per contrassegnare se questi sono assenti o presenti.
Fig. 2. I principali metodi a costruzione di risposta
“Performance criteria” più elaborati sono le cosiddette “performance lists”. Sono strumenti sostanzialmente analoghi alle checklist ma a fianco di ogni elemento importante non ci si aspetta una semplice dichiarazione di assenza o presenza ma una scala di misura (valori numerici o etichette). Ad esempio se ad un bimbo si è richiesto di mettere ordine sul proprio banco, di fianco all’elemento importante “pulizia” può esserci una scala di 5 numeri (1,2,3,4,5) all’interno della quale scegliere. L’informazione è più ricca che non nelle checklist ma ancora povera per valutare a fondo prestazioni complesse. Per queste lo strumento più appropriato sono quelle che in letteratura vengono chiamate Rubric. La fig.2 schematizza i principali metodi di valutazione a costruzione di risposta.
6 Le Rubric
Non traduco di proposito il termine rubric perché l’equivalente italiano “rubrica” induce a pensare alle rubriche di un settimanale o alla rubrica telefonica. Siccome non di questo stiamo parlando mantengo il termine rubric che nel corso di questo lavoro si caricherà del giusto significato. Per curiosità sembra che gli anglosassoni abbiamo utilizzato questo termine a partire dal significato di rubric in liturgia. In effetti nei libri liturgici con il termine rubrica ci si riferisce all’insieme delle norme che regolano lo svolgimento dei riti e che sono scritte in rosso (latino ruber, da cui rubrica) per distinguerle dal testo delle preghiere. In analogia si usa il termine rubric come insieme di norme per valutare una prestazione.
Le Rubric, infatti, sono strumenti per valutare prestazioni complesse: quelle richieste, ad esempio, nello sviluppo di un prodotto, nella soluzione di un problema, nell’esecuzione di una demo, nella conduzione di una esposizione orale etc. Come le checklist e le performance list le rubric prevedono la scomposizione della prestazione in elementi importanti ed in più, per ciascuno di questi, come vedremo nella descrizione dell’anatomia delle rubric, è prevista una rigorosa definizione dei livelli di prestazione attesi. In un modo un po’ più rigoroso possiamo definire la rubric come un modello che contiene, del sistema alunno che effettua una prestazione, sia tutti e soli gli elementi importanti che servono per valutare la prestazione stessa e sia i criteri per misurarli. In letteratura oltre ad “elementi importanti” si trovano anche i termini “tratti”, “dimensioni”, “caratteristiche” etc., noi in questo lavoro useremo sempre, per chiarezza, la dicitura “elemento importante”.
La necessità di scomporre le prestazioni complesse degli studenti nei loro elementi importanti è stato senza dubbio il primo grande beneficio che ho tratto, in fase di progettazione delle rubric, durante la sperimentazione. Questo mi ha “costretto” ad effettuare quella fase di analisi, senza la quale, la valutazione finale viene delegata ad un giudizio impressionistico e misterioso che difficilmente porta in se i crismi dell’oggettività. In assenza di questa analisi accade un po’ quello che si verifica normalmente nelle valutazioni dei colloqui orali: lo stesso Gattullo (1988), in modo molto significativo, le definiva valutazioni senza misurazioni.
Non meno significativo il contribuito apportato nel finalizzare il lavoro, sia degli studenti sia dell’insegnante, nell’alimentare cioè un’atmosfera di apprendimento attivo ed intenzionale, che, nelle sperimentazioni precedenti, in mancanza delle rubric, andava via via scemando fino ad arrivare ad una confusa situazione di differenziati interessi e di diversi livelli di impegno che rendevano, progressivamente, difficile se non impossibile il controllo della situazione in classe. E a nulla valeva l’introduzione di momenti di verifica con metodiche tradizionali, perché venivano percepite dagli studenti come discrasiche rispetto agli obiettivi della sperimentazione ed il raggiungimento di esiti positivi, in queste, richiedeva altro che non l’impegno serio e rigoroso nella conduzione dei progetti in cui erano coinvolti.
Fondamentale, inoltre, si è rivelata la raccolta sistematica di dati implicita nella compilazione delle rubric. Questa è stata utilissima sia in fase di valutazione finale sia, e soprattutto, in fase di riflessione sulla prestazione. Sono emerse delle indicazioni insperate, al di là delle prestazioni stesse, sulle competenze e sulle potenzialità degli alunni fornendo alle rubric, come in seguito in modo più analitico andrò a descrivere, delle interessanti valenze orientanti. Quest’idea della raccolta sistematica di dati, in fondo, è la stessa che sta alla base del portfolio: la disponibilità di dati, in modo finalizzato, permette un costante monitoraggio e miglioramento delle prestazioni e fornisce utili indicazioni per probabili futuri orientamenti.
6.1 L’anatomia di una Rubric.
Possiamo pensare alla rubric come a un insieme di scale, una per ogni elemento importante della prestazione. Ogni scala è a sua volta formata da un insieme di ratings (misurazioni) che descrivono i livelli di prestazione attesi per quell’elemento importante. Useremo, in questo lavoro, indifferentemente i termini ratings o livelli di prestazione attesi. Nella nostra analogia con la fisica possiamo pensare all’elemento importante come ad una grandezza e alla scala di ratings come al range di valori possibili che la grandezza può assumere. Il tentativo di prolungare il transfer dalla Fisica all’ambiente psicopedagogico qui termina. La Fisica è ricca di grandezze misurabili ed esprimibili in modo quantitativo. Le incertezze, o per meglio dire le indeterminazioni, limitandoci alla fisica classica, sono inesistenti o per lo meno scientificamente controllate (teoria degli errori). In ambiente psicopedagogico questo è impossibile. Il linguaggio naturale, con cui esprimiamo i livelli di prestazione attesi, per nulla o quasi si presta a strutturazioni rigide e quantitative: qualsiasi tentativo in questa direzione, con l’introduzione di ulteriori regole per la formulazione dei ratings, ed ulteriori vincoli quali criteri, descrittori, indicatori etc., ci pare, sulla base della nostra esperienza di classe, una artificiosa forzatura, un’acrobazia verbale, che finisce, alla lunga, per diventare un limite pesante alla progettazione e all’utilizzo delle rubric.
L’unica indicazione, veramente significativa, è quella di esprimere i livelli di prestazione attesi in termini comportamentali: non concetti generici, ma comportamenti osservabili, quasi misurabili. Lo ritengo, in modo provocatorio, un affascinante paradosso. Stiamo lavorando per uscire da una didattica di tipo trasmissivo, che fonda le sue basi su una visione del sapere comportamentista prima e cognitivista poi, ci spingiamo verso ambienti di apprendimento costruttivisti per i quali proponiamo innovativi strumenti di valutazione, ed è proprio nella loro progettazione che ci accorgiamo di aver bisogno di quei concetti che sono alla base della teoria del comportamentismo stesso. A ben vedere, di paradossale non c’è niente: c’è una rivisitazione del metodo scientifico che prevede che il nuovo, del vecchio, incorpori il meglio ossia quanto ha dimostrato di funzionare. La fig. 3 riporta la rubric, tel quel, proposta ed implementata dagli studenti nel corso della sperimentazione, per la valutazione delle presentazioni multimediali.
Un caso particolare di rubric è quello della
rubric olistica. Questa infatti prevede un unico elemento importante a cui è associata un’unica scala di rating. Ed il solo elemento importante è la prestazione stessa (o il prodotto), che viene dunque valutata(o) in modo complessivo senza il bisogno di scinderla(o) nei suoi elementi importanti. Il tipo di rubric più generale, quello cui noi ci riferiamo generalmente in questo lavoro, viene definitorubric analitica, nel senso che la prestazione o il prodotto, ad essa associati, vengono sezionati e quindi analizzati nei loro tratti fondamentali.
6.2 Caratteristiche di una buona rubric.
La letteratura è piena di esempi di rubric, da cui può essere utile partire per poter progettare le proprie. Tuttavia molte di queste sono state implementate non rispettando alcune regole fondamentali che la letteratura in primis (Jonassen, 2003) e l’esperienza poi mi suggeriscono di consigliare.
Quali sono gli elementi importanti?E’ il primo grande problema da risolvere. La rubric, come già detto, è uno strumento per valutare una prestazione. Nella definizione più rigorosa l’abbiamo assimilata ad un modello che contiene, del sistema alunno che effettua una prestazione, tutti e soli quegli elementi che servono per valutare la prestazione stessa. Ebbene questi elementi sono gli elementi importanti della nostra prestazione. In altri termini non dobbiamo inserire tutti gli elementi, ma solo quelli, e questi tutti, che sono utili alla valutazione. E’ importante che questa fase di individuazione degli elementi importanti non venga attuata unilateralmente dal solo insegnante ma venga condivisa con gli alunni, diventi una sorta di patto tra gli alunni e l’insegnante. E una volta sancito il patto, bisogna prestare fede allo stesso: se successivamente ci si accorge di aver tralasciato un elemento importante, prima di inserirlo nella rubric, andrà rinegoziato con gli studenti. Il significato di questa condivisione è profondo e la nostra esperienza ci permette di affermare che questo patto va a colmare l’inevitabile carenza di oggettività residua, carenza che al contrario “pare” non presentarsi mai al momento delle misurazioni fatte con le prove a selezione di risposta. Gli studenti non contestano mai una misurazione fatta con i test: lo stesso avviene con una rubric se questa è ben progettata e soprattutto condivisa.
In una buona rubric ciascun elemento importante deve essere atomico.Con questo vogliamo dire che quando individuiamo un elemento come elemento importante della prestazione, questo, nei limiti del possibile, non deve essere scomponibile in ulteriori sottoelementi, come capita invece per una molecola che è scomponibile in atomi. Questo garantisce una maggiore facilità nella definizione dei suoi livelli di prestazione attesi, ossia diventa più facile attuarne una corretta misurazione.
I ratings di una buona rubric debbono essere distinti, comprensivi e descrittivi.Questa è una richiesta forte e chiara che Jonassen introduce per i ratings. Questi, in primis, debbono essere ovviamente ben distinti uno dall’altro. Stabilire qual è il livello di prestazione atteso, raggiunto dallo studente, in riferimento ad una certo elemento importante, implica che i livelli di prestazione attesi siano stati definiti in modo chiaro e non sovrapponentesi: deve essere inequivocabile dove termina uno e dove inizia l’altro. Nello stesso tempo i ratings devono essere tali da coprire tutte i possibili livelli di prestazione di uno specifico elemento importante. Non deve succedere che la prestazione di uno studente possa collocarsi al di fuori della scala prevista. Last but not the least i ratings devono descrivere i comportamenti attesi e non essere delle generiche diciture che possono andar bene per tutto ma che non caratterizzano nulla. Il descrivere, ad esempio, un livello con il termine discreto sia in riferimento al tono di voce di un attore sia alla qualità della grafica di una slide implica necessariamente un’interpretazione molto soggettiva e per questo da evitare.
La rubric deve essere uno strumento di comunicazione con gli studenti e con le famiglie.La rubric nasce come strumento di valutazione, ma data la sua struttura è chiaro che essa si presenta soprattutto come strumento per migliorare l’apprendimento dell’alunno. Una rubric ben progettata definisce chiaramente gli obiettivi che devono essere raggiunti: lo studente conosce esattamente su cosa sarà misurato e quali saranno le prestazioni attese. Ad esempio una rubric ben progettata per la valutazione del colloquio orale permette finalmente allo studente di conoscere i criteri in base ai quali sarà valutato e renderà il colloquio orale un momento meno misterioso e soggettivo. E ancora, una rubric per la valutazione del processo di costruzione di un prodotto in un ambiente di apprendimento a matrice costruttivista permetterà all’alunno di indirizzare i propri sforzi, di introdurre dei criteri di intenzionalità soprattutto all’interno di quelle fasi di apprendimento per scoperta che garantiscono sì sempre una comprensione profonda ma in cui lo studente rischia di disperdersi e di non finalizzare in modo proficuo i propri sforzi. Anche la famiglia potrà conoscere meglio gli obiettivi da raggiungere e potrà monitorare costantemente e significativamente l’andamento del figlio.
Una buona rubric deve avere valenza orientante.Credo che una rubric ben progettata possa avere una insostituibile valenza orientante. Spesso la famiglia e lo studente si trovano senza strumenti per compiere le scelte corrette per il futuro dello studente, in balia di voti che non si sa bene cosa esprimano o di giudizi olistici/impressionistici di insegnanti che caricano la valutazione del loro modo particolare di interpretare il mondo e la realtà sociale e professionale. Rubric ben progettate forniscono alle famiglie dati certi che possono contribuire alla elaborazione di strategie per il futuro sia scolastico sia professionale del figlio. Ho maturato un’esperienza pluriennale di orientamento e ho sperimentato due modelli di analisi attitudinale, uno che si riferisce al processo decisionale ed uno desunto dallo studio delle cinque aree funzionali cerebrali. (Vaccani, 2000; Zecchi, 2002). E’ chiaro che nessuna rubric può fotografare un alunno secondo queste prospettive, però più informazioni, tratte da diverse rubric, soprattutto mirate a verificare le varie forme di apprendimento (attivo, costruttivo, intenzionale, autentico etc.) e le attitudini al lavoro collaborativo etc. possono fornire interessanti ed utili indicazioni.
Una buona rubric deve fornire indicazioni articolate e non un voto stringato.Questa caratteristica, reclamata fortemente dal pensiero costruttivista (Jonassen, 2003), ha senza dubbio un fondamento teorico solido e condivisibile che recita più o meno così: se la forza di una rubric è quella di fornire informazioni ricche ed articolate debbo assolutamente resistere alla tentazione di tradurle in più voti, od ancora peggio, in un unico voto stringato. Ma se questo teoricamente è vero, è altrettanto vero che è il punto dove ho trovato maggiori obiezioni da parte degli stessi studenti. Indubbiamente l’impianto di valutazione su cui si basa la nostra scuola li ha abituati a ragionare sul conseguimento del voto, per cui, tutto il discorso li affascina ma, alla fine, vogliono conoscere “il loro valore” in decimi. Richieste degli studenti a parte, rimane comunque aperto il problema, che affronteremo successivamente, di tradurre, in ambito scolastico, la valutazione fornita da una rubric in un voto, anche se da un punto di vista costruttivista questa può non apparire una buona usanza.
6.3 Come sviluppare una buona rubric
Diamo di seguito alcune indicazioni pratiche sui passi da seguire per sviluppare una buona rubric. Si tratta di indicazioni tratte da vari lavori e che abbiamo sintetizzato tenendo conto della nostra esperienza (Airasian, 2000 & 2001; Mertler, 2001; Montgomery, 2001; Nitko, 2001; Jonassen 2003). Naturalmente queste sono le indicazioni da seguire quando si vuole sviluppare una rubric ex novo. Nella mia esperienza ho trovato molto utile partire da rubric già esistenti e modularle sulla base delle specifiche necessità, sfruttando in questo modo la preziosa esperienza di altri e risparmiando una notevole quantità di tempo. In ogni caso, partendo dal nulla, questi sono i passi che suggerisco:
Elencare gli obiettivi didattici previsti, meglio se declinati secondo una tassonomia (e.g. Bloom). In forma narrativa, i progettisti di rubric, docente e studenti, scrivano alcune frasi che illustrino l’importanza dell’argomento di pertinenza della rubric. Questo è un momento molto importante che permette di condividere gli obiettivi e le linee fondamentali di progettazione della rubric. Sulla base dei punti 1 e 2 si individuino gli elementi importanti della rubric tenendo conto anche delle indicazioni già date nelle caratteristiche di una buona rubric. Ribadisco come, sempre ma soprattutto in questa fase, sia importante la condivisione con gli studenti. E’ qui comunque che, del sistema complessivo da valutare, si estraggono quelli che riteniamo gli elementi importanti. Si eviti di individuarne un numero troppo alto, pena la frammentarietà dell’informazione e la difficoltà della compilazione. Nella nostra esperienza, un numero superiore a 6/7 elementi suggerisce il passaggio ad una seconda rubric. Per ogni elemento importante si definisca con chiarezza che cosa ci si aspetta di misurare nella prestazione dell’alunno. Per ogni elemento importante si definisca il campo di variabilità ossia l’intero range dei livelli di prestazione attesi e si definisca il numero di ratings previsti. Non è necessario che tutti gli elementi importanti abbiano lo stesso numero di ratings. Per ogni elemento si descrivano analiticamente i singoli livelli di prestazione attesi (ratings) evitando affermazioni generiche ed utilizzando descrizioni espresse in termini di comportamenti osservabili. E’ il compito più duro ma è quello che in un certo senso conferisce alla rubric, nel suo complesso, il valore di strumento di misura anche se prevalentemente qualitativo. Sulla base della mia esperienza questa fase ha bisogno di parecchie passate per arrivare ad essere unostrumento funzionante. Obiettivo nobile. Si tenga presente, durante tutta la realizzazione della rubric, l’obiettivo fondamentale: non si tratta di mettere a punto un sofisticato strumento per misurare con precisione micrometrica elementi semplici, si tratta invece di mettere a punto uno strumento semplice per misurare prestazioni complesse, nell’ottica non tanto di creare un generatore di voti finali quanto soprattutto uno strumento che possa fornire all’alunno quei dati (feedback) che gli permettano di migliorare le proprie performance. Bisogna sporcarsi le mani e accettare compromessi. L’ideale sarebbe mettere a punto rubric così consolidate e condivise da sostituire il voto. Ma la scuola nel suo complesso non è assolutamente pronta per un evento così traumatico. Ne potremo parlare forse dopo qualche anno di sperimentazione di portfolio … Per ora dobbiamo pensare anche al lavoro poco nobile di trasformare la rubric in un voto: sono gli studenti stessi a reclamarlo. Da anni uso rubric, o strumenti similari, ma puntualmente e sempre gli studenti, quasi subito, esordiscono dicendo “ Prof., va bene tutto, ma quanto ho preso?”. Per questo, è importante associare ad ogni “ratings” un valore numerico, un peso. Se poi si mette in piedi qualche meccanismo per sintetizzare i singoli valori numerici in un unico voto complessivo, questo processo va documentato e deve diventare parte integrante della rubric stessa.
6.4 Un possibile mapping tra le rubric ed i voti
Prima di tentare un mapping tra una rubric ed un voto è necessario chiarire i limiti entro i quali ciò è possibile. Già ci siamo detti che il lavoro è “sporco”: si tratta di trasformare un insieme di informazioni ricche, articolate, espresse in modo chiaro e condiviso in una singola informazione numerica, o al più in una etichetta, che ovviamente dice molto meno, forse quasi niente, ma che comunque è un pezzo della nostra cultura di scuola. Chiarito questo per implementare un mapping, dunque, che sia il meno disastroso possibile trovo utile considerare le seguenti indicazioni:
Si utilizzino voti per descrivere i risultati raggiunti nello svolgimento delle prestazioni e voti diversi per esprimere caratteristiche più orientate alla valutazione dello studente nel suo complesso, delle sue competenze e/o potenzialità. Al di là delle mie personali considerazioni sulla loro possibile valenza orientante, le rubric , così come ce le presenta la letteratura dominante, sono strumenti per valutare prestazioni e quindi, se un mapping s’ha da fare, si faccia con i voti orientati alle prestazioni. Judith Arter (2001) consiglia di evitare un mapping automatico del tipo :” sommare tutti i punti che gli studenti hanno ottenuto e dividere per il numero totale di punti possibili ottenendo così una valutazione percentuale che, successivamente, può essere utilizzata per ottenere i voti/giudizi finali con le metodiche classiche”. Il consiglio che la Arter fornisce è quello di mettere in piedi un mapping logico, cioè una regola logica, per il passaggio dai punti ai voti. Se ad esempio abbiamo una rubric che prevede scale con i ratings cui vengono attribuiti punteggi da 1 a 5, allora un mapping possibile è quello riportato in tab.1 Nella mia sperimentazione, a differenza di quanto indicato al punto 2, ho trovato più conveniente ed efficace concentrare gli sforzi nell’assegnazione dei pesi numerici ai singoli rating, valutando in modo attento ed oculato il peso di ciascun rating ed evitando accuratamente ogni tipo di automatismo, per poi procedere con le metodiche classiche consolidate al momento della trasformazione dei punteggi grezzi nelle valutazioni finali. Condividere la scelta del tipo di mapping con gli studenti.
Punteggi | Voti/giudizi |
Non più del 10% di punti inferiori a 4, con almeno il 40% uguali a 5. | Ottimi |
Non più del 30% di punti inferiori a 4, con almeno il 10% uguali a 5 | Buoni |
Non più del 10% di punti inferiori a 3, con almeno il 20% superiori o uguali a quattro | Sufficienti |
Non più del 30% di punti inferiori a 3, con almeno il 10% superiori o uguali a quattro | Insufficienti |
Tutti i punteggi inferiori | Gravemente insufficienti |
Tab. 1.Esempio di mapping logico tra i punteggi ed i giudizi
6.5 Come usare al meglio una buona rubric
E’ possibile trarre utili indicazioni per l’uso delle rubric dai paragrafi precedenti. Mi limiterò qui ad indicare quelle meno evidenti.
I compilatori delle rubric utilizzino documenti esempio (ancore) nel momento dell’individuazione dei rating. In altre parole quando si deve valutare quale livello atteso è stato raggiunto per un determinato elemento importante di una prestazione è consigliabile avvalersi di documenti (scritti, registrazioni audio e/o video, multimediali etc.) già valutati che possano servire da riferimento. L’insegnante utilizzi documenti esempio (ancore) per dirimere ambiguità e per spiegare le scelte fatte a studenti o genitori non convinti. Gli insegnanti si avvalgano delle rubric come strumenti fondamentali per la loro crescita professionale. Il momento della progettazione di una rubric è infatti, per un insegnante, un momento magico che lo costringe a migliorarsi continuamente nell’ottica di favorire un apprendimento significativo. L’insegnante coinvolga gli studenti in fase di compilazione. Ho fatto ampio ricorso agli studenti per questo ruolo. Coinvolti nel modo corretto si sono dimostrati compilatori imparziali e la media delle loro valutazioni ha sempre portato a risultati finali affidabili e coerenti. Si utilizzino le rubric come “paletti” fondamentali nella schedulazione dei progetti. Lo svolgimento di ogni progetto, nella mia sperimentazione, è stato seguito con l’utilizzo di un software di project management. La schedulazione delle presentazioni multimediali, con relativa compilazione di rubric, si è dimostrata fondamentale per il rispetto dei tempi.
Mi fermo qui con questa serie di ricette, buone pratiche e saggi consigli per progettare, implementare ed utilizzare al meglio le rubric, questo strumento che tutti, quando lo presento, hanno l’impressione di avere in qualche modo già utilizzato. E la mia è allora la frustrazione del fisico che, avvezzo ad esprimersi per complesse formule matematiche, al contrario, anche quando presenta cose semplici, viene sempre vissuto come latore di chissà quali misteri profondi perché incomprensibili. Ma qui è proprio la forza dello strumento rubric. Essere semplice e facilmente comprensibile con l’ambizione di avere i numeri per proporsi come un discreto apparato di misura per prestazioni complesse. Sembra poco ma c’è tanto: c’è la novità di proporre un oggetto scientificamente organizzato laddove normalmente si fa uso solo di parole, c’è l’umiltà di uno strumento che, senza le pretese di rivoluzionare l’impianto pedagogico, è il candidato naturale a giocare il ruolo di protagonista in quello che diventerà un nostro compagno nei prossimi anni: il portfolio. E anche questo non è poco: anzi, solo, potrebbe bastare a fornire alle rubric un intrinseco valore di riferimento che assolutamente non possiamo permetterci di trascurare.
7 CONCLUSIONE
La sperimentazione, in una scuola secondaria superiore, nel corso dello stesso anno scolastico e nell’ambito dello stesso gruppo classe, di due modelli contrapposti di didattica, trasmissivo l’uno costruttivista l’altro, mi ha permesso di verificare sul campo un ampio spettro di metodiche di valutazione e di presentarle all’interno di un utile schema complessivo.
Un approfondimento particolare ho dedicato alle rubric, di cui ho affrontato in modo approfondito sia la fase di progettazione sia quella di utilizzo, proponendo indicazioni tratte dall’esperienza diretta e la cui applicazione si è dimostrata vincente per il buon esito della sperimentazione stessa. Nate come strumento fondamentale per la valutazione di prestazioni complesse hanno dimostrato di essere risorsa efficace anche in campi diversi da quello prestazionale: quello orientativo in particolare. Determinante anche il loro contributo nel favorire climi di apprendimento intenzionali e nel fornire il feedback necessario perché gli studenti possano costantemente migliorare le proprie performance.
L’introduzione di criteri di misurabilità e di elementi di oggettività, all’interno di ambienti geneticamente refrattari a tale cultura, è comunque il risultato più significativo della loro applicazione sistematica. Questo grazie, anche, alla rivisitazione di concetti comportamentisti per uno strumento nato in ambiente tipicamente costruttivista. Una conferma forse che “.. ogni finito è il superare se stesso e la dialettica è quindi l’anima motrice del procedere scientifico …” (Hegel)
BIBLIOGRAFIA
Airasian, P. W. (2000). Assessment in the classroom: A concise approach (2nd ed.). Boston: McGraw-Hill.
Airasian, P. W. (2001). Classroom assessment: Concepts and applications (4th ed.). Boston: McGraw-Hill.
Arter, J. & Bond, L. (1996).
Why is assessment changing. In Blum, R.E. & Arter, J.A. (Eds.),A handbook for student performance assessment in an era of restructuring(I-3: I-4). Alexandria, VA: Association for Supervision and Curriculum Development.
Arter, J. & McTighe, J. (2001).
Scoring rubrics in the classroom: Using performance criteriafor assessing and improving student performance. Thousand Oaks, CA: CorwinPress/Sage Publications.
Ausubel, D.P. (1968).
The psychology of meaningful verbal learning.New York: Grune & Stratton.
Bloom, B.S. (Ed.). (1956).
Taxonomy of educational objectives.Handbook 1: Cognitive domain. New York: David McKay.
Gattullo, M. (1988).
Didattica e docimologia. Misurazione e valutazione nella scuola. Armando Educazione.
Jonassen, D.H. (1999).
Designing Constructivistic Learning Environments.In C.M. Reigeluth (Ed.), Instructional Design Theories and Models, A New Paradigm of Instructional Theory (pp. 215-239). Mahwah, NJ: Lawrence Erlbaum Associates.
Jonassen, D.H., Howland, J.H., Moore, J. , Marra, R.M. (2003).
Learning to solve problems with technology.New Jersey, Pearson Education, Inc., 210.
Johnson, D. W., & Johnson, R. T. (1999).
Learning together and alone: Cooperative, competitive and individualistic learning(5th ed.). Boston: Allyn & Bacon.
Johnson, D. W., & Johnson, R. T. (1994). Learning together. In S. SHARAN (Eds.), Handbook of cooperative learning methods. (pp-51-65). Westport, CN: The Greenwood Press.
Hegel, G.W.F. Enciclopedia delle scienze filosofiche, a cura di V. Verra, Torino, UTET, 1981, pp. 246-56
Hopper, K.B. (2003). In Defense of the Solitary learner: A Response to Collaborative Constructivistic Education. Educational Technology, 43(2), 24-29.
Mayer, R.E., & Wittrock, M.C. (1996).
Problem-solving transfer.In D. Berliner & R. Calfee (Eds.), Handbook of educational psychology (pp. 47-62). New York: Macmillan.
Mertler, C.A. (2001).
Designing Scoring Rubrics for Your ClassroomPractical Assessment Research and Evaluation 2(2). Retrieved fromhttp://PAREonline.net/getvn.asp?v=7&n=25.
Montgomery, K. (2001).
Authentic assessment: A guide for elementary teachers.New York: Longman.
Nitko, A. J. (2001).
Educational assessment of students(3rd ed.). Upper Saddle River, NJ: Merrill.
Sabatini, Coletti (2004). Dizionario della lingua italiana. Rizzoli Larousse S.p.A., Milano
Tombari, M. & Borich, G. (1999).
Authentic assessment in the classroom: Applications and practice. Upper Saddle River, NJ: Merrill.
Vaccani, R. (2000).
Conoscenze, Attitudini e Professioni.Università Bocconi. Edizioni Bocconi Comunicazione. Milano.
Wiggins, G. (1990).
The Case for Authentic Assessment.Practical Assessment Research and Evaluation 2(2). Retrieved fromhttp://PAREonline.net/getvn.asp?v=2&n=2.
Wiggins, G. (1998).
Educative Assessment. Designing assessments to inform and improve student performance. San Francisco, CA: Jossey Bass.
Winn, W. (2003). Beyond Constructivism: A Return to Science-Based Research and Practice in Educational Technology.
Educational Technology, 43(6), 5-14.
Zecchi, E. (2002).Un approccio sistemico al problema dell’orientamento in una scuola superioreSensate Esperienze. N. 54 Aprile-Maggio 2002.
Zecchi, E. (2003).A probabile mapping between Fortic modular architecture and a particolar implementation of the constructivistic educational perspective. Critical considerations for an effective application.Proceedings of Second International Girep, quality development in teacher education and training, University of Udine.