Sul finire degli anni ’50 e all’inizio degli anni ’60, una nuova forma di psicologia sperimentale, quella cognitivista, s’imponeva nel panorama scientifico. Il nuovo paradigma sembrava dovesse spazzare via il precedente, quello associazionista-comportamentista. Si creò una nuova visione della mente i cui processi interni invisibili potevano finalmente essere indagati con lo stesso rigore scientifico che aveva contraddistinto gli studi precedenti sull’apprendimento verbale e la memoria associativa. Il soggetto viene quindi visto in grado di intervenire sulle informazioni in entrata e di elaborarle, attraverso codifiche differenziate, o alivelli di profondità variabili, o ancora per mezzo di strategie mnemoniche e cos’ via.
Human information processing e il modello di Atkinson e shiffrin (1968)
La mente umana poteva essere assimilata alle operazioni svolte da un calcolatore. Da ciò deriva la concezione dell’uomo come elaboratore d’informazione (HIP).
Nel loro modello, Atkinson e Shiffrin, fanno riferimento a componenti strutturali e a processi di controllo (viste le analogie con il mondo dell’informatica); i primi non sarebbero altro che i tre megazzini di memoria, mentre i processi di controllo riguarderebbero tutte le operazioni che vengono svolte consapevolmente al fine di immagazzinare produttivamente un’informazione, favorendone il passaggio dalla MBT alla MLT. In sostanza si tratta di strategie per l’apprendimento, tra le quali ricordiamo: la reiterazione (l’unica indagata dai due autori); l’immaginazione e la categorizzazione.
E’ utile sottolineare che il modello di atkinson e shiffrin benché abbia trovato conferme nel caso dell’utilizzo di materiali verbali e visivi non sia automaticamente estensibile a tutte le modalità sensoriali, data la loro non unicità. In particolare si è osservato in più occasioni come la memoria riconducibile al sistema olfattivo sembri essere governata da regole sue proprie.
Tra le critiche la più importante riguarda il ruolo della reiterazione nell’apprendimento. Gli autori infatti previdero che a una maggiore permanenza di un item nel magazzino a breve termine corrispondesse ad un migliore apprendimento, nel senso che il trasferimento a lungo termine sarebbe stato assicurato dalla reiterazione. Eppure, altri studiosi hanno rilevato che non sempre la ripetizione deliberata del materiale produce automaticamente apprendimento. Altre critiche al modello di Atkinson e Shiffrin hanno riguardato la capacità MBT, che in alcuni casi può andare oltre le previsioni di Miller.
La teoria della profondità di codifica di Craick e Lockhart (1972)
L’aspetto centrale di questa teoria consiste nel ritenere che la durata della traccia presente nella memoria dipenda dalla profondità con cui lo stimolo è stato elaborato in fase di codifica. Gli autori ipotizzarono, in particolare, tre livelli di elaborazione: quello strutturale, quello fonemico, e quello semantico. Nella fattispecie l’elaborazioni a livello semantico danno luogo alle migliori prestazioni del ricordo, quelle strutturali alle peggiori. Craick e Lockhart ebbero l’indiscusso merito di spostare l’attenzione dalle componenti strutturali della memoria, così come enfatizzate da Atkinson e Shiffrin, a quelle elaborative.
Critiche:
- non erano chiare le ragioni per cui un compito di natura semantica dovesse condurre a prestazioni migliori.
- Si era osservato che in taluni casi anche un’analisi superficiale poteva dare luogo ad un buon ricordo
- Nell’eseguire le operazioni di tipo semantico si era rilevato che le risposte del tipo “si “ erano ricordate meglio di quelle che presupponevano un “no”.
- Gli autori ipotizzavano l’esistenza di una sequenza ordinata e lineare di stadi (dal più periferico, quindi strutturale, al più profondo o semantico) entro cui uno stimolo poteva essere elaborato.
Ad alcune di queste obiezioni gli autori cercarono di replicare migliorando la loro teoria e integrandola con nuovi concetti. In particolare, la superiorità del codice semantico sugli altri venne chiarita chiamando in causa i concetti di complessità nell’elaborazione (Item soggetti ad una codifica più elaborata sono ricordati emglio) e di distintività. La distintività riguarda invece la possibilità di isolare un elemento dagli altri. Stimoli facilmente isolabili, infatti, verranno ricordati meglio di stimoli più omogenei.
La specificità di codifica Tulving e Thomson (1973)
Secondo il principio della specificità della codifica le operazioni che vengono svolte all’atto della codifica di un particolare materiale possono fungere da valido suggerimento per il suo successivo recupero ( Tulving e Thomson 1973). Ciò indica che, se un termine è stato codificato a livello semantico, la comparsa, durante il recupero, di un suggerimento precedentemente connesso in forma semantica a quel termine favorirà il ricordo, rispetto ad una situazione incongruente, oppure alla semplice rievocazione senza suggerimento.
La teoria si è dimostrata utile sia come strumento per favorire il resoconto testimoniale in psicologia giuridica, sia per spiegare il rapporto esistente tra tono dell’umore e ricordo.
continua…