Informazioni sull'autore

Disponibile Solo versione Premium

Condividi su facebook
Condividi su twitter
Condividi su linkedin

Disponibile Solo versione Premium

Sir Francis Galton: l’Eugenetica e il Concetto di Intelligenza

Breve Estratto

L’intelligenza è stata considerata per molto tempo una capacità innata, dipendente dal patrimonio genetico ereditato dai genitori. Attualmente, grazie soprattutto agli studi di J. Piaget sullo sviluppo dell’intelligenza nel bambino, si ritiene che ad innalzare o ad abbassare il rendimento intellettuale del bambino contribuiscano sia i fattori genetici, sia i fattori ambientali. A questo proposito sono state condotte molte ricerche di confronto tra gemelli, tra fratelli e tra bambini adottivi per cercare di stabilire effettivamente quanto possa influire l’ereditarietà e quanto l’ambiente. Nonostante non si sia raggiunta una risposta unanime, si è verificato che le capacità innate non si trasformano in intelligenza effettiva senza una stimolazione dall’ambiente, e che perciò un ambiente privo di stimoli può inibire la crescita.
Con il termine intelligenza, in senso psicologico generale, si intende quel processo mentale che permette di acquisire nuove idee e capacità che consentono di elaborare concetti e i dati dell’esperienza per risolvere in modo efficace diversi tipi di problemi. Tuttavia, il concetto è molto ampio, sicché non esiste una definizione univoca e accettata universalmente; ogni spiegazione risente sempre dell’orientamento di pensiero di chi la formula.
Introduzione
La psicologia ingenua vede l’intelligenza come un insieme di capacità: essenzialmente la capacità di risolvere problemi (intesa come capacità di ragionare utilizzando processi logici, stabilire connessioni, essere flessibili), capacità verbale (saper parlare in maniera chiara, possedere un buon vocabolario) unite a una buona competenza sociale (accettare gli altri, ammettere i propri errori, possedere una buona empatia).
Da questi esempi si deduce che l’intelligenza in sé è vista come un fattore generale che comprende al suo interno fattori specifici. Su questa struttura dell’intelligenza concordano anche molti studiosi. Secondo Ch. Spearman l’intelligenza è una capacità mentale generale, cioè un fattore di base comune a tutte le attività intellettuali, che egli chiamò fattore g. L.L. Thurstone e Guilford criticarono però la posizione di Spearman sostenendo l’esistenza di molteplici fattori di abilità mentale tra loro indipendenti (7 per Thurstone, non meno di 120 per Guilford). R. Sternberg ha cercato di sintetizzare queste diverse posizioni sostenendo che il numero dei fattori cambia con il crescere dell’età: si passa, infatti, da un’abilità intellettuale generale a vari gruppi di abilità. Di conseguenza, le teorie che si basano su un numero inferiore di fattori rappresentano meglio l’intelligenza dei bambini, mentre quelle che si basano su molti fattori sono più adeguate per gli adolescenti e per gli adulti. Più recentemente H. Gardner ha elaborato la teoria delle intelligenze multiple, secondo la quale non esisterebbe un’unica forma generale di intelligenza, ma distinti tipi di competenze (linguistica, musicale, spaziale, logico-matematica ecc.) ciascuna competente per l’elaborazione di uno specifico ambito di informazioni.
Eugenetica
Dal greco eugéneia, buona stirpe. Branca della genetica (detta anche eugenetica) che studia i modi per migliorare geneticamente la popolazione umana. Fu F. Galton nel 1883 a proporne il nome e a enunciarne le finalità: migliorare le caratteristiche delle varie popolazioni tramite tutti i mezzi capaci di agire in tal senso. Le teorie di Galton, formulate in un periodo in cui la moderna genetica non era ancora nata, ebbero notevole seguito, finendo però per confondersi con tesi razziste pseudoscientifiche (in tale ambito, per esempio, si collocano le leggi sulle restrizioni matrimoniali e sulla sterilizzazione messa in atto nella Germania nazista). L’eugenica, avvalendosi degli studi di genetica di popolazioni, può prevedere quali tipi di incroci sarebbero più adatti per eliminare o diminuire geni indesiderabili dalle popolazioni umane.
È evidente che il discorso su quali siano le caratteristiche desiderabili da riprodurre e quali da eliminare è molto complesso: sempre concordi sul voler eliminare cecità, sordità e simili anomalie, non lo si è più quando si debba stabilire quali siano i caratteri psicosomatici da incentivare. Essenzialmente i modi di operare dell’eugenica sono due: negativo e positivo. L’eugenica negativa tenta di prevenire la trasmissione dei geni ritenuti indesiderabili (o veramente tali) con vari metodi, che vanno dallo sconsigliare i portatori a prolificare, fino alla sterilizzazione degli stessi e che comprendono anche il cosiddetto aborto eugenico. Va detto, tuttavia, che da un punto di vista biologico non risponde a verità che la sterilizzazione conduce a buoni risultati nell’eliminazione dei geni deleteri.
Questo per vari motivi, ma essenzialmente per il fatto che pur eliminando gli omozigoti dalla riproduzione, restano pur sempre gli eterozigoti a perpetuare le varie tare. Quasi tutti gli individui portano in condizioni eterozigote caratteri ritenuti negativi e, se si dovessero eliminare anche gli eterozigoti per dare qualche efficacia ai programmi di sterilizzazione, la specie umana correrebbe seri rischi per la propria perpetuazione. Se si considera poi che uomini famosi per il loro genio fossero affetti da anomalie anche gravi, si capisce che impedendo la procreazione a individui portatori di caratteri negativi si blocca la trasmissione anche di caratteri estremamente positivi. L’eugenica positiva incoraggia, invece, gli incroci solo tra portatori di caratteristiche desiderabili: anche per essa (che comunque non trova quasi più aperti sostenitori) valgono, però, le considerazioni e le limitazioni rilevate per l’eugenica negativa. In conclusione, l’eugenica nel suo complesso rappresenta un campo quanto mai problematico e discusso sia sotto il profilo biologico sia sotto quello giuridico e morale.

Scheda 1

Sir Francis Galton. Statistico, psicologo e naturalista inglese (presso Sparkbrook, Birmingham, Warwickshire, 1822-Haslemere 1911). Di interessi vastissimi, fu esploratore in Africa, condusse ricerche di meteorologia, si occupò di antropologia subendo l’influsso del cugino, C. Darwin, ma soprattutto fornì importanti contributi in statistica e in psicologia. In statistica introdusse la deviazione quartile come indice di dispersione, e il metodo della correlazione, perfezionato successivamente dal suo allievo K. Pearson. In psicologia fu, di fatto, l’iniziatore della psicologia differenziale, ma soprattutto studiò il problema dell’ereditarietà dei caratteri psichici e fu il creatore dei primi test mantali. Si dedicò inoltre a problemi di eugenica (suo è tale termine), fondando nel 1909 un apposito istituto all’Università di Londra. Opere principali: Hereditary Genius (1869; Il genio ereditario), Inquiries into Human Faculty and its Development (1883; Ricerche sulla facoltà umana e il suo sviluppo), Co-relations and their Measurement chiefly from Anthropomethric Data (1888; Correlazioni e loro misurazione principalmente da dati antropometrici), Essays on Eugenics (1909; Saggi sull’eugenetica).

Misurare l’intelligenza
Nonostante l’importanza che l’intelligenza svolge per lo sviluppo dell’uomo, essa è stata per lungo tempo trascurata dagli psicologi, sia perché difficile da definire e da valutare, sia perché, a partire da Wundt i processi mentali superiori venivano esclusi dalla ricerca psicologica in quanto non valutabili in maniera rigorosa attraverso una ricerca sperimentale. Le prime indagini, effettuate da Thorndike, erano rivolte soprattutto all’intelligenza degli animali e avevano lo scopo di verificare quanto questi potessero apprendere. La Gestalt, proseguendo questa linea di indagine, considerò il comportamento intelligente come una forma di adattamento all’ambiente, diverso però dal comportamento istintivo e da quello per prove ed errori. In un comportamento intelligente, infatti, lo scopo non viene raggiunto per caso, ma dopo aver compreso la globalità della situazione, cioè dopo aver collegato consapevolmente i mezzi e i fini. Agli inizi del Novecento si è incominciato a studiare l’intelligenza in termini psicometrici, cioè elaborando dei test che potessero valutare una serie di capacità: la memoria, l’attenzione, l’orientamento spaziale e temporale ecc.
I francesi A. Binet e J. Simon elaborarono un primo test di intelligenza che avrebbe dovuto predire la prestazione scolastica di un bambino attraverso una serie di prove riguardanti la conoscenza, il pensiero, il ragionamento e il giudizio. Sulla base delle prestazioni dei soggetti veniva loro attribuita un’età mentale che rappresentava il livello di sviluppo della loro intelligenza. Per età mentale si intende quella attribuita ad un bambino sulla base del numero di prove che riesce a superare correttamente confrontato con il numero di prove superato mediamente da bambini coetanei. Un bambino di età cronologica pari a 9 anni, avrà un’età mentale di 9 anni se supera le prove che i bambini di 9 anni in media superano senza errori, di 10 se supera anche quelle che risultano facili per bambini più grandi, di 7 se invece non va oltre quelle proprie dei bambini di 7 anni. L.W. Stern introdusse poi il concetto di quoziente d’intelligenza, o QI, dato dal rapporto tra l’età mentale di un bambino e la sua età cronologica moltiplicato per 100. L’utilità pratica che può avere un punteggio ottenuto in un test di intelligenza dipende soprattutto dalla sua stabilità nel tempo. Attraverso una serie di studi si è visto che il QI rimane relativamente stabile nel corso della vita (pur con qualche piccola oscillazione), iniziando a declinare con l’età solamente dopo gli 80 anni. Nello specifico le abilità che più velocemente declinano sono quelle che chiamano in causa risposte immediate e veloci, mentre più stabili restano abilità cognitive generali quali le capacità verbali/linguistiche.
I test per la misurazione dell’intelligenza sono stati usati negli Stati Uniti a partire dai primi anni del Novecento e si sono notevolmente diffusi. Attualmente sono ancora utilizzati, sia pure rivisti e rielaborati. I più famosi sono il Terman-Merril e le scale di Wechsler per l’infanzia, la fanciullezza, l’adolescenza e l’età adulta. Queste ultime sono caratterizzate (anche rispetto ai test di Binet) non solo per il fatto che considerano un campione più ampio (la Stanford-Binet si fermava ai 16 anni) ma anche perché calcolano un punteggio separato per un QI verbale e un QI di esecuzione.

Intelligenza ed educazione
In psicologia generale il termine intelligenza viene usato per indicare un complesso di fatti (o fenomeni) osservabili, detti comportamenti (ad es. l’intelligenza come capacità di apprendere, come capacità di risolvere i problemi o come adattamento, ecc.). Pertanto sarebbe più corretto parlare di “comportamento intelligente” anziché di “intelligenza” (che sembra rimandare a una facoltà astratta, a un valore morale, a un “bene immateriale”).
Quando si parla di “comportamento intelligente” si fa riferimento ad una particolare componente del comportamento osservabile, decisa di volta in volta: ad es., intelligenza potrebbe significare, in un caso determinato, “la capacità di manipolare degli oggetti in modo da connetterli l’uno all’altro, secondo un certo ordine”. Se questa definizione la consideriamo accettabile, il problema pratico diventa quello di stabilire “cosa” e “come” manipolare (ad es. infilare in una cordicella dei pezzi di legno forati, di forma sferica e cubica, in maniera alternata). Fatto questo, ci si pone il problema di come “misurare” un comportamento intelligente, cioè un comportamento osservato in una situazione ben definita.
A cosa serve questa misurazione? Per dimostrare che una situazione osservabile è sempre la stessa, sia per i diversi osservatori che decidono di adattarla, sia per i soggetti che partecipano alla prova. Questo consente di osservare di volta in volta il comportamento in condizioni costanti, standardizzate. Solo a queste condizioni è possibile misurare l’intelligenza. Misurare significa quindi confrontare qualcosa di variabile (ad es. una “grandezza”: peso, lunghezza, temperatura, ecc.) con un’altra “grandezza” definita e costante (grammo, centimetro, grado, ecc.).
Nei reattivi o test mentali i vari soggetti, in una stessa situazione, possono impiegare un tempo più o meno lungo per eseguire la prova, oppure commettono più o meno errori, e così via. Come criterio di osservazione si può scegliere il rendimento del soggetto in condizioni di osservazione definite. Questo significa che nel test non si mette a confronto un soggetto con un altro, né le loro rispettive intelligenze, ma soltanto il loro rendimento specifico in un compito intellettivo determinato. Solo così si può fondare la scientificità della psicometria.
Naturalmente, il confronto degli specifici rendimenti deve avvalersi dell’osservazione di molti soggetti da sottoporre a un medesimo test. Ottenuto un rendimento standard, che va da un minimo a un massimo di punteggio (al disotto o al disopra del quale si hanno intelligenze ipo o iperdotate), si è in grado di prevedere quale rendimento si verificherà in circostanze analoghe, o si è comunque in grado di misurare obiettivamente l’intelligenza specifica di soggetti che l’osservatore non ha mai conosciuto prima e che vengono sottoposti per la prima volta a un determinato test.
Il limite principale di questa procedura consiste nel fatto che le condizioni per misurare l’intelligenza (ad es. i minuti a disposizione o l’obbligo di rispondere “vero/falso”) sono piuttosto rigide, stereotipate, cioè tendenzialmente lontane rispetto alle vicende reali della vita quotidiana.
Un test può comprendere un solo tipo di prova (per un tipo di comportamento) o più tipi di prove (sub-test). Ogni test può essere composto di situazioni singole, graduate per difficoltà crescente (chiamate item).
Intelligenza e ambiente
Se il test viene applicato in modo corretto, si ottiene una stima attendibile del rendimento di un soggetto in rapporto alla popolazione di appartenenza (che è quella stessa su cui è stato commisurato il test per stabilire l’Età Mentale delle diverse prove, per i diversi gruppi di età Cronologica). Ciò significa che il materiale di un test applicato a un vasto campione rappresentativo della popolazione di una nazione, non può essere usato da un’altra nazione semplicemente traducendolo: occorrerà anche adattarlo alla diversa cultura (situazioni, costumi, valori, conoscenze, ecc.).
Questo perché l’influenza delle condizioni ambientali sul Q.I. è così forte che una legge psicometrica esige che le condizioni in cui si effettua il test siano quanto più possibile simili o vicine a quelle proprie dell’ambiente in cui il soggetto vive.
Eredità e intelligenza
L’intelligenza è una caratteristica innata o acquisita? Gli psicologi tendono a considerare questo problema come pertinente alla riflessione filosofica, non alla ricerca scientifica: anche perché, posta in termini così radicali, la questione è ritenuta insolubile.
Oggi la migliore psicologia è giunta alla conclusione che il rendimento intellettivo è frutto di determinanti genetiche (i geni del corredo cromosomico) che hanno avuto la possibilità di svilupparsi in determinati ambienti. L’eredità biologica, in altre parole, è una potenzialità che può evolvere a seconda delle circostanze e delle situazioni. Ch’essa esista è dimostrato ad es. dal fatto che il Q.I. dei gemelli omozigoti (cioè geneticamente identici, essendo nati da un solo uovo fertilizzato, aventi quindi lo stesso sesso) è molto simile, molto di più di quanto non lo sia nei gemelli eterozigoti (cioè nati da due uova diverse e quindi geneticamente diversi). Ma questo non impedisce che l’ambiente possa influenzare in modo completamente diverso la coppia di gemelli.
I reattivi psicologici
I “reattivi psicologici” (S. De Sanctis) o “mental tests” (J. Cattel) sono il tentativo di misurare in modo obiettivo l’intelligenza, sottraendola a valutazioni di tipo soggettivo, che potrebbero trarre in inganno (ad es. la timidezza può portare uno studente ben preparato a conseguire una votazione scarsa. Il test dovrebbe supplire a questa sua difficoltà). La storia dei reattivi è relativamente recente. Alla fine dell’800 si cominciarono a fare degli accertamenti riguardo alle attività psicosensoriali e psicomotorie; in seguito le prove sono state estese alla valutazione dell’intelligenza generale e specifica, delle tendenze e attitudini, della personalità e del carattere. Il metodo dei test viene largamente impiegato nella psicotecnica.
I primi significativi test sono quelli ideati dallo psicologo francese Alfred Binet nel 1905. Egli, con l’aiuto dell’assistente Simon, cercò sia di misurare il grado d’intelligenza dei “deboli mentali” nelle scuole elementari di Parigi, che di verificare se si trattava effettivamente di insufficienza mentale o di disadattamento caratteriale. In seguito vennero elaborati dei test anche per gli adulti.
Età cronologica ed età mentale
Binet era partito da questi presupposti: dopo aver sottoposto a identici esami molti scolari, fece una graduazione dei risultati ottenuti, mettendola a confronto col giudizio complessivo degli insegnanti che conoscevano a fondo quegli stessi scolari. Dopodiché, per ottenere in modo rapido e sicuro un giudizio su determinate caratteristiche (memoria, attenzione, ecc.) di uno scolaro che aveva visto per la prima volta, lo sottoponeva ad una serie di prove analoghe, confrontando il suo rendimento con quello del gruppo campione.
Il reattivo di Binet consiste in una serie di prove a difficoltà crescente (scala); a ciascuna età cronologica (E.C.), misurabile in anni-mesi-giorni, corrisponde un gruppo particolare di prove, che impegnano l’intelligenza che lo studente matura a scuola. Binet non aveva messo in discussione il concetto di “intelligenza” in uso nelle scuole francesi. Il grado di intelligenza raggiunto da uno studente, in rapporto non solo alla sua età, ma anche al livello medio degli studenti della stessa età cronologica, viene chiamato con un nuovo concetto psicologico: età mentale (E.M.), anch’essa misurabile in anni-mesi-giorni. L’idea di Binet implicava che lo sviluppo dell’intelligenza attraversa identiche fasi nei vari individui, per cui l’E.M., tipica di una data E.C., esprime un livello medio di efficienza, comune alla maggioranza (cioè ad almeno il 75%) delle persone di quella età, sottoposte al test. Il concetto di E.M. si basa su due principi fondamentali:
a) esiste la possibilità di valutare il livello di intelligenza di un individuo, qualunque sia il periodo della sua vita;
b) il grado di intelligenza aumenta in una certa proporzione in rapporto all’E.C., ma solo per un certo tempo. L’americano Lewis Terman, che revisionò la scala di Binet, pose il limite massimo di sviluppo mentale approssimativamente a 16 anni, nel senso che l’intelligenza degli adulti, di regola, è pari a quella degli adolescenti normali di 16 anni, a prescindere ovviamente dall’esperienza vissuta. Ciò in pratica significa che per gli anni seguenti il soggetto in esame va considerato come se avesse 16 di E.C.
L’E.M. di un soggetto si ricava dal numero di prove effettivamente superate: possiamo cioè attribuire l’E.M. di 6 anni ad un bambino, quando ha superato tutte le prove relative a quella età. Però può accadere che il bambino sbagli qualche prova dei 6 anni e risolva alcune prove dei 7 anni: in questo caso vengono applicate le norme di compenso stabilite dal reattivo, cioè tanti mesi in meno per le prove sbagliate e tanti mesi in più per quelle appropriate ad un’età superiore. Naturalmente è difficile trovare una perfetta corrispondenza dell’E.M. con l’E.C., poiché nell’infanzia lo sviluppo dell’intelligenza è rapidissimo, meno rapido nella fanciullezza e lento nell’adolescenza.
Il quoziente intellettivo
Nel 1912 Wilhelm Stern (tedesco esule negli USA) aggiunse al concetto di E.M. la formula di Quoziente Intellettivo (Q.I.), che si ricava dividendo l’E.M. per l’E.C. Con Binet ci si era limitati alla differenza tra E.M. ed E.C. Ad es. un soggetto di 16 anni che supera tutte le prove rispondenti all’E.M. di 10 anni, ha un Q.I. uguale a 100 (si moltiplica il risultato della divisione per 100, onde evitare l’uso dei decimali).
L’E.M. e l’E.C. debbono esprimersi riducendo gli anni e i giorni a mesi: i giorni non si contano se non arrivano a 16, mentre da questo numero in poi contano sempre 1 mese. Ad es. se un E.M. di 9 anni, 5 mesi e 16 giorni corrisponde a 114 mesi; e un’E.C. di 10 anni e 5 mesi corrisponde a 125 mesi, il Q.I. è dato dal rapporto (114:125) x 100 = 91.
Ovviamente per utilizzare un test occorre che l’E.M. sia offerta dal medesimo test, e questo comporta che si siano fatte tantissime prove. Ad es. un soggetto di 171 mesi ottiene un punteggio di 60 all’esame (avendo fatto 60 risposte esatte). La tabella del test dovrà indicare a quale E.M. corrisponde 60. Supponiamo che corrisponda a 216. Il Q.I. non sarà altro che il risultato di questa operazione: (216:171) x 100 = 126. È importante sottolineare che il Q.I. non è la misura di ciò che si è imparato, ma la misura della capacità d’imparare. L’intelligenza non riguarda le cognizioni acquisite, ma la capacità che uno ha di conoscere.
La differenza del metodo di Stern da quello di Binet è abbastanza netta. Ad es. prendiamo un bambino e un fanciullo con le seguenti E.M. ed E.C.:
E.M.= 6 E.M.= 12
a) – ¦ 6-5 = 1 b) ¦ 12-10 = 2
E.C.= 5 E.C.= 10
Secondo Binet il bambino a) ha un anticipo sull’E.C. di 1 anno, mentre il fanciullo b) ha un anticipo di 2 anni, cioè il fanciullo b) viene ad avere una differenza tra E.M. ed E.C. “doppia” di quella del bambino a). Sostituendo invece il rapporto alla differenza, si avrà lo stesso Q.I.:
E.M.= 6 E.M.= 12
a) -¦ x 100 = 120 b) -¦x 100 = 120
E.C.= 5 E.C.= 10
L’anticipo di 1 anno rispetto all’E.C. di 5 anni ha quindi lo stesso significato dell’anticipo di 2 anni rispetto all’E.C. di 10 anni, per cui il fanciullo b) non è più “intelligente” del bambino a).

I limiti del Q.I.
L’E.M. presuppone identiche fasi di evoluzione nei soggetti normali. Forte cioè è la tentazione di considerare la mente umana come fatalisticamente regolata nel suo sviluppo, così da non consentire reali trasformazioni negli individui, nel corso del processo educativo e dell’esperienza. E’ ben noto, tuttavia, che il ritmo di sviluppo varia da soggetto a soggetto, e nello stesso soggetto varia nelle diverse tappe evolutive. In alcuni lo sviluppo è rapido e breve, in altri rapido e a lunga durata, in altri ancora si svolge lentamente in un tempo relativamente breve o relativamente lungo. Inoltre la differenza tra E.M. ed E.C. è più significativa nei soggetti giovani che in quelli anziani.
A tali difficoltà va aggiunta la situazione complessa della prova psicologica: ovvero la tensione emotiva ch’essa può suscitare, l’influsso ambientale, il carattere del soggetto, le conoscenze acquisite, le differenze di educazione… Nell’impiego dei test si valuta solo il risultato finale, e non anche il processo che ha portato il soggetto a quel risultato. Infine, bisogna tener conto del fatto che i test si basano soprattutto su un tipo d’intelligenza logico-razionale e matematica, espressione tipica della cultura occidentale.
A causa di queste difficoltà si è cercato di favorire la tendenza a utilizzare il metodo statistico del centilaggio. Tale metodo richiede che il reattivo in questione venga prima applicato ad un numero di soggetti quanto più grande possibile, venga cioè standardizzato, in modo da poter distribuire i risultati da 1 a 100 (dal peggiore al migliore), lungo una serie di valutazioni suddivise in 100 parti uguali. La divisione centile comincia con C1, C2, C3…e finisce con C100. Al C50 corrisponde la mediana che divide in due gruppi numericamente uguali la serie di valutazioni (vedi figura A).
Questi due gruppi vengono ulteriormente suddivisi in quartili, di modo che il “quartile inferiore” va da 1 a 25 e corrisponde al 25%, il “quartile superiore” va da 75 a 100 e corrisponde a un altro 25%; infine il “termine medio” (“gamma interquartile”) va da 25 a 75 e corrisponde al 50%. Di regola, in ogni gruppo più o meno omogeneo, i soggetti che fanno parte del “termine medio” sono sempre più numerosi di quelli di ciascun termine estremo. Questa tecnica può essere usata per qualunque cosa (statura, peso, memoria, immaginazione, ecc.)
L’entità numerica ricavata da un reattivo costituisce il “punteggio grezzo”, realizzato dal soggetto in esame. Questo punteggio acquista un significato preciso solo quando viene messo a confronto con i risultati ottenuti dall’applicazione del medesimo reattivo su di un vasto numero di soggetti della stessa età.
Cioè è in base al posto occupato sulla scala completa dei valori centili, che possiamo sapere se il rendimento del soggetto raggiunge una media elevata, normale o bassa. Ad es., se il punteggio grezzo di uno studente viene a coincidere con C40, per sapere il posto che gli corrisponde nella sua classe di 20 studenti (lui compreso), va applicata la seguente formula:
P = (40 x 20): 100 = 8. Il posto occupato dallo studente nella classe rivela un rendimento inferiore alla media.
Reattivi analitici e sintetici
a) I reattivi analitici tendono ad esaminare soltanto una funzione psichica (percezione, pensiero, linguaggio, attenzione, memoria, ecc.). Possono anche verificare certi aspetti della personalità o del temperamento-carattere (sentimenti, interessi, inclinazioni, ecc.). Il più importante test analitico è il questionario, la cui validità poggia sull’onestà delle risposte. A volte il soggetto può falsarle senza volerlo. Il desiderio inconscio di distinguersi, di assumere un atteggiamento in base all’ambiente in cui si vive o che si ritiene più accetto all’esaminatore, può far scattare un meccanismo automatico di controllo. Ciò avviene con maggiore frequenza quando gli argomenti trattati non sono familiari; è difficile immedesimarsi in situazioni nelle quali il soggetto non si è mai trovato o rispondere a domande che non si è mai posto. Il metodo del questionario è stato inventato dallo psicologo americano Woodworth nel 1917: venne applicato per la prima volta durante la Ia guerra mondiale per individuare i soldati eccessivamente emotivi e quindi instabili di carattere.
b) Viceversa, i reattivi sintetici analizzano la personalità come una totalità indivisibile. In questo campo, la tecnica dei metodi proiettivi è forse la più interessante. Si tratta di interpretare spontaneamente una serie di macchie d’inchiostro, di disegni, figure, quadri, frasi incomplete, parole o altro materiale non strutturato, sul quale il soggetto, dandogli un qualche significato, proietta inconsciamente la propria struttura psichica. Questo metodo, il cui impiego è consigliato ad esperti psicologi, ha il suo diretto antecedente in quello delle associazioni di parole dello psicanalista svizzero Jung.
Va detto, per concludere, che in Italia, test questionari e altri reattivi vengono più che altro utilizzati per introdurre il soggetto al colloquio coll’analista, cioè vengono usati in ambito strettamente psicologico, mentre in quello lavorativo-professionale e scolastico il loro uso è del tutto irrilevante.
Scala delle attitudini primarie (Thurstone) [figura A]
Definire l’intelligenza
Gli studi sull’Intelligenza (per quanto hanno di specifico rispetto agli studi sul pensiero e sui processi cognitivi) cercano sia di comprendere, sia di misurare un certo insieme di abilità. Come in altri ambiti di studio delle capacità umane, vi si rintraccia spesso il desiderio di distinguere l’uomo dagli animali non intelligenti (o dalla macchina, sia essa automa o elaboratore elettronico). Ma non è mancato storicamente l’intento di reperire o fondare distinzioni intrinseche tra categorie di esseri umani: così gli studi sull’Intelligenza, mossi inizialmente da esigenze di programmazione didattica, si sono posti anche al servizio dell’eugenetica, o di forme di discriminazione sociale, toccando anche problemi di bioetica.
In generale essa può essere definita come la capacità che caratterizza individui e specie di risolvere problemi nuovi che si presentano nella loro storia evolutiva in funzione di un rapporto ottimale con l’ambiente, cioè in funzione di adattamento. Le tre caratteristiche essenziali sono quelle di azione, di novità e di adattamento. In questi termini il concetto di Intelligenza può essere applicato anche al mondo animale; ma in termini individuali viene riferito soprattutto all’essere umano, anche perché è stato il problema delle differenze individuali a sollecitare l’interesse dei primi studiosi, insieme con la misura dell’intelligenza.
La misura dell’intelligenza e il quoziente intellettivo
Nel 1905 lo psicologo francese A. Binet presenta una scala metrica costruita al fine di verificare «di quanto un bambino può essere ritardato rispetto ad un bambino normale della stessa età», che comprende una serie di prove di difficoltà crescente: colui che ne risolve un minor numero e che si ferma a quelle più facili è ovviamente considerato meno intelligente. Pochi anni dopo (1908) la scala viene modificata sotto il nome Binet-Simon: le prove sono raggruppate per classi di età, cosicchè diviene possibile verificare l’adeguamento dell’età mentale all’età cronologica, con il ritardo possibile, ed anche con il possibile avanzamento. La scala, variamente perfezionata e modificata negli anni (dallo stesso Binet e poi, tra gli altri, dall’americano Terman), conobbe una larghissima diffusione e divenne il prototipo di ogni valutazione in senso globale del livello intellettivo. La scala oggi più utilizzata è la Terman-Merrill, nelle sue varie versioni anche per i paesi europei. Tuttavia l’età mentale è un dato importante, ma può anche ingannare: si generalizzò così l’uso del quoziente intellettivo (QI) proposto da Stern, espresso dal rapporto:
ove le età mentale e cronologica sono espresse in mesi. Le moderne versioni della scala danno anche le piccole necessarie correzioni ai QI comportate da una più fine valutazione degli scarti medi statistici.
Il QI si può ricavare anche attraverso un altro tipo di scala, oggi largamente utilizzata, costruita dall’americano Wechsler negli anni quaranta, anch’essa variamente rivista, tradotta e adattata, nota come scala Wechsler-Bellevue nelle forme per adulti, e come W.I.S.C. nelle forme per bambini e adolescenti. È possibile derivare un QI anche da altre prove: tra le più usate quelle che consistono nell’esecuzione di disegni che vengono successivamente analizzati in base a standard precisi: il disegno di un uomo, metodo messo a punto da una delle studiose più interessanti in questo settore, F. Goodenough, è una delle prove maggiormente utilizzate. Ma l’Intelligenza, come già aveva chiaro Binet nonostante le sue scelte di carattere pratico, dovrebbe essere intesa soprattutto come una potenzialità di base che entra in azione nell’ambito delle molteplici esigenze della vita: da questo punto di vista il limite di queste prove è duplice. Da un lato, quello che ogni prova misura una capacità di esecuzione in un certo momento; dall’altro lato è difficile dire quanto la capacità misurata sia espressione di una reale potenzialità di base e quanto sia invece anche espressione di precedenti acquisizioni legate alla storia biologica, psicologica e sociale del soggetto.
Nel corso di decennali ricerche e discussioni si è cercato di ovviare ad una parte di questo problema con l’inserimento in ogni scala o strumento di valutazione globale dell’Intelligenza di prove libere da influenze culturali in senso lato (culture-free), tali da poter valutare aspetti più propriamente «originali», «autonomi» del ragionamento astratto e concreto, delle abilità percettivo-motorie, ecc. Ma se si tiene conto delle generalizzazioni e dei «trasferimenti» di apprendimento, nonché del fatto che sin dai primi tempi di vita l’essere umano non esiste nel vuoto ma in un contesto di eventi, di oggetti, di persone che inevitabilmente agiscono sull’esperienza, il problema resta e giustifica tutte le riserve avanzate sul piano teorico e le cautele necessarie sul piano pratico. Uno dei punti su cui particolarmente si è appuntata la discussione è quello relativo alla problematica relazione tra fattori genetici e fattori ambientali nella determinazione dell’intelligenza.
È inoltre indispensabile non confondere lo sviluppo intellettivo con il livello intellettivo in sé, specie quando, ovviamente, si tratti di bambini o adolescenti: ritardi o avanzamenti intellettivi rispetto all’età cronologica sono sempre possibili (specie tra i 3 ed i 12 anni) e possono essere espressione non solo di corrispondenti potenzialità mentali di base, ma di vari problemi legati alla vita affettiva e socio-biologica dell’individuo.
Struttura dell’intelligenza e delle capacità mentali
Sin dal primo decennio del sec. XX si diffusero metodi collettivi di misura dell’Intelligenza favoriti dai rapidi progressi della statistica psicologica e della teoria dei test. Ma l’aspetto più interessante è quello relativo agli studi strutturali sull’intelligenza. Sin dall’inizio dell’utilizzazione dei test collettivi di Intelligenza ci si accorse che molti di essi, pur misurando aspetti visibilmente diversi delle capacità umane, presentavano risultati tra loro correlati, talvolta anche in modo molto notevole. Tutto ciò spinse ad uno studio analitico dei fattori mentali che possono entrare in gioco nelle diverse prove, ossia, in altri termini, dei possibili fattori di base dell’Intelligenza che ne costituirebbero, in certo modo, la struttura.
Questi studi si avvantaggiarono grandemente di un metodo statistico-matematico di analisi delle matrici di correlazione, denominato analisi fattoriale, che consiste essenzialmente in una serie di tecniche atte a ridurre una matrice di valori (in questo caso le correlazioni tra i risultati di vari test) ad un insieme più piccolo di valori fattoriali che spiegano, per così dire, la matrice più grande. Le prime analisi sull’Intelligenza condotte con questa metodica furono quelle dell’inglese Spearman, che nel 1927 propose la sua teoria bifattoriale: alla base di ogni forma di capacità umana vi sono due fattori: uno generale (g) che presiede a tutta l’attività intellettiva e che rappresenta l’ «Intelligenza generale», ed un fattore specifico per quella data abilità.
Questa teoria venne poi in parte modificata riconoscendo come vari fattori specifici potessero essere raggruppati in fattori di gruppo: ma il nocciolo della tesi (ossia quello di un fattore g inteso come potenzialità generale della mente) restò intatto e si trovò ben presto in polemica con la teoria multifattoriale, o delle abilità mentali primarie (PMA), elaborata dall’americano L. L. Thurstone (1938). Secondo Thurstone, che utilizzò metodi differenti di analisi fattoriale, nella struttura di base dell’Intelligenza non è rintracciabile un fattore generale, ma un certo numero di fattori di gruppo, che funzionano come abilità primarie sottostanti alla molteplicità delle capacità diverse misurate dai test, cioè predominanti di volta in volta.
Un modello strutturale differente dell’Intelligenza è stato messo a punto da un altro insigne fattorialista, l’americano Guilford (1967). Egli parte da un’analisi logica dell’atto intellettivo nel quale distingue tre aspetti di fondo: le operazioni, i prodotti cui esse danno luogo, i contenuti su cui le operazioni si dirigono. Una lunga discussione ha dominato questo campo tra coloro che vedono nei fattori l’espressione di una reale organizzazione della mente e coloro che vi vedono soprattutto l’espressione nominalistica di un metodo. L’idea di una componente essenziale dell’Intelligenza di tipo g sembra oggi largamente riconosciuta, così come appare con evidenza la presenza di particolari abilità di ordine sia verbale, sia spaziale, ecc.
Questo non significa tuttavia che i tipi di organizzazione dei fattori proposti dall’analisi fattoriale siano espressione di una reale organizzazione della mente in tali direzioni: l’Intelligenza in realtà non è monoblocco ma neppure un mosaico di capacità e noi non possiamo sperare di coglierne traccia se non attraverso i tipi di strategie che essa mette in atto in relazione a situazioni particolari. Notoriamente strategie diverse possono mostrarsi ugualmente utili nella soluzione di problemi simili, così come problemi differenti si possono avvalere di uguali strategie. Inoltre è un poco difficile pensare ad un’analisi dell’Intelligenza che prescinda dalla costante interazione tra organismo ed ambiente.
Sviluppo dell’intelligenza
Tale interazione è costantemente presupposta dall’analisi di J. Piaget, che resta uno dei documenti più significativi mai prodotti dalla psicologia sullo sviluppo intellettuale. L’Intelligenza è, per Piaget, parte essenziale della relazione di adattamento tra organismo ed ambiente: quando egli afferma che «l’Intelligenza è adattamento» vuol dire che «l’Intelligenza è essenzialmente un’organizzazione e che la sua funzione è quella di strutturare l’universo come l’organismo struttura l’ambiente immediato». Siamo dunque in presenza di una concezione dell’Intelligenza che pone la relazione organismo-ambiente in termini attivi. Tale relazione è regolata, a livello intellettivo, dai due processi di assimilazione e di accomodamento: il primo consiste nell’assunzione nella struttura mentale dei dati dell’ambiente derivanti dall’esperienza senza che la struttura stessa si modifichi, il secondo comporta invece una modificazione della struttura mentale in funzione delle modifiche dell’ambiente, delle novità che da questo derivano.
Il concetto di schema che Piaget utilizza e che passerà largamente nella psicologia di oggi (Processi cognitivi; Cognitivismo) rimanda quindi ad un’opera continua di strutturazione mentale, più precisamente ad un’organizzazione che guida il nostro rapporto con la realtà e che è dalla realtà modificata: «il pensiero si organizza adattandosi alle cose ed, organizzandosi, struttura le cose».
Nello sviluppo dell’Intelligenza vengono individuate quattro tappe principali: lo stadio dell’Intelligenza senso-motoria (fino a 2 anni di età), lo stadio dell’Intelligenza simbolica o pre-operatoria (dai 2 ai 7-8 anni), lo stadio dell’Intelligenza operatoria concreta (da 7-8 a 11-12 anni) ed infine lo stadio dell’Intelligenza formale che inizia sugli 11-12 anni e si stabilizza ai 14-15 anni. La minuziosa analisi di questi stadi e delle operazioni mentali connesse costituisce uno dei patrimoni dell’attuale psicologia evolutiva, soprattutto sotto il profilo di un soggetto che costruisce se stesso ed il mondo nell’ambito della costante interazione con l’oggetto.
Fattori dello sviluppo intellettivo
Tra i fattori che agevolano lo sviluppo intellettivo è ben nota l’importanza che assume l’ambiente in cui il bambino vive: quanto più l’ambiente socio-culturale è ricco, differenziato, suscettibile di offrire capacità di manipolazione di oggetti e di partecipazione a situazioni, nonché possibilità di esplorazione e di spinta alla curiosità, tanto più lo sviluppo intellettivo può essere favorito. Tenuto conto del ruolo dell’imitazione anche i modelli di cui il bambino può disporre (persone, animali, eventi, ecc.) diventano importanti a livello del loro contenuto. Il linguaggio svolge un ruolo notevolissimo come mezzo atto a favorire lo sviluppo cognitivo, anche come essenziale strumento di costruzione simbolica.
Anche la comunicazione sociale riveste un ruolo soprattutto se riguardata come espressione di intensità e di vivacità di relazioni sociali, come mezzo che progressivamente contribuisce all’uscita dell’egocentrismo che caratterizza vari aspetti del pensiero infantile. In tale contesto il gioco simbolico, specie tra i 2 e gli 8-9 anni, trova particolare peso socio-cognitivo quando avvenga nell’ambito del gruppo dei pari, in cui più compiutamente si realizza il gioco organizzato: la sua importanza ai fini della formazione dell’identità non è più in discussione dopo l’opera di G. H. Mead (Mind, Self and Society, Mente, sé e società, 1934).
Questo richiamo all’identità consente di allargare il discorso a tutti quei fattori anche di natura socio-affettiva ed emozionale che spesso hanno una grande importanza ai fini dello sviluppo dell’Intelligenza; se ogni forma di deprivazione sensoriale, cognitiva, sociale gioca un ruolo negativo sullo sviluppo mentale (Deprivazione sensoriale), occorre sottolineare pure il peso di ogni forma di deprivazione affettiva. Questa agisce non solo sulla formazione della personalità in generale, ma anche sull’evoluzione dell’Intelligenza, sulla sua maturazione, sulla capacità di agire.
Eredità e ambiente: Natura ed educazione
Il richiamo ai fattori positivi e negativi che influiscono sullo sviluppo intellettivo ci riporta ad un problema che ha destato molte discussioni: quello dei determinanti di base dell’intelligenza. È essa, anche e soprattutto nei suoi aspetti quantitativi, legata a fattori di origine genetica oppure a fattori di origine ambientale? Gli argomenti portati a sostegno delle loro tesi dai «genetisti» (si veda per tutti Jensen 1969, 1972) sono vari: la costanza del QI attraverso l’età, la costanza in genere di misure accentrate attorno al fattore g, le somiglianze di QI (da adulti) mostrate da gemelli monozigoti allevati in famiglie diverse, i QI più alti dei ragazzi provenienti dalle classi alte e medie, ed in genere anche i QI più alti dei bambini bianchi rispetto a quelli neri.
Una certa coloritura ideologica è presente in queste posizioni: due psicologi sociali francesi l’hanno riassunta sotto il titolo di Uomini superiori – Uomini inferiori (G. Lemaine-B. Matalon, 1985). In realtà i dati utilizzati a sostegno della posizione genetista non sono affatto sicuri. La costanza dei QI non è tale in età prescolare e quindi si può presumere che la scuola abbia un influsso notevole sullo sviluppo dell’intelligenza. I dati ricavati dallo studio dei gemelli monozigoti separati sono stati interamente messi in crisi da un approfondito studio degli anni ’80 (Taylor 1980) sia sul piano metodologico, sia su quello più propriamente contenutistico (famiglie ed ambienti sono diversi ma assai simili per situazione sociale, educativa, economica, ecc.). I significati dei dati relativi alle classi sociali possono essere poi del tutto rovesciati: intesi cioè come una testimonianza che le condizioni socio-economico-culturali possono incidere grandemente sullo sviluppo intellettivo.
Quasi nessuno oggi si colloca su una posizione genetista estrema (specie sugli aspetti concernenti razze e classi sociali). Ma la questione va posta in modo diverso: in primo luogo ridimensionando ogni pretesa di misura globale dell’Intelligenza, poi riconoscendo come ogni forma di valutazione rifletta capacità già culturalmente filtrate (anche nel caso delle prove culture-free), ed infine allargando il concetto di ambiente nel senso che abbiamo già visto. L’interazione di fattori genetici e di fattori ambientali è alla base dello sviluppo dell’Intelligenza: non sappiamo molto sui fattori genetici (le possibili combinazioni dei geni parentali sono almeno un milione) ma sappiamo molto sul ruolo dei fattori ambientali, educativi, sociali, ecc. Dunque una scelta di campo, almeno sul piano pratico-operativo, in favore di ampi interventi educativo-pedagogici è chiaramente fattibile.
Decadimento e patologia dell’intelligenza
Alla base di situazioni patologiche vi possono essere spesso lesioni organiche (traumatiche o tossiche) della corteccia cerebrale del feto o del neonato, oppure cause di natura genetica legate a patologie cromosomiche. Altre volte, nei bambini, possono rilevarsi gravi deficit intellettivi come prodotto di situazioni di ordine emotivo-affettivo o nevrotico, suscettibili di remissione se viene curato l’aspetto emozionale. Più complessa la relazione tra deficit intellettivi e psicosi infantili. In ogni caso, ogni problema di debolezza mentale va inquadrato in una situazione complessiva, e spesso può trovare grande giovamento da contesti affettivi adatti e da specifiche forme di intervento educativo. Disturbi dell’Intelligenza possono riscontrarsi ovviamente anche in età adulta.
Occorre qui ricordare che tra i 25-30 anni, l’Intelligenza tende via via a decadere, anche se, nell’ambito della concreta esperienza, il peso dei fattori socio-educativi è così forte che tale decadimento può del tutto non notarsi: ed anzi la soluzione di molti problemi può farsi con maggior facilità. È stato tuttavia notato che, relativamente alle prove di Intelligenza in senso tradizionale, alcune capacità (memoria immediata, ragionamento aritmetico, manipolazione logica di materiale, ecc.) tendono a decadere più sensibilmente di altre più influenzate dalla cultura (comprensione, vocabolario, ecc.). Su questa base l’americano Wechsler ha proposto un calcolo del deterioramento mentale in base alla sua scala, secondo la formula:

Conoscendo il deterioramento mentale «normale» secondo l’età, è quindi possibile verificare se un certo deterioramento mentale ha un significato patologico, e di quanto.
Intelligenza artificiale
È l’area di ricerca dell’informatica che utilizza gli elaboratori elettronici per studiare o riprodurre attività definibili come prodotto dell’intelligenza. Secondo la classificazione di J. Searle, l’Intelligenza artificiale può essere interpretata in senso forte come creazione di macchine pensanti (Haugeland) o in senso debole come costruzione di strumenti per risolvere compiti che solo gli esseri umani sanno eseguire. In quest’ultimo filone rientra anche la definizione dell’Intelligenza artificiale come lo studio delle facoltà mentali attraverso modelli computazionali, cioè attraverso programmi per calcolatori (Charniak e McDermott). In questo senso, l’Intelligenza artificiale si occupa di risolvere problemi intelligenti con la stessa strategia utilizzata dagli esseri umani ed entra a far parte della scienza cognitiva, in quanto permette la validazione sperimentale delle teorie sulla mente. L’Intelligenza artificiale ha come oggetto sia le attività legate alla parte «alta» del pensiero, come il ragionamento logico – a cui si è dedicata nei primi decenni – sia quelle correlate alla fisicità di un organismo intelligente, ovvero la capacità di percepire il mondo e quella di operare su di esso per cambiarlo.
La prima categoria di attività si può definire utilizzando il test di Turing, progettato da A. M. Turing (1950). Il test consiste nell’interrogazione di computer da parte di un essere umano tramite una tastiera: il calcolatore viene definito «intelligente» quando l’interrogatore non riesce a capire se a rispondergli dall’altra parte del terminale è un uomo o una macchina. Un’ulteriore più ampia classificazione di comportamento intelligente è definibile attraverso il concetto di agente: agire razionalmente significa raggiungere degli obiettivi, date determinate credenze, percependo e agendo all’interno di un determinato ambiente (reale in caso di robot, virtuale in caso di softbot).
Se il tentativo di comprendere le leggi che regolano e permettono di riprodurre la razionalità umana si può far risalire almeno alla logica di Aristotele, l’Intelligenza artificiale nasce dopo l’avvento dell’elaboratore elettronico negli anni ’40. Ne è antesignana la cibernetica di N. Wiener (1947), cioè lo studio dei processi di comunicazione e controllo negli animali e nelle macchine. Agli inizi degli anni ’50 C. Shannon e A. Turing scrissero i primi programmi di scacchi per calcolatori basati su architetture tradizionali del tipo von Neumann (senza aver però la possibilità di provarli). Parallelamente, M. Minsky e D. Edmonds costruirono il primo elaboratore basato su reti neurali, mettendo in pratica le idee di McCulloch e Pitts del 1946. Nel ’52 A.
Samuel propose un programma per giocare a dama capace di apprendere per migliorare le prestazioni raggiungendo un buon livello di gioco. Ma il termine Intelligenza artificiale comparve per la prima volta nel ’56 durante un incontro organizzato da J. McCarthy al Dartmouth College sullo studio della teoria degli automi, le reti neurali e l’intelligenza. Nello stesso incontro fu presentato il primo programma di ragionamento, Logic Theorist, realizzato da A. Newell e H. Simon. A loro si deve anche il General Problem Solver, il primo programma per la risoluzione dei problemi che non si limitava a raggiungere un risultato corretto ma tentava di imitare le strategie di ragionamento degli esseri umani. Nel ’58 J. McCarthy, trasferitosi al MIT, inventò uno dei linguaggi di programmazione più diffusi in Intelligenza, il LISP. Con gli anni ’60 comincia un processo di ripensamento sui risultati raggiunti dall’Intelligenza artificiale.
I ricercatori si accorsero, infatti, che i programmi, se pure in linea di principio erano corretti, funzionavano solo fintanto che operavano su pochi oggetti (microcosmi), ma sarebbero falliti su casi reali per via del problema della complessità. Il problema fu risolto nei decenni successivi introducendo nei programmi conoscenza specifica ad un certo dominio di applicazione, anziché muovere da principi generali. Questa soluzione portò l’attenzione sui formalismi di rappresentazione della conoscenza, quali le reti semantiche, i frame di M. Minsky e il linguaggio Prolog. Nascono così i cosiddetti sistemi esperti che permettevano di risolvere compiti complessi in uno specifico dominio di applicazione.
Il sistema Dendral (di E. Feigenbaum, B. Buchanan e J. Lederberg, 1969) si occupava di ricostruire la struttura molecolare di un composto chimico; Mycin (E. Shortliffe), formulava diagnosi mediche anche a partire da informazioni incerte. Negli anni ’80, arrivano i primi sistemi esperti commerciali: R1 della Digital per la configurazione dei calcolatori fece risparmiare all’azienda milioni di dollari all’anno. In pochi anni, gli entusiasmi per questi risultati si freddarono di fronte alla difficoltà di sviluppare sistemi per nuovi domini di applicazioni, e cominciò il cosiddetto «inverno dell’Intelligenza». Con la nascita di Internet e la necessità di accedere a grandi quantità di informazioni, l’Intelligenza artificiale ha trovato nuove aree di sviluppo. Attualmente, i principali ambiti di ricerca sono:

  1. Ragionamento

Rappresentare la conoscenza in maniera esplicita e manipolarla per trarre nuove informazioni è stato uno degli obiettivi tradizionali dell’Intelligenza artificiale. Rispetto all’approccio tradizionale basato sul calcolo logico, la ricerca ha sviluppato nuovi formalismi: il calcolo della risoluzione, che ha portato alla creazione del Prolog; la logica fuzzy, che permette di trattare concetti anche vaghi (per esempio, è utilizzata nelle unità di controllo degli elettrodomestici); e, infine, le reti bayesiane, che permettono di rappresentare e ragionare su credenze con un certo grado di incertezza, come per esempio nel caso della diagnosi. Gli agenti intelligenti hanno recentemente trovato applicazione nelle sonde spaziali automatizzate, grazie alle loro proprietà fondamentali: la capacità di portare a termine degli obiettivi (raccolta di informazioni scientifiche, navigazione) decidendo autonomamente come raggiungerli in un ambiente sconosciuto e in rapido cambiamento. Un altro nuovo dominio di applicazione è l’Internet, dove i cosiddetti knowbots o webots gestiscono servizi quali la raccolta di informazioni o la compravendita di beni nei mercati virtuali.

  1. Linguaggio naturale

L’Intelligenza artificiale ha cominciato occupandosi di comprendere il linguaggio naturale come input di un sistema di ragionamento (Student di Bobrow, Shrdlu di Winograd) oppure per la traduzione di documenti. Oggigiorno l’interesse è rivolto alla costruzione di sistemi di dialogo, per interagire con la macchina tramite comandi vocali ed accedere ad informazioni; alla realizzazione di metodi robusti per l’analisi del linguaggio per accedere alla mole di dati non strutturati – ossia non catalogati né pensati per essere trattati da una macchina – presenti sul Web ed estrarre le informazioni desiderate; infine per sviluppare modelli computazionali cognitivamente plausibili.

  1. Apprendimento automatico

Le tecniche di apprendimento automatico (machine learning) alberi di decisione, programmazione logica induttiva, reti neurali o algoritmi genetici permettono ad un programma di imparare nuovi comportamenti, a differenza di un programma tradizionale, che basa il proprio comportamento sulle informazioni inserite dal programmatore. Un programma di apprendimento automatico parte da un insieme di esempi e costruisce generalizzazioni per gestire casi non ancora incontrati. L’apprendimento automatico sta trovando importanti applicazioni per esempio in ambito biochimico, dove vengono usate per il trattamento di grandi quantità di dati.

L’apprendimento

L’apprendimento si verifica quando una variazione significativa delle condizioni ambientali (Stimolo) determina una modificazione reale (che permane nel tempo) del comportamento (Risposta). Questa modificazione può comportare il miglior adattamento possibile all’ambiente, ma può anche comportare l’acquisizione di un apprendimento non-funzionale (ad es. un alunno che impara bene una regola grammaticale sbagliata).
Perché l’apprendimento si verifichi occorre una stimolazione dell’ambiente che sia diversa da quella solita o precedente. Perché lo stimolo possa essere appreso è necessario che sia connesso, in qualche modo, alla soddisfazione di una motivazione presente nell’organismo che apprende (“in qualche modo”, perché lo stimolo, di fatto, può agire su un organismo anche al di fuori della consapevolezza di chi lo riceve o della volontà di chi lo produce, come ad es. nel sonno, nel coma, ecc.).
Se le variazioni dell’ambiente non sono significative, si verifica il fenomeno dell’assuefazione: nel senso cioè che lo stimolo viene percepito come se non fosse uno stimolo, ma, al massimo, come un elemento di disturbo cui non va prestata particolare attenzione (ad es. l’insegnante che in classe spiega cose nuove, ma che normalmente viene percepito dai ragazzi come una persona noiosa). Il fenomeno contrario è quello della sensibilizzazione: ad es. se un bambino ha toccato un cavo elettrico ricevendone la scossa e subendo uno choc emotivo, può avere una reazione fobica o di panico alla semplice vista di un altro cavo, dopo quella esperienza.
La scienza che per prima ha studiato l’associazione di uno Stimolo (offerto dall’ambiente) ad una Risposta (data dall’organismo) è la riflessologia di I. Pavlov. Essa ha stabilito che c’è vero apprendimento solo quando si acquisiscono nuove relazioni tra Stimolo e Risposta.
L’inizio dell’apprendimento si verifica già nel periodo pre-natale (ad es. mettendo un altoparlante vicino al ventre materno, i suoni trasmessi provocano un’accelerazione del battito cardiaco del feto). Sin dalla nascita l’organismo possiede, geneticamente, un determinato programma comportamentale (ad es. la pupilla si restringe ad una luce intensa = riflesso incondizionato). Il vero apprendimento non è altro che il tentativo di arricchire o modificare tale programma sulla base dell’esperienza (ad es. un neonato al quale si dà un biberon di acqua zuccherata insieme ad una carezza, reagirà in seguito alla carezza ruotando il capo alla ricerca del biberon = riflesso condizionato). Il condizionamento che implica una modificazione a carico dello Stimolo, viene detto classico; quello relativo alla Risposta viene detto strumentale.
Condizionamento classico
Le ricerche di Pavlov (proseguite da Watson negli Usa) partirono dalla constatazione che i cani emettono saliva non solo mentre s’introduce del cibo nella loro bocca, ma anche alla semplice vista del cibo o dello sperimentatore che solitamente li nutre. Pavlov intuì che questa reazione non era un riflesso biologico innato, ma appreso.
Egli decise di sottoporre i suoi cani al seguente esperimento: dapprima li stimolò col suono d’un campanello, senza che ciò provocasse salivazione (stimolo neutro); poi introdusse del cibo nella loro bocca, e ciò comportò salivazione (riflesso incondizionato); ripeté più volte i due stimoli in successione (suono e cibo); alla fine notò che i suoi cani cominciavano a salivare al solo suono del campanello (era il riflesso condizionato).
Pavlov capì anche che se si continua a far suonare il campanello senza portare la carne, la salivazione tende a scomparire (è il fenomeno di estinzione); se l’esperimento viene interrotto e ripreso successivamente, il campanello può produrre di nuovo la salivazione (è il fenomeno di recupero spontaneo della risposta precedente); se si usa un suono più o meno intenso rispetto a quello originario, la salivazione si verifica lo stesso (è il fenomeno di generalizzazione); se invece si dà la carne solo col suono più forte e non con quello più debole, al sentire quest’ultimo suono il cane non produrrà salivazione (è il fenomeno di discriminazione).
Le componenti del condizionamento classico
Quali sono le condizioni o i limiti entro cui può realizzarsi un condizionamento efficace?
1) Relativamente allo Stimolo: dev’essere percepibile e d’intensità non troppo elevata per il soggetto che lo percepisce: in caso contrario la risposta sarà di fastidio-disturbo-paura (a meno che non si voglia ottenere proprio questo condizionamento!).
2) Relativamente alla Risposta: non vi sono limiti assoluti, in quanto ogni risposta è possibile, purché sia scelta tra le possibilità di comportamento del soggetto.
3) Relativamente al soggetto sperimentale: occorre una motivazione, altrimenti il condizionamento non riesce (ad es. per condizionare un cane con del cibo occorre che sia affamato).
4) Relativamente alla metodologia: per eseguire un esperimento occorre che tra una prova e l’altra vi sia un intervallo ottimale, in quanto il susseguirsi ininterrotto di prove rallenta l’apprendimento.
5) Relativamente all’aspetto filo-genetico: nella misura in cui si sale la scala zoologica, le possibilità di condizionamento diventano più ampie e complesse.
Condizionamento strumentale
Questa forma di apprendimento (elaborata per la prima volta dall’americano Thorndike) è basata sulla Ricompensa o sulla Punizione. Viene chiamata strumentale in quanto il comportamento attivato è funzionale ad ottenere certe conseguenze (Ricompensa in caso di successo), o per evitarne altre (Punizione in caso di fallimento). Thorndike mise un gatto affamato in una gabbia, al di fuori della quale aveva posto del cibo molto appetitoso. Il gatto, per poter uscire, doveva rimuovere la chiusura dello sportello. A tale scopo adottò una serie di comportamenti: in un primo momento eseguiva i più svariati tentativi (mordeva, graffiava, spingeva…), in seguito cominciò ad eliminare gradualmente gli errori, finché poté uscire. Il gatto aveva appreso per “prove ed errori”.
Venne così formulata la legge dell’effetto, secondo cui, posto che un animale in una situazione nuova effettui un certo numero di risposte diverse tra loro, le risposte che risultano efficaci vengono selezionate e conservate (acquisite), mentre le altre vengono cancellate. L’efficacia determina l’acquisizione dell’azione. La pedagogia americana, in seguito, si servì di questo principio psicologico in ambito scolastico, prestando più attenzione a premiare le risposte giuste degli allievi che non a punire quelle sbagliate. Infine si sottolineò che, nel gatto di Thorndike, ciò che veniva “premiato” non era una singola risposta stereotipata, ma il fatto di voler raggiungere uno scopo, liberandosi da un ostacolo, a prescindere dall’esito finale. Sulla scia di Thorndike, altri ricercatori hanno affrontato lo studio dell’apprendimento.
Il box di Skinner
Il box è una gabbia dotata di una leva (o pulsante) da premere (ad es. per un topo) o di un disco da beccare (per un piccione) per ottenere del cibo. Prima d’iniziare l’esperimento, l’animale viene tenuto a dieta ridotta per un certo periodo di tempo, al fine di motivare la sua ricerca di cibo (si parla di “dieta ridotta”, perché se le condizioni di bisogno sono troppo intense si verifica una caduta di rendimento). Il box funziona in modo tale che l’animale ottiene il cibo appena preme la leva. L’azione dell’animale è strumentale al raggiungimento di una mèta gratificante. Il test ha dimostrato che l’azione si verifica ogniqualvolta l’animale viene introdotto nel box. Avendo il cibo funzione di stimolo rinforzante dell’azione operativa dell’animale, il condizionamento viene detto “operante“.
Skinner è stato accusato di ridurre l’organismo a una macchina. In effetti, il suo metodo è senza dubbio efficace, ma limita le possibilità espressive del soggetto sperimentale. Più che osservare il comportamento dell’animale, il ricercatore cerca di modificarlo secondo le sue aspettative. Un’analoga tecnica sperimentale è quella del modellaggio (Shaping), che si serve sempre dello Skinner box. Qui l’animale ha diverse possibilità di agire. Lo sperimentatore non fa altro che premiare una fascia sempre più ristretta di risposte (dando del cibo), fino a premiare l’unica che gli interessa. È un esperimento che assomiglia al gioco infantile della ricerca di un oggetto nascosto (fuoco-fuochino-acqua-acquazzone ecc.). Queste tecniche, come noto, vengono usate dai domatori o ammaestratori degli animali da circo.
Skinner verificò anche altri effetti.
1) Se all’animale che, nel box, preme la leva, non si fa avere del cibo, col passare del tempo l’animale tenderà a non premere più la leva.
2) Se gli si dà il cibo a intervalli regolari (una volta sì, una volta no), il condizionamento c’è lo stesso ma sarà più lento e la leva verrà premuta con minore frequenza.
3) Se ad ogni pressione della leva si decide di aumentare il cibo, l’animale aumenterà la frequenza della pressione.
4) Se ad ogni pressione occorre aspettare almeno due minuti per avere il cibo, l’animale, col tempo, acquisisce il senso dell’intervallo.
5) Se l’intervallo è irregolare (1m.-2m.-½m. ecc.), l’apprendimento richiede un tempo maggiore, ma una volta realizzato tende a permanere.
Skinner insomma arrivò a capire:
1) Sottraendo il rinforzo (cibo) inizia l’estinzione della risposta appresa.
2) Tanto più un comportamento è stato bene appreso, tanto maggiore è la resistenza alla sua estinzione.
3) L’introduzione, durante il condizionamento, di prove non rinforzate (con cibo), rende meno facile e meno rapida l’estinzione del comportamento appreso.
4) Si può avere un condizionamento molto intenso anche in situazioni che consentono un rinforzo molto diradato nel tempo (si pensi ad es. alle slot-machines, programmate a intervalli variabili e molto diradati, ma anche al comportamento dei giocatori d’azzardo).
5) Una situazione di apprendimento che sia, entro certi limiti, variabile nelle sue caratteristiche (frequenza, intensità, ritmo del rinforzo…), è molto più efficace che non una del tutto costante. Ciò in quanto essa tende a riprodurre le situazioni della vita reale.
6) Il mancato rinforzo (o punizione) facilita l’estinzione del comportamento acquisito (diversamente da come la pensava Thorndike). Infatti, se lo scopo del ricercatore è quello dell’estinzione, è più facile raggiungere il risultato anhttp:\\/\\/psicolab.netando il rinforzo che, ad es., usando la scossa elettrica. Un’eccessiva punizione può rafforzare la risposta che si vorrebbe estinguere, nel senso che l’animale può diventare meno disponibile ad accettare un diverso apprendimento.
I labirinti di Small e di Tolman
Willard Small nel 1901 ideò diversi prototipi di labirinti (a più corridoi, a T, a Y, ramificato), composti da un box di partenza e uno di arrivo col cibo: in mezzo un intreccio di corridoi più o meno complicato, nel rispetto di determinate regole. Ogni punto d’intersezione non possedeva alcun particolare indizio caratteristico che consentisse di distinguerlo dagli altri. Infine il labirinto poteva essere modificato nel corso dello stesso esperimento (allungandone o accorciandone la lunghezza, variandone l’angolatura, ecc.).
Small usò dei ratti affamati. Lo scopo delle sue ricerche era quello di stabilire quale modalità sensoriale era determinante per il ratto nella scelta del corridoio da percorrere. I dati raccolti dimostrarono che nessuna modalità (visiva, uditiva, olfattiva ecc.), singolarmente considerata, era determinante. In pratica, col metodo di “prove ed errori” il ratto riusciva sempre ad arrivare al cibo, anche se apprendeva più facilmente i percorsi esatti in prossimità del box di partenza o di arrivo (che rappresentavano uno stimolo di ancoraggio), mentre trovava più difficoltà nei percorsi intermedi.
Edward Tolman giustificò questo comportamento dicendo che l’animale elabora, mentre percorre il labirinto, una specie di rappresentazione mentale (o mappa cognitiva) dello stesso labirinto. Se il ratto, dopo alcuni esperimenti, possiede questa mappa, saprà sempre, più o meno, dove si trova in un certo momento e saprà sempre dove deve andare. Esso cioè dispone di un insieme di informazioni che, di volta in volta, utilizza come guida per l’azione.
Apprendimento latente
Accanto all’apprendimento per condizionamento classico e strumentale, vi è quello che si verifica senza intenzionalità, per semplice osservazione. Ad es. se mettiamo dei gatti in una gabbia, accanto ad altri sottoposti a compiti di apprendimento, i primi risolveranno più rapidamente lo stesso compito di apprendimento quando più tardi vi saranno sottoposti. Non solo, ma i più avvantaggiati saranno quelli che avranno assistito al corso di addestramento dall’inizio alla fine. Questo tipo di apprendimento, nel bambino, favorisce la socializzazione, l’assunzione di abitudini, pregiudizi e opinioni altrui.
Apprendimento complesso
Esistono dunque varie forme di apprendimento. Una sola è esclusivamente umana: l’acquisizione volontaria delle abitudini, che necessita un certo grado evolutivo di intelligenza e di volontà. Una volta raggiunta una relativa stabilità, le abitudini volontarie cadono nell’inconscio e diventano automatiche, benché restino sempre soggette a modificazione.
L’apprendimento è strettamente collegato e dipendente dall’ambiente in cui viviamo. Ogni individuo segue delle strategie diverse di apprendimento, ma molte altre sono comuni a tutti gli individui. L’apprendimento quotidiano è molto più complesso di quello artificiale che si verifica in situazioni sperimentali. La forma più complessa di apprendimento è quella che si realizza nel linguaggio.

L’attenzione

Interesse e tensione mentale

  • L’attenzione esprime il grado di tensione mentale di un individuo. Siccome questa tensione è limitata, l’individuo non può orientarsi verso tutte le stimolazioni interne ed esterne, per cui egli opera necessariamente delle scelte sulla base di interessi o piaceri.
  • L’attenzione rivolta in una sola direzione può portare a migliorare l’azione ed implica anche l’inibizione di ogni altra attività divergente (che distrae). L’attenzione seleziona e specializza, anche se l’eccessiva specializzazione può inibire l’insieme della vita psichica (ad es. i casi di deformazione professionale, oppure il caso in cui 2-3 persone che compiono un medesimo viaggio turistico, descrivono al ritorno quello che hanno visto in maniera molto diversa, solo perché la loro attenzione è stata colpita da cose diverse).

Campo di coscienza e di attenzione

  • Mentre l’attenzione si concentra, la coscienza continua ad essere sollecitata da stimoli esterni (sensoriali), come ad es. i rumori, che se sono troppo intensi possono impedire l’attenzione.

La concentrazione

  • Mediante la concentrazione, le percezioni aumentano in intensità, le immagini acquistano maggiore chiarezza, le reazioni si fanno più rapide ed esatte (a volte addirittura sono anticipate, come ad es. nella gara dei 100 m., quando si parte prima del via).
  • Una concentrazione eccessiva (prolungata nel tempo, specie quella sottratta alle ore di sonno) può provocare lesioni al cervello e portare a effetti opposti. In ogni caso un’attenzione continuamente tesa è impossibile nell’uomo: in alcuni soggetti è massima durante il mattino, in altri durante la notte (nella quiete assoluta). Il tic-tac di un orologio, posto vicino all’udito, viene percepito ora più forte ora più debole, proprio perché la tensione mentale varia.
  • Come tipologia, l’attenzione può essere concentrata su un solo argomento, o distribuita su più argomenti. E può essere di vari caratteri: rapida/lenta, persistente/labile, profonda/superficiale, prolungata/breve, ecc.

Concentrazione attiva e passiva

  • Quella attiva o volontaria è determinata dagli interessi (scientifici, culturali, morali, estetici, ecc.), che determinano la scelta delle immagini e l’attuazione del processo attentivo. Questa attenzione implica un maggior consumo di energia e anticipa l’insorgere della stanchezza.
  • Quella passiva o involontaria è dettata da impulsi che si riallacciano direttamente agli istinti di conservazione, riproduzione, socializzazione, ecc., nel senso che non siamo noi a scegliere gli oggetti, ma sono gli oggetti che s’impongono di forza alla nostra attenzione (ad es. il fantasticare prima del sonno, il leader di un gruppo al quale apparteniamo ecc.). Questa attenzione è poco dispendiosa, può anche prolungarsi nel tempo senza dare l’impressione della fatica.
  • L’attenzione volontaria è posteriore a quella spontanea, dal punto di vista genetico, ma rappresenta una tappa superiore di evoluzione. L’attenzione attiva quando è molto intensa e prolungata può determinare un interesse biologico, che a sua volta è fonte dell’attenzione passiva (ad es. un accanito lettore di libri può essere indotto a leggere cose che non gli servono a niente se non compie uno sforzo di volontà orientando la propria attenzione altrove).

Unità dell’oggetto di attenzione

  • Non è possibile dedicare un’attenzione uguale, nello stesso momento, a due oggetti diversi. Chi crede ad es. di poter leggere e mangiare contemporaneamente s’illude. Un giocatore di scacchi può seguire più di una partita, ma la simultaneità assoluta è impossibile. È solo la rapidità del processo attentivo che fa cadere in questa illusione.
  • L’unità dell’oggetto di attenzione è data anche dal fatto che l’attenzione può sintetizzare i molti contenuti di un determinato oggetto, in modo da formare un tutto unico (ad es. in un incrocio col semaforo l’autista decide di passare non solo perché il verde lo autorizza ma anche perché ha la percezione globale di poterlo fare con sicurezza).

Condizioni dell’attenzione
Quali sono i fattori psico-fisici che regolano e facilitano l’attenzione?

  1. stato di freschezza/riposo, che permette una maggiore disponibilità di energia (ad es. nell’ultima ora di lezione il rendimento di uno studente è più scarso);
  2. isolamento dell’oggetto dagli stimoli perturbatori dell’ambiente (ad es. studiare con la radio accesa non favorisce la concentrazione);
  3. cambiamento dello stimolo, per impedire l’assuefazione e preservare l’interesse (ad es. esaminando un oggetto/fenomeno/problema sotto varie angolazioni);
  4. intensità dello stimolo, che può indurre, dall’esterno, un soggetto a interessarsi di un dato argomento, anche se, senza partecipazione attiva del soggetto, nessuno stimolo ha effetti duraturi;
  5. novità dell’oggetto: cosa che desta sempre più facilmente l’attenzione, soddisfacendo la curiosità naturale del soggetto. Ma se la novità non viene fatta propria a livello di interesse personale, essa produrrà solo un’attenzione temporanea;
  6. interesse, fondato su un’esigenza sentita, senza la quale tutti gli artifici escogitati per captare la curiosità del soggetto, sono destinati a fallire.

Concomitanti fisiologici dell’attenzione

  • Il processo attentivo è accompagnato da fenomeni di concordanza in tutto l’organismo (ad es. dovendo svolgere un compito difficile, si rinuncia ad ogni movimento per risparmiare energia e per eliminare elementi disturbatori, si contraggono i muscoli nella zona mimica oculare, specie il sopracciliare e il frontale, la circolazione del sangue accelera nel cervello, cresce la pressione sanguigna, il ritmo respiratorio e cardiaco si altera, si modifica la secrezione salivare: si è insomma in tensione). Ciò significa che la risoluzione del compito comporta uno stress psico-fisico.
  • Altri espedienti fisici che aiutano la concentrazione, tenendo lontano gli stimoli perturbatori, variano a seconda degli individui (ad es. leggere ad alta voce, seguire il testo col dito, appoggiare la testa alla mano, chiudere le orecchie, ecc.).
  • A volte la fissità/immobilità può comportare delle scariche di energia superflua, che possono anche turbare la concentrazione (ad es. tamburellare il tavolo con le dita, ritmare il piede sul pavimento, rosicchiare la penna…).

Educazione all’attenzione

  • L’attenzione del bambino, assai mobile e facilmente stancabile, si disperde con estrema facilità se l’educatore non riesce a rendere interessante l’argomento in modo da agganciarlo alle profonde esigenze interiori. La paura o la minaccia di un brutto voto non fanno studiare di più dell’interesse. Uno studente è più portato a studiare una materia che normalmente non gli interessa se l’insegnante è in grado di stimolarlo positivamente; viceversa, può sentirsi indotto a trascurare una materia che fino a quel momento gli piaceva solo perché l’insegnante non ha saputo stimolarlo positivamente.
  • Ovviamente, non tutte le forme di attenzione sono uguali: l’instabile deve essere sottoposto a periodi di regolarità, l’eccitato a periodi di moderazione, il lento a periodi di accelerazione… Inoltre, per facilitare la concentrazione, la fatica va distribuita nel tempo, alternando il lavoro al riposo. In sintesi: educare l’attenzione significa far leva sul sistema degli interessi ampliando di nuove prospettive il processo di concentrazione.
  • p.s. Di regola la curva d’attenzione di uno studente, nell’arco di 50′ di lezione, raggiunge l’apice dopo i primi 7-8 minuti, poi ha un calo costante fino a raggiungere il minimo verso i 26-27 minuti di lezione, infine risale mantenendosi in maniera abbastanza costante sino alla fine dell’ora, sempre al di sotto comunque dell’apice iniziale.


Conclusioni
Nel 1994, fu pubblicato negli Usa un pamphlet che fece molto scalpore, di Murray-Hernstein, The Bell Curve, col quale, pur a distanza di 140 anni dalle assurde teorie di Gobineau, si riaffermava che il Quoziente d’Intelligenza degli afroamericani è inferiore a quello degli euroamericani (e, ovviamente, che i ricchi sono più intelligente dei poveri).
Il caso volle che proprio mentre usciva il libercolo, tutti i sondaggi candidavano il generale nero Colin Powell come aspirante alla White House, a testimonianza che i test dell’intelligenza misurano soltanto quello che serve a produrre certi risultati all’interno della cultura dominante. Quando Binet li escogitò, nel 1904, fu il primo a dire che non erano di grande utilità per stabilire graduatorie di valore tra gli studenti. Però era stato più forte di lui: poiché quand’era studente i docenti lo consideravano uno scemo, voleva che la stessa cosa non capitasse ad altri.
I suoi test dovevano solo servire per individuare gli studenti bisognosi di un sostegno speciale, temporaneo, e non per discriminarli. E prima del suo c’erano stati altri tristi e ben più illustri casi: Einstein, p.es., cui un docente del ginnasio consigliò d’interrompere gli studi, o anche Churchill, ch’era uno svogliato.
Gli americani, tuttavia, cominciarono subito a usare i test per impedire l’ingresso nel Paese a immigrati poco dotati mentalmente. I loro esperimenti pseudo-scientifici furono ampiamente documentati da Jay Gould nel libro The Mismeasure of Man. “Un test che può avere un’utilità (limitata) in un determinato gruppo culturale, non ha necessariamente un gran valore se applicato a un altro gruppo” – questa la tesi di fondo. Poi la moda si diffuse anche in Europa, che, chissà perché, si sente sempre in debito nei confronti degli americani. I francesi arrivarono a dire due incredibili stupidaggini:

  • con P. Broca, che un cervello più grosso significa un intelletto superiore;
  • con G. Le Bon, che gli uomini erano più intelligenti delle donne.

Quale scandalo quando si scoprì che eschimesi, lapponi, malesi e tartari l’avevano più grande degli europei! Fatto sta che un’altra pseudo-scienza, quella nazista, cadde negli stessi errori, più o meno volutamente, in quanto si serviva della scienza per ragioni di dominio politico. Il nazismo cominciò a escludere dalla graduatoria non solo neri, ebrei e zingari, ma anche una buona fetta degli euro-orientali: gli slavi. A quel tempo i maggiori antropologi (tedeschi, inglesi e svedesi) erano convinti che il cranio allungato fosse indizio di grande intelligenza.
Dopo le nefandezze degli hitleriani, l’Enciclopedia Britannica, in tutta tranquillità, arrivò ad affermare, nel 1964, che i neri avevano un cervello piccolo in rapporto alla statura. Sir Cyril Burt, uno dei maggiori psicologi di allora, era convinto che potesse esistere una scala secondo cui classificare le persone in base alle capacità mentali ereditarie. Ai giorni nostri la pantomima si ripete: la cantante Madonna è più sveglia di John F. Kennedy, il grande romanziere J. D. Salinger è praticamente un deficiente, e così via. I quozienti d’intelligenza continuano a essere usati per escludere dal potere o dall’emancipazione le minoranze non gradite, gli “estranei”, gli immigrati, i meridionali, le “facce scure”, quelli che non si adeguano al linguaggio della razza padrona.
Bibliografia
AAVV, I giochi di simulazione nella scuola, Zanichelli, Bologna 1987.
AAVV, Il sapere come rete di modelli, Panini, Modena 1981.
Ajello A.M., Trasmissione ed elaborazione delle conoscenze, Ediesse, Roma 1998.
Albanese, Doudin, Martin (a cura di), Metacognizione ed educazione, Franco Angeli, Milano 1995.
Alberici A., Imparare sempre nella società conoscitiva, Paravia, Torino 1999.
Andriola M. 2003. “I Fondamenti antropologici della creatività”, Angelo Pontecorboli Editore, Firenze;
– 2004. “Motivazione al successo”, Angelo Pontecorboli Editore, Firenze;
– 2006. “Le origini neurobiologiche dell’ansia”, Angelo Pontecorboli Editore, Firenze;
– 2008. L’Istinto costruttivo: come l’Uomo ha modificato la Natura e se stesso, Pontecorboli, Firenze;
– 2006. The anthropological principles of creativity, “International Journal of Anthropology”, Pontecorboli, Florens January-Dicember n. 1-4 pp. 215-220;
– 2008. Quoziente Emotivo (Qe) e Qi, PsicoLAB, Laboratorio di Ricerca e Sviluppo in Psicologia, 27.03., www.psicolab.net;
– 2008. Neurobiologia dei Processi Cognitivi Legati alla Memoria, 05.08, www.psicolab.net;
– 2008. Reti neurali e Intelligenza Artificiale (IA) PsicoLAB, 29.09, www.psicolab.net;
– 2009. Neuroscienze e Antropologia Cognitiva, Psicolab, 13.01, www.psicolab.net;
– 2009. Neurofisiologia del sistema fonatorio umano, in “Systema Naturae” vol. 8, Edizioni Altravista, Pavia;
– 2009. Come il calcio induce il rilascio di neurotrasmettitore, 16.02, www.psicolab.net;
– 2010. Adattabilità cerebrale: plasticità neuronale e sinaptica, “Antropologia della salute”, Numero 1, settembre, Altravista, Pavia;
Andreani Dentici O., (a cura di), Classe sociale, intelligenza e personalità, Il Mulino, Bologna 1974.
Angela P., La macchina per pensare, Garzanti, Milano 1983.
Argenton A., L.Messina, Concettualizzazione e istruzione, Il Mulino, Bologna 1990.
Ayala F. J., J. A. Kiger, Genetica moderna, Bologna, 1987.
Balboni P.E., Tecniche didattiche, UTET, Torino 1998.
Baldini M., Storia della comunicazione, Newton, Roma 1995.
Bandura A., Il senso di autoefficacia, Erickson, Trento 1996.
Baraldi C., D.Turchi, Educazione scolastica e motivazione allo studio, Franco Angeli, Milano 1990.
Benson J.F., Gruppi, Sovera, Roma 1993.
Berne E., A che gioco giochiamo, Bompiani, Milano 1967.
Block J.H., (a cura di), Mastery learning: procedimenti scientifici di educazione individualizzata, Loescher, Torino 1972.
Blondino G., Il ruolo dei fattori emotivi nell’apprendimento, in “Scuola viva” n.6-7/87 ed.SEI.
Bloom B.S., Caratteristiche umane e apprendimento scolastico, Armando, Roma 1976.
Bocchi G., M.Ceruti, La sfida della complessità, Feltrinelli, Milano 1987.
Boscolo P., L’apprendimento oggi. Modelli, metafore, significati, in “Scuola e città” n.3 marzo 1999
Boscolo P., Psicologia dell’apprendimento scolastico: aspetti cognitivi, UTET, Torino 1986, 2° ristampa 1996.
Brock D. J. H., O. Mayo, The Biochemical Genetics of Man, Londra, 1974.
Brockert S., G.Braun, Scopri la tua intelligenza emotiva, Oscar Mondadori, Milano 1997.
Bruner J., La cultura dell’educazione: nuovi orizzonti per la scuola, Feltrinelli, Milano 1997.
Bruner J., Verso una teoria dell’istruzione, Armando, Roma 1995.
Bruner J.S., A.Jolly, K.Silva, Il gioco: ruolo e sviluppo del comportamento ludico negli animali e nell’uomo, 4 voll., Armando, Roma 1981.
Cambi F. (a cura di), Nel conflitto delle emozioni, Armando, Roma 1998.
Cambi F., L’esercizio del pensiero, Armando, Roma 1992.
Cambi F., M.Contini (a cura di), Investire in creatività, Carocci, Roma 1999.
Carse J.P., Giochi finiti e infiniti, Mondadori, Milano 1987.
Carter C. O., Human Heredity, Baltimora, 1962.
Cecchini A., J.L.Taylor, La simulazione giocata, Franco Angeli, Milano 1987.
Charniak E., D. McDermott, Introduzione all’Intelligenza Artificiale, Masson, 1988.
Chase W.G., K.A.Ericsson, Skilled and working memory in G.H.Bowe (a cura di) The psychology of learning and motivation, Accademis Press, New York 1982.
Chase W.G., K.A.Ericsson, Skilled memory in J.R.Anderson (a cura di) Cognitive skills and their acquisition, Lawrence Erlbaum, Hillsdale, N.J. 1981.
Cherfas J., Ingegneria genetica, Torino, 1986.
Chi M.T., R.Glaser, E.Ress, Expetise in problem solving in R.Sternberg (a cura di) Advances in the psychology of human intelligence, Lawrence Erlbaum, Hillslade, N.J. 1982.
Chi M.T., R.Glaser, M.J.Farr, The nature of expetise, Lawrence Erlbaum, Hillslade, N.J. 1988
Cirotto C., S. Privitera, La sfida dell’ingegneria genetica, Assisi, 1985.
Cornoldi C., Apprendimento e memoria nell’uomo, UTET, Torino 1986.
Cornoldi C., B.Caponi, Memoria e metacognizione, Erickson, Trento 1991.
Cornoldi C., Metacognizione e apprendimento, Il Mulino, Bologna 1995.
Cornoldi C., R. De Beni e Gruppo MT, Imparare a studiare. Strategie, stili cognitivi, metacognizione e atteggiamenti nello studio, Erickson, Trento 1993.
De Bono E., Strategie per imparare a pensare, Omega, Torino 1992.
De Vecchi G., Aiutare gli allievi ad apprendere, La Nuova Italia, Firenze 1998.
Dewey J., Democrazia e educazione, La Nuova Italia, Firenze 1992.
Domenici G. (a cura di), Conoscere, simulare, scegliere, Juvenilia, Bergamo 1989.
Domenici G., Gli strumenti della valutazione, Tecnodid, Napoli 1991.
Drlika K., Introduzione all’ingegneria genetica, Milano, 1985.
Dubinin N. P., La genetica e il futuro dell’uomo, Roma, 1973.
Dunn L. S., A Short History of Genetics: Development of Some of The Main Lines of Thought, New York, 1965; R. P. Levine, Genetica, Bologna, 1967.
Ellis A., Ragione ed emozione in psicoterapia, Astrolabio, Roma, 1989.
Erikson E., I cicli della vita: continuità e mutamenti, Armando, Roma 1984.
Ernst K., A che gioco giocano gli studenti, Giunti-Lisciani, Teramo 1983.
Frabboni F., Manuale di didattica generale, Laterza, Roma-Bari 1992.
Franta H., A.R.Colasanti, L’arte dell’incoraggiamento, La Nuova Italia, Firenze 1991.
Franta H., Relazioni sociali nella scuola: promozione di un clima umano positivo, LAS, Roma 1985.
Frasca S., Insegnare ad imparare, Faenza, Faenza (Ra) 1990.
Gagnè E.D., Psicologia cognitiva e apprendimento scolastico, SEI, Torino 1989.
Gardner H., Educare al comprendere, Feltrinelli, Milano 1993.
Gardner H., Formae mentis: saggio sulla pluralità dell’intelligenza, Feltrinelli, Milano 1987.
Garvey C., Il gioco, Armando, Roma 1979.
Gatti R., Saper sapere. La motivazione come obiettivo educativo, Nuova Italia Scientifica, Roma 1992.
Ginsberg M., Essentials of Artificial Intelligence, Morgan Kaufman,1993.
Goleman D., Lavorare con intelligenza emotiva, Rizzoli, Milano 1998.
Goleman D., L’intelligenza emotiva, Rizzoli, Milano 1996.
Gordon T., Insegnanti efficaci, Giunti-Lisciani, Teramo 1991.
Greenspan A., L’intelligenza del cuore, Mondadori, Milano 1997.
Greno J.G., A study of problem solving abilities, in W.K.Estes (a cura di) Handbook of learning and cognitive processes, Lawrence Erlbaum, Hillslada, N.J. 1978.
Greno J.G., Conceptual entities in D.Gurtner, A.L.Stevens (a cura di) Mental models, Lawrence Erlbaum, Hillslada, N.J. 1983.
Huizinga J., Homo ludens, Einaudi, Torino 1973.
Husèn T., Talento, eguaglianza e meritocrazia, La Nuova Italia, Firenze 1977.
Hutchins E., Learning to navigate in S.Chaiklin, J.Lave, Understanding practice: perspectives on activity and context, Cambridge University Press 1993.
Ianes D. (a cura di), Metacognizione e insegnamento, Erickson, Trento 1996.
Job R., R.Ruminati, Linguaggio e pensiero, Il Mulino, Bologna 1984.
Leinhardt G., J.Greeno, The cognitive skill teaching, in “Journal of educational psychology” 78/2, 1986.
Liverta Sempio O. (a cura di), Vygotskij-Piaget-Brunner: concezioni dello sviluppo, Raffaello Cortina, Milano 1998.
Lowenfeld H., Il gioco nell’infanzia, La Nuova Italia, Firenze, 1976.
Mac Combs B.L., J.E.Pope, Come motivare gli alunni difficili, Erickson, Trento 1997.
Maggiolini, A. Counseling a scuola, Franco Angeli, Milano 1997.
Maragliano R., La tecnologia fa scuola: didattica, lettura, massmedia, Anicia, Roma 1992.
Maragliano R., Manuale di didattica multimediale, Laterza, Roma-Bari 1994.
Maragliano R., Pedagogia del caso e pedagogia della necessità, Manzuoli, Firenze 1981.
Marini F., D. Milia, Avere successo a scuola: abilità sociali, emozioni e rendimento, Franco Angeli, Milano 1993.
Martinoli B., Guida alla simulazione, Franco Angeli, Milano 1986.
Maslow A.H., Motivazione e personalità, Armando, Roma 1977.
Mattioli A., Guida pratica alla valutazione, Faenza, Faenza (Ra) 1990.
Maturana H. e F. Varela, L’albero della conoscenza, Garzanti, Milano 1992.
Maurizio Lichtner, La valutazione delle azioni formative, Ediesse, Roma 1988.
McKusick A. V., Genetica umana, Bologna, 1973.
Mecacci L., Identikit del cervello, Laterza, Roma-Bari 1995.
Montedoro C. (a cura di), Glossario di didattica della formazione, ISFOL, Franco Angeli, Milano 1991.
Moody P. A., Genetics of Man, New York, 1967.
Morin E., I sette saperi necessari all’educazione del futuro, Raffaello Cortina, Milano 2001.
Morin E., La testa ben fatta: riforma dell’insegnamento e riforma del pensiero, Raffaello Cortina, Milano 2000.
Novak J.D., D.B.Gowin, Imparando a imparare, SEI, Torino 1989.
Oliverio A., L’arte di imparare, Rizzoli, Milano 1999.
Oliverio A., L’arte di pensare, Rizzoli, Milano 1997.
Pellerey M., Questionario sulle strategie di apprendimento (QSA), LAS, Roma 1996.
Petracchi G., Motivazione e insegnamento, La scuola, Brescia 1990.
Piaget J., Lo sviluppo mentale del bambino, Einaudi, Torino 1967.
Pontecorvo C., (a cura di), Intelligenza e diversità, Loescher, Torino 1981.
Pope A., S.McHale, E.Craighhead, Migliorare l’autostima, Erickson, Trento 1992
Putton A., Empowerment e scuola, Carrocci, Roma 1999.
Quaglino G.P., Gruppo di lavoro, lavoro di gruppo, Raffaello Cortina, Milano 1992
R. Feuerstein, Non accettarmi come sono, Sansoni, Milano 1995.
Rich E., K. Knight: Intelligenza Artificiale, McGraw Hill, Seconda Edizione 1992.
Roberts J. A. F., An Introduction to Medical Genetics, New York, 1967.
Rosenthal R., L.Jacobson, Pigmalione in classe, Franco Angeli, Milano 1991.
Rossi P. (a cura di), La memoria del sapere, Laterza, Roma-Bari 1990.
Russel S. J., P. Norvig: Intelligenza Artificiale: Un approccio moderno, Prentice Hall International, UTET Libreria, 1998.
Saraceno C., Ciclo di vita/corso di vita e Flessibilità/rigidità, in L.Balbo (a cura di) Tempi di vita: studi e proposte per cambiarli, Feltrinelli, Milano 1991.
Sclavi M., A una spanna da terra, Feltrinelli, Milano 1994.
Sclavi M., Arte di ascoltare e mondi possibili, Le Vespe, Milano 2000.
Senner R., L’uomo flessibile, Feltrinelli, Milano 2000.
Serafini M.T., Come si scrive, Bompiani, Milano 1992.
Serafini M.T., Come si studia, Bompiani, Milano 1989.
Skehan P., Differenze individuali e autonomia di apprendimento, in L.Mariani L’autonomia nell’apprendimento linguistico, La Nuova Italia, Firenze 1994.
Stahl F. W., Il meccanismo dell’eredità, Bologna, 1972.
Sternberg R.J., Stili di pensiero, Erickson, Trento 1995.
Sternberg R.J., Stili di pensiero, Erickson, Trento 1998.
Sturtevant A. H., G. W. Beadle, An Introduction to Genetics, New York, 1962.
Succhielli A., Come giocare il gioco dei ruoli, Cappelli, Bologna 1985.
Talamo A. (a cura di), Apprendere con le nuove tecnologie, La Nuova Italia, Firenze, 1998.
Taylor J.L., R.Walford, I giochi di simulazione per l’apprendimento e l’addestramento, Mondadori, Milano 1979.
Vattimo G., La società trasparente, Garzanti, Milano 1989.
Vertecchi B. (a cura di), La didattica: interpretazioni e strutture, Tecnodid, Napoli 1994.
Visalberghi A., Insegnare ad apprendere, La Nuova Italia, Firenze 1988.
Watzlawick P., J.H.Beavin, D.D.Jackson, Pragmatica della comunicazione umana, Astrolabio, Roma 1971.
Willing K., Teaching How to Learn, NCELTR, Macquarie Univeristy, Sidney 1989.
Winston P. H., Artificial Intelligence, Third Edition, Addison-Wesley, 1992.

Marcello Andriola
Keywords: eugenetica, intelligenza, Galton,
Test Terman-Merril e scale di Wechsler
Dipartimento di Biologia Animale e Genetica “Leo Pardi”
Laboratori di Antropologia e Etnologia
Gruppo di Antropologia Cognitiva
Università di Firenze
Via del Proconsolo 12
50122 Firenze (Italia)
e-mail:marcello.andriola0@alice.it
Condividi questo Post
Condividi su facebook
Facebook
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

ARTICOLI RECENTI
ARTICOLI CORRELATI
Iscriviti alla Newsletter