L’interazione sociale e i cervelli sincronizzati
L’analisi dell’attività cerebrale di persone impegnate in un’interazione sociale ha rilevato i segnali di una sincronizzazione dei loro cervelli. La scoperta è stata ottenuta attraverso una nuova metodologia di imaging cerebrale, denominata “iperscanning”, che coinvolge più soggetti contemporaneamente.
La stragrande maggioranza degli studi di neuroscienze si basa su tre elementi: una persona, un compito cognitivo e una macchina ad alta tecnologia in grado di vedere all’interno del cervello. Questa semplice ricetta può produrre una scienza potente. Tali studi ora producono regolarmente immagini che fino a poco tempo fa un neuroscienziato poteva solo sognare. Permettono ai ricercatori di delineare la complessa macchina neurale che dà un senso alle immagini e ai suoni, elabora il linguaggio e trae un significato dall’esperienza.
Ma qualcosa manca in gran parte di questi studi: le altre persone. Noi esseri umani siamo intrinsecamente sociali, eppure neanche le neuroscienze sociali, un campo creato appositamente per esplorare la neurobiologia dell’interazione umana, sono state sociali come si potrebbe pensare. Solo un esempio: nessuno ha ancora catturato la ricca complessità dell’attività cerebrale di due persone mentre parlano insieme. “Trascorriamo le nostre vite conversando tra noi e stabilendo legami”, dice il neuroscienziato Thalia Wheatley del Dartmouth College. “Ma capiamo ben poco di come effettivamente le persone si connettano tra loro. Non sappiamo quasi nulla su come si accoppiano le menti”.
Impronte cerebrali di gruppo
La situazione sta cominciando a cambiare. Un gruppo sempre più numeroso di neuroscienziati utilizza una tecnologia sofisticata e una matematica molto complessa per catturare ciò che accade in uno, due o anche 12 o 15 cervello, nel momento in cui le persone sono impegnate nel contatto visivo, nella narrazione, nell’attenzione congiunta focalizzata su un argomento o su un oggetto, o qualsiasi altra attività che richieda uno scambio sociale di dare e avere.
Anche se il campo delle neuroscienze sociali interattive è ancora agli inizi, la speranza è che l’identificazione delle basi
neuronali del vero scambio sociale possa cambiare la nostra comprensione di base della comunicazione, e in definitiva migliorare l’educazione o influenzare il trattamento dei molti disturbi psichiatrici che coinvolgono disabilità sociali.
In precedenza, i limiti della tecnologia hanno rappresentato un grosso ostacolo allo studio dell’interazione umana reale. L’imaging cerebrale richiede l’immobilità del soggetto e il rigore scientifico richiede un livello di controllo sperimentale tutt’altro che naturale. Di conseguenza, è difficile ottenere dati di alta qualità da un cervello; farlo con due cervelli “vuol dire più che raddoppiare”, spiega il neuroscienziato David Poeppel della New York University. “Devi sincronizzare i macchinari, i dati e l’acquisizione dei dati”.
Tuttavia, il primo studio che ha monitorato con successo due cervelli contemporaneamente risale a circa 20 anni fa. Il fisico Read Montague, ora al Virginia Tech, e i suoi colleghi, hanno messo due persone dentro macchine per la risonanza magnetica funzionale (fMRI) separate e hanno osservato la loro attività cerebrale mentre erano impegnate in un semplice gioco competitivo in cui un giocatore (il mittente) doveva trasmettere un segnale non appena avesse visto il colore rosso o verde e l’altro giocatore (il ricevente) doveva decidere se il mittente stesse dicendo la verità o mentendo. Le ipotesi corrette determinavano l’attribuzione di una ricompensa. Montague ha chiamato la tecnica “iperscanning”, e il suo lavoro ha dimostrato la possibilità di osservare due cervelli contemporaneamente.
All’inizio, la direzione intrapresa da Montague è stato seguita principalmente dai neuroeconomisti invece che che dai neuroscienziati sociali. Ma il termine iperscanning ora viene applicato a qualsiasi ricerca di imaging cerebrale che coinvolge più di una persona. Attualmente, le tecniche che vi si adattano includono l’elettroencefalografia (EEG), la magnetoencefalografia e la spettroscopia funzionale nel vicino infrarosso. L’uso di queste varie tecniche, molte delle quali piuttosto nuove, ha ampliato la gamma di possibili esperimenti e ha reso l’iperscanning meno ingombrante e, di conseguenza, molto più popolare.
Il coinvolgimento contaAl di là delle sfide pratiche delle neuroscienze interattive, è emersa una domanda più filosofica, vale a dire se le informazioni neurali raccolte monitorando le persone durante l’interazione sociale sono significativamente diverse dalle scansioni effettuate quando i soggetti sono soli o agiscono solo come osservatori. E’ importante che la persona che stiamo guardando ci guardi a sua volta? C’è differenza tra pronunciare una frase e rivolgerla a qualcuno che sta ascoltando?
Sì, a quanto pare una differenza c’è. Stanno aumentando, spiega lo psichiatra e neuroscienziato sociale Leonhard Schilbach del Max-Planck-Institut per la Psichiatria di Monaco di Baviera, che “la cognizione sociale differisce fondamentalmente quando si è coinvolti direttamente con un’altra persona rispetto a quando si osserva un’altra persona”.
Dimostrare queste differenze non richiede per forza studi su più di un cervello alla volta, ma esige esperimenti relativamente naturalistici, che sono difficili da progettare entro i limiti imposti ai protocolli di laboratorio standard.
La psicologa Elizabeth Redcay dell’Università del Maryland studia l’interazione sociale nell’autismo, con particolare attenzione alla prima infanzia. Nel 2010, quando occupava una posizione di postdottorato e lavorava con Rebecca Saxe al Massachusetts Institute of Technology, ha realizzato un esperimento pionieristico che includeva un partecipante all’interno dello scanner e un altro (in realtà un ricercatore) al di fuori, che interagivano in tempo reale attraverso un video. I video registrati di un altro interlocutore facevano da controllo. Redcay ha rilevato nelle interazioni in tempo reale, rispetto a quelle registrate, una maggiore attivazione delle aree cerebrali coinvolte nella cognizione sociale e nella ricompensa.
I suoi studi successivi hanno continuato a documentare differenze nel modo in cui risponde il cervello coinvolto in un’interazione.
Nei cervelli dei bambini, le regioni coinvolte nel pensare agli stati mentali degli altri – nel “mentalizzare”, in altri termini – sono più attive quando credono di interagire con un coetaneo rispetto a quando non lo sono. In studi di attenzione congiunta, una componente critica dell’interazione sociale, Redcay ha scoperto che le regioni coinvolte nella mentalizzazione cerebrale, come la giunzione parietale temporale, rispondevano in modo diverso quando i soggetti condividevano l’attenzione rispetto a quando guardavano qualcosa in modo indipendente.
Ora la ricercatrice vuole sapere se ci sono ulteriori differenze nel modo in cui interagisce il cervello degli individui con autismo. “Il grado di coinvolgimento delle regioni di mentalizzazione è legato al successo delle persone nell’interazione sociale?” si chiede. “E’ troppo presto per dirlo”, ma è chiaro, spiega, che “non hai il quadro completo se ti affidi solo agli approcci degli osservatori”.
Schilbach è stato uno dei principali fautori di quella che ldefinisce la neuroscienza in seconda persona. I suoi studi hanno incluso personaggi virtuali che sembrano rispondere allo sguardo di un partecipante. In quelle situazioni, “i cosiddetti network di mentalizzazione e network di osservazione dell’azione sembrano connessi molto più strettamente di quanto pensassimo”, afferma. “Si influenzano a vicenda, a volte in modo complementare e talvolta in modo inibitorio”. Schilbach ha scoperto inoltre che anche azioni molto semplici, come guardare un’altra persona e credere che questa stia ricambiando lo sguardo – un’interazione in cui percepisci che il tuo comportamento ha un effetto su un’altra persona – stimolano l’attività nel circuito di ricompensa del cervello, in particolare nello striato ventrale. E quanto più gratificante troviamo un comportamento, tanto più è probabile che lo ripeteremo.
Gli occhi lo sanno
Che cosa sta succedendo nel cervello dell’altra persona? Il contatto visivo era il posto più logico dove cercare.
Avere un contatto visivo attiva il cervello sociale e segnala a un’altra persona che stiamo prestando attenzione. È un modo con cui condividiamo intenzioni ed emozioni. All’inizio del 2019, Norihiro Sadato dell’Istituto nazionale di scienze fisiologiche in Giappone, e i suoi colleghi, hanno usato l’iperscanning per mostrareche il contatto visivo prepara il cervello sociale a entrare in empatia attivando contemporaneamente le stesse aree del cervello di ogni persona: il cervelletto, che aiuta a predire il conseguenze sensoriali delle azioni, e il sistema limbico dei neuroni a specchio, un insieme di aree cerebrali che si attivano sia quando muoviamo qualsiasi parte del corpo (inclusi gli occhi) sia quando osserviamo i movimenti di qualcun altro.
Il sistema limbico, in generale, è alla base della nostra capacità di riconoscere e condividere le emozioni. In altre parole, è fondamentale per regolare la nostra capacità di empatia.
Le storie che ci raccontiamo sono il mezzo ideale per esplorare il collante sociale che ci lega. Il neuroscienziato Uri Hasson della Princeton University ha condotto esperimenti pionieristici sull’accoppiamento dei cervelli usando la narrazione.
In uno di questi studi, ha posto un soggetto in uno scanner e gli ha chiesto di raccontare una storia. In seguito ha inserito un’altra persona nello scanner e gli ha fatto ascoltare una registrazione della storia raccontata dalla prima persona. Hasson ha confrontato l’elaborazione del cervello di chi parlava con quella di chi ascoltava nel corso del test, abbinando la loro attività cerebrale momento per momento e ha trovato la prova dell’accoppiamento dei due cervelli. “Il cervello dell’ascoltatore diventa simile al cervello di chi parla”, dice Hasson. E più i cervelli erano allineati, maggiore era la comprensione riferita dall’ascoltatore. Afferma Hasson, “Il tuo cervello come individuo è determinato dal cervello a cui sei connesso.”
Di recente Hasson ha unito le forze con Wheatley di Dartmouth per vedere se riuscivano a misurare l’accoppiamento dei cervelli durante la conversazione.
Una buona conversazione, dice Wheatley, significa “creare nuove idee insieme ed esperienze che non avresti potuto avere da solo”. Vuole vedere quell’esperienza nel cervello. Il loro studio prevede l’uso di scanner in diverse università collegati online. (La maggior parte dei dipartimenti di psicologia ha solo uno scanner.) Con una persona in ogni scanner, i soggetti completano una storia a turno: un partecipante pronuncia alcune frasi e l’altro riprende da dove il compagno si è interrotto. Se gli scienziati possono catturare gli stati cerebrali durante questa interazione, dice Wheatley, potrebbero essere in grado di vedere come due cervelli si avvicinano e poi si allontanano l’uno dall’altro durante la conversazione.
Oltre le coppie
Forse inevitabilmente, i neuroscienziati sono passati a studiare non solo due, ma molti cervelli contemporaneamente. Questi esperimenti richiedono l’uso dell’EEG perché è portatile.
I primi studi hanno dimostrato che quando ci impegniamo in attività di gruppo come concerti o film, le nostre onde cerebrali si sincronizzano: l’attenzione rapita del pubblico significa che gli spettatori elaborano allo stesso modo il finale sinfonico o una scena d’amore o di lotta. Ciò non è poi così sorprendente, ma ora gli scienziati stanno applicando lo stesso approccio nelle aule scolastiche, dove i risultati potrebbero aggiungere ciò che sappiamo su come gli studenti possono apprendono meglio.
In una serie di studi nelle scuole superiori di New York, un gruppo di ricercatori dell’Università di New York tra cui Poeppel, Suzanne Dikker e Ido Davidesco ha fatto ripetute registrazioni EEG di ogni studente in una classe di biologia nel corso di un semestre. Hanno scoperto che le onde cerebrali degli studenti erano più in sintonia tra loro quando erano più impegnati in classe. La sincronia da cervello a cervello riflette anche quanto gli studenti si piacciono tra loro e quanto apprezzano l’insegnante: relazioni più strette portano a una maggiore sincronizzazione. Il loro studio attuale sta esaminando se i livelli di sincronia cerebrale durante la lezione predicono la conservazione dei contenuti appresi. “Penso che quello che stiamo facendo è molto utile”, dice Poeppel. “Ma come usare queste tecniche in modo mirato per l’apprendimento STEM?”.
“Schilbach crede che le neuroscienze interattive abbiano anche applicazioni nella vita reale in psichiatria. Potrebbero rendere possibile prevedere quale terapeuta funzionerà meglio con quale paziente, per esempio. E l’attenzione alle situazioni della vita reale aiuta a garantire che ogni scoperta abbia un valore per i pazienti. “Come psichiatra”, dice Schilbach, “non sono interessato ad aiutare una persona a migliorare in un particolare compito sociale cognitivo. Sto cercando di aiutare quella persona a condurre una vita felice e soddisfacente”.
(L’originale di questo articolo è stato pubblicato su “Scientific American” il 10 aprile 2019. Traduzione ed editing a cura di Le Scienze.)
di Lydia Denworth/Scientific American
Fonte: