Il MIT scopre le cellule chiave per la comprensione linguistica

Foto di Seanbatty da Pixabay

Per la prima volta i ricercatori del MIT sono riusciti a identificare le singole cellule che giocano un ruolo nella comprensione delle parole, scoprendo così che ogni cervello utilizza le stesse categorie standard per classificare i termini partendo dal suono e arrivando al significato.
La metodologia dell’esperimento, descritto in un articolo su Nature, si basa su tecniche conosciute da decenni, ma si distingue per l’impiego di avanzate metodologie di analisi dei dati e per la possibilità di esaminare il funzionamento del cervello umano durante una craniotomia e di poter quindi scendere nel dettaglio a livello di singoli neuroni.

La tecnica utilizzata in questo studio si basa, come dicevamo, sulla registrazione diretta dell’attività neuronale in soggetti umani svegli. Non si tratta di una tecnologia nuova: risale agli anni Cinquanta, quando il neurochirurgo Wilder Penfield iniziò a esplorare il cervello dei pazienti per identificare le aree responsabili di specifiche funzioni motorie e sensoriali. Questa metodologia, però, è applicabile solo in casi in cui apporti un beneficio clinico al paziente, come definire con precisione la sede di interventi neurochirurgici, per esempio per l’asportazione di focolai epilettici. In questo caso il campione era formato da dieci pazienti epilettici tra i 33 e i 79 anni che avevano quindi degli elettrodi direttamente a contatto con il cervello e non, come accade nei normali elettroencefalogrammi, attaccati all’esterno del cranio. Queste sono le condizioni ideali per registrare l’attività cerebrale: il normale EEG è una tecnica non invasiva che registra l’attività elettrica del cervello attraverso elettrodi posti sul cuoio capelluto, ma registra un segnale complessivo, una sorta di sommatoria dell’attività di milioni di neuroni, e il segnale deve passare attraverso il cranio e altri tessuti, il che ne limita la precisione.

Stefano Cappa, neuroscienziato cognitivo e professor emerito di neurologia, fa un paragone che ci aiuta a capire la differenza di questi esami, che pur essendo basati sulla stessa tecnologia restituiscono risultati molto diversi: “È come – spiega Cappa – se origliassimo una conversazione in una stanza affollata, ascoltandola magari da un tavolino lontano. Qualcosa sentiremo, ma altri rumori ci confonderanno, quindi avremo un’idea del contenuto del discorso ma non lo potremo sentire parola per parola. Quello che hanno fatto gli studiosi, invece, ricorda una conversazione faccia a faccia, che è molto più comprensibile”.
Gli elettrodi a contatto diretto con il cervello permettono infatti di registrare l’attività di singoli neuroni. La precisione e la chiarezza delle informazioni raccolte sono incomparabilmente superiori, e rendono possibile l’osservazione di dettagli che altrimenti rimarrebbero nascosti.

Questi elettrodi hanno permesso appunto di registrare l’attività di circa 300 neuroni nella corteccia prefrontale mentre queste persone ascoltavano frasi di circa 450 parole in stato di veglia, quindi erano in grado di svolgere compiti basati sul linguaggio collaborando con i ricercatori, che contemporaneamente registravano quali neuroni si attivavano in quale momento. Per ogni parola si attivavano due o tre neuroni, ma non è stata registrata l’attività di tutti i neuroni della corteccia prefrontale, che sono miliardi, perché i ricercatori erano vincolati alle aree che era necessario esplorare per motivi medici. Questo rappresenta un limite, perché non sempre è possibile registrare dall’area che sarebbe più interessante per l’intento di ricerca. “È interessante osservare – precisa infatti Cappa – che l’area esplorata non è quella che, se danneggiata, per esempio a causa di un ictus cerebrale, condiziona la comparsa di gravi disturbi nella comprensione delle parole (ovvero il lobo temporale di sinistra). Questo ci conferma che l’organizzazione cerebrale del linguaggio è basata su sistemi neurali complessi, non su singole regioni localizzate. Se il lobo temporale sinistro ha un ruolo che è necessario per capire il significato delle parole, anche regioni prefrontali collaborano all’ attività distribuita che è alla base della comprensione delle parole”. Le complesse metodiche di analisi sviluppate in questo lavoro hanno consentito di estrarre informazioni importanti da una quantità impressionante di dati, che solo pochi anni fa sarebbe stato molto complicato trattare per arrivare a qualche conclusione.

Negli ultimi anni, invece, la ricerca neuroscientifica ha raggiunto traguardi impressionanti grazie all’integrazione di tecnologie avanzate e metodologie di analisi dei dati sempre più sofisticate. Il secondo punto di forza di questo studio risiede proprio nella metodologia di analisi dei dati per estrarre informazioni dettagliate dall’attività neuronale registrata. Tutti i pazienti erano anglofoni, e quindi tutte le frasi prese in esame durante l’esperimento erano in inglese, ma come spiega Cappa è lecito aspettarsi che non ci siano cambiamenti testando parlanti di lingue diverse: “Noi sappiamo che l’organizzazione del linguaggio è molto simile, praticamente sovrapponibile, tra le diverse lingue. Le differenze sono legate a caratteristiche fisiche, per esempio l’uso di ideogrammi che porta a processi cognitivi diversi, ma il sistema linguaggio sembra essere universale”.

Cos’è venuto fuori dall’esperimento del MIT? “Una delle scoperte più interessanti di questo studio – spiega Cappa – riguarda la specificità neuronale nel rispondere a determinate categorie semantiche. I dati hanno rivelato che i neuroni rispondono in modo specifico non solo a singole parole, ma anche a categorie di parole simili. Per esempio, parole come carota e pomodoro attivano gruppi di neuroni simili, così come termini legati ai rapporti familiari come zio e nonna”. In pratica, parole simili attivavano un’attività neuronale più simile di quella di parole scelte casualmente.

Foto di Ivana Tomášková da Pixabay

Allo stesso risultato si era arrivati in passato anche con la risonanza magnetica, ma non con questo livello di specificità: il fenomeno non era mai stato osservato prima d’ora con questa precisione a livello di singola cellula e suggerisce che il cervello categorizza le parole in base al loro significato e lo fa a un livello estremamente dettagliato e preciso, probabilmente influenzato da una complessa rete di associazioni semantiche.  La maggior parte (84%) dei neuroni che hanno mostrato selettività semantica ha risposto a uno solo dei nove domini semantici individuati (per esempio “cibo” o “azioni”). Dei neuroni che hanno dimostrato la selettività, solo il 16% ha risposto a due domini.

Un’altra scoperta interessante è stata la differente risposta neuronale a parole omofone come son (figlio) e sun (sole). Nonostante il suono identico, queste parole hanno attivato neuroni diversi, in linea con le rispettive categorie semantiche, legate cioè al significato: son è stato associato a parole legate alla famiglia, mentre sun ha attivato neuroni collegati a elementi naturali come moon e stars. La scoperta che i neuroni rispondono al significato e non al suono evidenzia una sofisticata organizzazione del cervello che va ben oltre la semplice associazione suono-significato.

Per finire, i ricercatori hanno provato a vedere se i neuroni distinguevano parole esistenti da non-words, cioè parole che hanno un suono simile ad altre esistenti ma non hanno nessun significato. La prova è stata fatta su sette dei dieci partecipanti, e 27 dei 48 neuroni presi in esame erano in grado di farlo, ma non basta: questa capacità non era limitata ai neuroni semanticamente selettivi, quindi siamo di fronte a un sistema a più variabili ancora tutte da scoprire.

Anche se lo studio presenta risultati di grande interesse, le sue applicazioni pratiche sono ancora limitate, però apre la strada a future ricerche che potrebbero portare a nuove scoperte nel campo delle neuroscienze e della neurochirurgia. Questo approccio potrebbe essere utile per sviluppare nuove terapie per pazienti con disturbi del linguaggio, anche se molto resta da fare per scoprire come il cervello combina le parole per formare frasi e su come questa capacità complessa possa essere ripristinata in caso di danni cerebrali: “Per ora – conferma Cappa – ci andrei cauto sull’affermazione che questi strumenti potrebbero essere utili per i soggetti che non sono più capaci di parlare, perché l’afasia è un disturbo complesso, che riguarda il linguaggio stesso e non solo la capacità di pronunciare le parole. Ad oggi, probabilmente saranno più utili proprio per quei soggetti che hanno problemi a produrre i suoni”.

Questo studio rappresenta comunque un passo significativo verso una comprensione più dettagliata dell’organizzazione neuronale legata al linguaggio e alle categorie semantiche. Anche siamo ancora lontani dall’applicazione pratica di queste scoperte nel trattamento di disturbi linguistici o nella “lettura del pensiero”, la ricerca apre nuove strade per esplorare come il cervello elabora le informazioni linguistiche, perché comprendere a fondo il funzionamento del cervello è un passo preliminare essenziale per sviluppare interventi terapeutici efficaci. Con ulteriori studi e lo sviluppo di nuove tecniche, le neuroscienze continueranno a svelare i segreti del cervello umano, portandoci sempre più vicini a comprendere la complessità della nostra mente.

di Anna Cortelazzo

ilbolive.unipd.it