I neuroscienziati saranno in grado di leggere la mente umana in futuro?
top of page

I neuroscienziati saranno in grado di leggere la mente umana in futuro?



Another Brick in the Wall, Part 1" dei Pink Floyd; Mentre gli accordi della canzone riempivano la sala operatoria, i neuroscienziati dell'Albany Medical Center registravano attentamente l'attività degli elettrodi impiantati nel cervello dei pazienti sottoposti a intervento chirurgico per l'epilessia.

Scopo? Catturare l'attività elettrica delle regioni cerebrali sintonizzate sulle caratteristiche della musica come tono, ritmo, armonia e parole, e vedere se possono ricreare ciò che il paziente sente.< /p>

Più di un decennio dopo, dopo che i neuroscienziati dell'Università della California a Berkeley hanno analizzato i dati di 29 pazienti di questo tipo, la risposta è chiaramente sì.

"Dopotutto era solo un mattone nel muro" La frase appare visibilmente nella canzone ricostruita, i suoi ritmi intatti e le parole confuse ma decifrabili. Per la prima volta, i ricercatori hanno ricostruito una canzone riconoscibile dalle registrazioni del cervello.

La ricostruzione dimostra la fattibilità della registrazione e della traduzione delle onde cerebrali per catturare elementi musicali del discorso e sillabe. Negli esseri umani, questi elementi musicali (ritmo, accento, accento e intonazione), chiamati prosodia, porta significati che le parole da sole non possono trasmettere.

Poiché queste registrazioni elettroencefalografiche intracraniche (iEEG) possono essere effettuate solo dalla superficie del cervello (il più vicino possibile ai centri uditivi), nessuno sarà in grado di ascoltare le canzoni nella tua testa nel prossimo futuro.

Ma per le persone che hanno problemi di comunicazione dovuti a paralisi o paralisi, tali registrazioni da elettrodi sulla superficie del cervello potrebbero aiutare a riprodurre la musicalità del discorso che manca nelle odierne ricostruzioni simili a robot.

Questo è un grande risultato", ha affermato Robert Knight, neuroscienziato presso l'Helen Wills Neuroscience Institute e professore di psicologia alla UC Berkeley, che ha condotto la ricerca con il ricercatore post-dottorato Ludovic Bellier. disse. "Una delle cose che penso della musica è che abbia prosodia e contenuto emotivo. Con l'avanzare dell'intero campo delle interfacce cervello-macchina, si avrà la possibilità di aggiungere musicalità ai futuri impianti cerebrali per le persone che ne hanno bisogno, che siano affette da SLA o da altri. Un altro disturbo neurologico o dello sviluppo che influisce negativamente sulla produzione vocale. Ciò ti dà la possibilità di decodificare non solo il contenuto linguistico, ma anche parte del contenuto prosodico del discorso, parte dell'affetto. Penso che sia davvero da lì che iniziamo a risolvere questo problema. il codice è chiaro.

Con il miglioramento delle tecniche di registrazione del cervello, un giorno potrebbe essere possibile effettuare tali registrazioni senza aprire il cervello utilizzando elettrodi sensibili attaccati al cuoio capelluto. Ha affermato che potrebbe misurare l'attività cerebrale per rilevarla, ma che l'approccio richiede almeno 20 secondi per identificare una singola lettera, rendendo la comunicazione laboriosa e difficile.


Le tecniche non invasive oggi non sono sufficientemente precise. Speriamo che in futuro saremo in grado di leggere l'attività nelle parti più profonde del cervello con una buona qualità del segnale per i pazienti, solo attraverso elettrodi posizionati all'esterno del cranio. Ma siamo lontani da questo." da lì" disse Bellier.

Bellier, Knight e colleghi hanno riportato i risultati oggi sulla rivista PLOS Biology e "un altro mattone nel muro della nostra comprensione dell'elaborazione della musica nel cervello umano ." Hanno dichiarato di aver aggiunto


Stai leggendo la sua mente? Non ancora.

Le interfacce cervello-macchina utilizzate oggi per aiutare le persone a comunicare quando non possono parlare possono decodificare le parole, ma le frasi prodotte hanno una qualità robotica che ricorda il suono emesso dal defunto Stephen Hawking quando utilizzava un dispositivo per la generazione del parlato.

Bellier ha affermato: "Al momento la tecnologia è più simile a una tastiera per la mente". disse. "Non puoi leggere i tuoi pensieri dalla tastiera. Devi premere i pulsanti. E sembra un po' robotico; Naturalmente c'è meno di quella che io chiamo libertà di espressione.

Bellier ha bisogno di sapere. Suona musica fin dall'infanzia; batteria, chitarra classica, pianoforte e basso, ad un certo punto esibendosi in un gruppo heavy metal. Quando Knight gli chiese di lavorare sulla musicalità del discorso, Bellier disse: "Sono sicuro che stavo molto emozionato quando ho ricevuto l'offerta.

Nel 2012, Knight, il ricercatore post-dottorato Brian Pasley e colleghi sono stati i primi a ricostruire le parole che una persona sente solo dalle registrazioni dell'attività cerebrale.

Altri ricercatori hanno recentemente portato il lavoro di Knight molto oltre. UC Il neurochirurgo di San Francisco e coautore senior dell'articolo del 2012, Eddie Chang, ha utilizzato le parole visualizzate per ricostruire il discorso inteso da un paziente paralizzato. segnali provenienti dall'area motoria del cervello associata ai movimenti della mascella, delle labbra e della lingua. sullo schermo di un computer.

Questo studio, pubblicato nel 2021, ha utilizzato l'intelligenza artificiale per interpretare le registrazioni cerebrali di un paziente che cercava di vocalizzare una frase basata su una sequenza di 50 parole.


Sebbene la tecnica di Chang abbia avuto successo, il nuovo studio suggerisce che le registrazioni provenienti dalle regioni uditive del cervello, dove vengono elaborati tutti gli aspetti del suono, potrebbero anche catturare altri aspetti del discorso importanti nella comunicazione umana.

Bellier ha affermato: "La decodifica a partire dalla corteccia uditiva, che è più vicina all'acustica dei suoni, al contrario della corteccia motoria, che è più vicina ai movimenti effettuati per creare l'acustica del parlato, è estremamente promettente." aggiunse. "Aggiungerà un po' di colore a ciò che viene decodificato."

Per il nuovo studio, Bellier ha rianalizzato le registrazioni cerebrali ottenute mentre ai pazienti veniva riprodotto un segmento di circa 3 minuti di una canzone dei Pink Floyd dall'album The Wall del 1979 11100000 - 0000-0000-0000-000000000111_. Spera di ricostruire effettivamente le frasi musicali attraverso modelli di decodifica basati sulla regressione, andando oltre gli studi precedenti che avevano testato se i modelli di decodificazione potessero identificare diversi brani e generi musicali.

Bellier ha sottolineato che lo studio, che ha utilizzato l'intelligenza artificiale per decodificare l'attività cerebrale e quindi codificarne una riproduzione, non ha solo creato una scatola nera per sintetizzare il parlato. Lui e i suoi colleghi hanno anche esplorato nuove aree del cervello coinvolto nella rilevazione del ritmo (come il suono di una chitarra) e hanno scoperto che venivano rilevate parti della corteccia uditiva – il giro temporale superiore, situato appena dietro e sopra l’orecchio. - risponde all'inizio di una voce o di un sintetizzatore, mentre altre aree rispondono alla voce sostenuta.

I ricercatori hanno inoltre confermato che il lato destro del cervello è più in sintonia con la musica rispetto al lato sinistro.

Knight ha detto: "Il linguaggio si trova principalmente nell'emisfero sinistro del cervello. La musica, invece, è distribuita più con una tendenza a destra”. ha detto.

Bellier ha detto: "Non era chiaro che la stessa cosa sarebbe accaduta con gli stimoli musicali". detto. "Quindi confermiamo che questo non è solo qualcosa di specifico della parola, ma è più fondamentale per il sistema uditivo e il modo in cui elabora sia la parola che la musica."

Knight sta iniziando una nuova ricerca per comprendere i circuiti cerebrali che consentono ad alcune persone affette da afasia dovuta a ictus o lesioni cerebrali di comunicare cantando quando non riescono a trovare le parole per esprimersi.

Articoli più letti

ultimi post

bottom of page