Werden Neurowissenschaftler in Zukunft in der Lage sein, den menschlichen Geist zu lesen?
top of page

Werden Neurowissenschaftler in Zukunft in der Lage sein, den menschlichen Geist zu lesen?



Pink Floyds „Another Brick in the Wall, Teil 1“ Während die Akkorde des Liedes den Operationssaal erfüllten, zeichneten Neurowissenschaftler am Albany Medical Center sorgfältig die Aktivität von Elektroden auf, die in die Gehirne von Patienten implantiert wurden, die sich einer Epilepsieoperation unterzogen.

Zweck? Um die elektrische Aktivität von Gehirnregionen zu erfassen, die auf die Eigenschaften von Musik wie Ton, Rhythmus, Harmonie und Worte abgestimmt sind, und um zu sehen, ob sie das wiedergeben können, was der Patient hört.< /p>

Mehr als ein Jahrzehnt später, nachdem Neurowissenschaftler der University of California in Berkeley die Daten von 29 dieser Patienten analysiert hatten, lautet die Antwort eindeutig „Ja“.

„Schließlich war es nur ein Ziegelstein in der Wand“ Der Satz taucht im rekonstruierten Lied deutlich auf, sein Rhythmus ist intakt und die Worte sind unklar, aber entzifferbar. Zum ersten Mal haben Forscher aus Gehirnaufzeichnungen ein erkennbares Lied rekonstruiert.

Die Rekonstruktion zeigt die Machbarkeit der Aufzeichnung und Übersetzung von Gehirnwellen, um musikalische Elemente der Sprache sowie Silben zu erfassen Prosodie. Sie trägt Bedeutungen in sich, die Worte allein nicht vermitteln können.

Da diese intrakraniellen Elektroenzephalographie (iEEG)-Aufzeichnungen nur von der Oberfläche des Gehirns (so nah wie möglich an den Hörzentren) gemacht werden können, wird in naher Zukunft niemand mehr in der Lage sein, die Lieder in Ihrem Kopf zu hören.

Aber für Menschen, die aufgrund von Lähmungen oder Lähmungen Kommunikationsprobleme haben, könnten solche Aufnahmen von Elektroden auf der Oberfläche des Gehirns helfen, die Musikalität der Sprache zu reproduzieren, die in heutigen roboterähnlichen Rekonstruktionen fehlt.

„Das ist ein großartiges Ergebnis“, sagte Robert Knight, Neurowissenschaftler am Helen Wills Neuroscience Institute und Professor für Psychologie an der UC Berkeley, der die Forschung zusammen mit dem Postdoktoranden Ludovic Bellier durchführte. sagte er. „Eines der Dinge, die ich an Musik denke, ist, dass sie Prosodie und emotionalen Inhalt hat.“ Da sich das gesamte Feld der Gehirn-Maschine-Schnittstellen weiterentwickelt, bietet sich Ihnen die Möglichkeit, künftigen Gehirnimplantaten für Menschen, die sie benötigen, Musikalität zu verleihen, unabhängig davon, ob sie an ALS leiden oder jemand anderes. Eine weitere neurologische oder Entwicklungsstörung, die sich negativ auf die Sprachausgabe auswirkt. Dies gibt Ihnen die Möglichkeit, nicht nur den sprachlichen Inhalt, sondern auch einen Teil des prosodischen Inhalts der Rede, einen Teil des Affekts, zu entschlüsseln. Ich denke, das ist wirklich der Punkt, an dem wir anfangen, dieses Problem zu lösen. Code ist klar."

Da sich die Techniken zur Gehirnaufzeichnung verbessern, könnte es eines Tages möglich sein, solche Aufzeichnungen zu machen, ohne das Gehirn zu öffnen, indem empfindliche Elektroden an der Kopfhaut angebracht werden. Er sagte, dass er die Gehirnaktivität messen könne, um sie zu erkennen, aber dass der Ansatz zumindest erfolgversprechend sei 20 Sekunden, um einen einzelnen Buchstaben zu identifizieren, was die Kommunikation mühsam und schwierig macht.


„Nichtinvasive Techniken sind heute nicht genau genug.“ Hoffen wir, dass wir in Zukunft in der Lage sein werden, Aktivitäten in tieferen Teilen des Gehirns mit guter Signalqualität für Patienten abzulesen, und zwar allein durch Elektroden, die außerhalb des Schädels platziert werden. Aber davon sind wir weit entfernt.“ von dort" sagte Bellier.

Bellier, Knight und Kollegen berichteten heute in der Zeitschrift PLOS Biology über die Ergebnisse und „ein weiterer Baustein in unserem Verständnis der Musikverarbeitung im menschlichen Gehirn“. ." Sie gaben an, dass sie hinzugefügt hätten


Lesen Sie seine Gedanken? Noch nicht.

Gehirn-Maschine-Schnittstellen, die heute verwendet werden, um Menschen bei der Kommunikation zu helfen, wenn sie nicht sprechen können, können Wörter entschlüsseln, aber die erzeugten Sätze haben eine roboterhafte Qualität, die dem Geräusch ähnelt, das der verstorbene Stephen Hawking erzeugte, als er ein Spracherzeugungsgerät benutzte.

Bellier sagte: „Im Moment ist Technologie eher eine Tastatur für den Geist.“ sagte er. "Sie können Ihre Gedanken nicht von der Tastatur lesen. Man muss die Knöpfe drücken. Und es klingt irgendwie roboterhaft; Natürlich gibt es weniger von dem, was ich Meinungsfreiheit nenne."

Bellier muss es wissen. Er macht seit seiner Kindheit Musik; Schlagzeug, klassische Gitarre, Klavier und Bass, einmal trat er in einer Heavy-Metal-Band auf. Als Knight ihn bat, an der Musikalität der Rede zu arbeiten, sagte Bellier: „Das war ich sicher.“ Ich war sehr aufgeregt, als ich das Angebot bekam.“

Im Jahr 2012 rekonstruierten Knight, der Postdoktorand Brian Pasley und Kollegen als erste die Wörter, die eine Person hört, allein aus Aufzeichnungen der Gehirnaktivität.

Andere Forscher haben Knights Arbeit kürzlich viel weitergeführt. Der Neurochirurg der UC San Francisco und leitende Co-Autor der Arbeit von 2012, Eddie Chang, verwendete angezeigte Wörter, um die beabsichtigte Sprache eines gelähmten Patienten zu rekonstruieren. aufgezeichnet Signale aus dem motorischen Bereich des Gehirns, die mit Kiefer-, Lippen- und Zungenbewegungen verbunden sind. auf einem Computerbildschirm.

Diese im Jahr 2021 veröffentlichte Studie nutzte künstliche Intelligenz, um Gehirnaufzeichnungen eines Patienten zu interpretieren, der versuchte, einen Satz basierend auf einer Folge von 50 Wörtern auszusprechen.


Obwohl Changs Technik erfolgreich war, legt die neue Studie nahe, dass Aufnahmen aus den Hörregionen des Gehirns, in denen alle Aspekte des Klangs verarbeitet werden, auch andere Aspekte der Sprache erfassen könnten, die für die menschliche Kommunikation wichtig sind.

Bellier sagte: „Die Entschlüsselung aus dem auditorischen Kortex, der näher an der Akustik von Geräuschen liegt, im Gegensatz zum motorischen Kortex, der näher an den Bewegungen ist, die zur Erzeugung der Akustik von Sprache durchgeführt werden, ist äußerst vielversprechend.“ Er fügte hinzu. "Es wird dem, was dekodiert wird, etwas Farbe verleihen."

Für die neue Studie analysierte Bellier Gehirnaufzeichnungen erneut, die erhalten wurden, während den Patienten ein etwa dreiminütiger Abschnitt eines Pink-Floyd-Songs aus dem Album The Wall von 1979 vorgespielt wurde 11100000 - 0000-0000-0000-000000000111_. Er hoffte, musikalische Phrasen durch regressionsbasierte Dekodierungsmodelle tatsächlich rekonstruieren zu können und damit über frühere Studien hinauszugehen, in denen getestet wurde, ob Dekodierungsmodelle verschiedene Musikstücke und Genres identifizieren können.

Bellier betonte, dass die Studie, die künstliche Intelligenz nutzte, um Gehirnaktivität zu entschlüsseln und dann eine Reproduktion zu kodieren, nicht nur eine Blackbox für die Synthese von Sprache schuf. Er und seine Kollegen erkundeten auch neue Bereiche des Gehirns, das an der Rhythmuserkennung beteiligt ist (z. B. den Klang einer Gitarre), und entdeckten, dass Teile der Hörrinde – der Gyrus temporalis superior, der sich direkt hinter und über dem Ohr befindet – erkannt wurden. - reagiert auf den Einsatz einer Stimme oder eines Synthesizers, während andere Bereiche auf anhaltenden Gesang reagieren.

Forscher bestätigten außerdem, dass die rechte Seite des Gehirns stärker auf Musik eingestellt ist als die linke.

Knight sagte: „Sprache befindet sich hauptsächlich in der linken Gehirnhälfte. Musik hingegen ist eher mit einer Tendenz nach rechts verbreitet.“ sagte er.

Bellier sagte: „Es war nicht klar, dass dasselbe mit musikalischen Reizen passieren würde.“ sagte. "Hier bestätigen wir, dass dies nicht nur etwas Spezifisches für die Sprache ist, sondern von grundlegenderer Bedeutung für das Hörsystem und die Art und Weise, wie es sowohl Sprache als auch Musik verarbeitet."

Knight beginnt mit neuen Forschungen, um die Schaltkreise im Gehirn zu verstehen, die es manchen Menschen mit Aphasie aufgrund eines Schlaganfalls oder einer Hirnverletzung ermöglichen, durch Singen zu kommunizieren, wenn ihnen die Worte fehlen, um sich auszudrücken.

Meistgelesene Artikel

Neueste Beiträge

bottom of page