DeuAq.com >> Leben >  >> Wissenschaft

Wir dachten, wir wüssten, wie unser Gehirn Sprache versteht. Wir lagen falsch

Nach sieben Jahren Forschung hat ein Team von Neurowissenschaftlern endlich herausgefunden, wie unser Gehirn Sprache verarbeitet – und es ist nicht so, wie wir es uns vorgestellt haben.

Anstatt den Klang von jemandem, der spricht, in Worte umzuwandeln, wie lange angenommen wurde, verarbeitet unser Verstand sowohl die Laute als auch die Worte gleichzeitig, aber an zwei verschiedenen Stellen im Gehirn.

Dieser Befund, so die Forscher, könnte Auswirkungen auf unser Verständnis von Hör- und Sprachstörungen wie Legasthenie haben.

Die Fähigkeit der Wissenschaftler, die Sprachverarbeitung zu verstehen, wurde durch die Topologie behindert:Die Gehirnregion, die an der Sprachverarbeitung beteiligt ist, der auditive Kortex, ist tief zwischen den Stirn- und Schläfenlappen des Gehirns verborgen.

Selbst wenn Forscher Zugang zu diesem Bereich des Gehirns erhalten könnten, wäre für neurophysiologische Aufzeichnungen aus der Hörrinde ein Scanner mit extrem hoher Auflösung erforderlich.

Aber Fortschritte in der Technologie, zusammen mit neun Teilnehmern, die sich einer Gehirnoperation unterziehen, ermöglichten es einem Team von Neurowissenschaftlern und Neurochirurgen aus ganz Kanada und den USA, die Frage zu beantworten, wie wir Sprache verstehen.

„Wir gingen in diese Studie in der Hoffnung, Beweise dafür zu finden, dass die Darstellung von Lauten auf niedriger Ebene in die Darstellung von Wörtern auf hoher Ebene umgewandelt wird“, sagte Dr. Edward Chang, einer der Autoren der Studie von der University of California, San Francisco.

Wenn wir sprechen hören, wandelt die Cochlea in unserem Ohr diese in elektrische Signale um, die sie dann an die Hörrinde im Gehirn sendet. Vor ihrer Forschung, erklärte Chang, glaubten die Wissenschaftler, dass diese elektrischen Informationen von einem bestimmten Bereich verarbeitet werden müssten, der als primärer Hörkortex bekannt ist, bevor sie in die Silben, Konsonanten und Vokale übersetzt werden können, aus denen die Wörter bestehen, die wir verstehen.

"Das heißt, wenn Sie die Stimme Ihres Freundes in einem Gespräch hören, werden die verschiedenen Frequenztöne ihrer Stimme zuerst im primären auditiven Kortex abgebildet ... bevor sie im primären auditiven Kortex in Silben und Wörter umgewandelt werden.

Wir dachten, wir wüssten, wie unser Gehirn Sprache versteht. Wir lagen falsch

„Stattdessen waren wir überrascht, Beweise dafür zu finden, dass der nicht-primäre auditorische Cortex keine Eingaben vom primären auditorischen Cortex benötigt und wahrscheinlich ein paralleler Weg zur Sprachverarbeitung ist“, sagte Chang.

Um dies zu testen, stimulierten die Forscher den primären Hörkortex im Gehirn der Teilnehmer mit kleinen, harmlosen elektrischen Strömen. Wenn die Teilnehmer diesen Bereich brauchten, um Sprache zu verstehen, würde eine Stimulierung ihre Wahrnehmung dessen, was ihnen gesagt wurde, verhindern oder verzerren.

Überraschenderweise konnten die Patienten immer noch alle Worte, die zu ihnen gesagt wurden, deutlich hören und wiederholen.

Dann stimulierte das Team einen Bereich im nicht-primären Hörkortex.

Die Auswirkungen auf die Fähigkeit der Patienten, das Gesagte zu verstehen, waren signifikant. „Ich konnte Sie sprechen hören, kann aber die Worte nicht verstehen“, sagte einer. Ein anderer Patient sagte, es klang, als würden die Silben in den gehörten Wörtern vertauscht.

„[Die Studie] fand Beweise dafür, dass der nicht-primäre auditorische Kortex keine Eingaben vom primären auditiven Kortex benötigt, was bedeutet, dass es wahrscheinlich einen parallelen Weg zur Sprachverarbeitung gibt“, erklärte Chang.

„[Wir dachten, es wäre] ein serieller Weg – wie ein Fließband. Die Teile werden entlang eines einzigen Weges zusammengebaut und modifiziert, und ein Schritt hängt von den vorherigen Schritten ab.

"Ein paralleler Pfad ist einer, bei dem es andere Pfade gibt, die ebenfalls Informationen verarbeiten, die unabhängig sein können."

Die Forscher weisen darauf hin, dass dies zwar ein wichtiger Schritt nach vorne ist, sie aber noch nicht alle Details des parallelen Hörsystems verstehen.

„Es wirft sicherlich mehr Fragen auf, als es beantwortet“, sagte Chang. „Warum hat sich das entwickelt und ist es spezifisch für den Menschen? Was ist die anatomische Grundlage für die parallele Verarbeitung?

"Der primäre Hörkortex spielt vielleicht keine entscheidende Rolle beim Sprachverständnis, aber hat er andere potenzielle Funktionen?"