Warum der eigenen Stimme das gewisse Etwas fehlt

Warm und angenehm, so wünschen sich die meisten ihre akustische Visitenkarte. Leider gibt es nur einen einzigen Menschen auf der Welt, der die Stimme so hört, wie man sie am besten findet und das ist man selbst. Dass man die eigene Stimme nicht nur über den Luftschall, sondern noch einmal über die Knochen hört, gibt ihr offensichtlich etwas, das fehlt, wenn man das erste Mal eine Aufnahme von sich hört. Edison hat in seiner Begeisterung sicher nichts gefehlt, als es ihm endlich gelang, ein “Hello” in den Trichter zu brüllen und den Schall zu konservieren, dass man ihn hinterher wieder und wieder anhören konnte. Heute, mehr als 100 Jahre nach den ersten Phonographen, ist man schon ein wenig anspruchsvoller; aus der Hüfte geschätzte 99,9 % sind wenig begeistert, um nicht zu sagen entsetzt, wenn sie das erste Mal ihre Anrufbeantworter-Ansage abhören. Es klingt wie ein Abklatsch des vertrauten Klangs, die Stimme schmeckt wie ein zu kurz gezogener Tee: man ahnt die Richtung, aber die Substanz fehlt.

Querschnitt des InnenohrsGenauer gesagt fehlen die Schwingungen, die über Zähne, Schädelknochen oder den Kiefer an unseren Ohrkanal, dann das Trommelfell und über die Gehörknöchelchen im Mittelohr schließlich an die Innenohrschnecke weitergeleitet werden: der Körperschall. Aber was genau lässt die eigene Stimme von innen viel angenehmer klingen als von außen? Es gibt nur wenige Studien zu diesem Thema, vielleicht erscheint es zu “populär.” Aber eine der Möglichkeiten ist, dass nicht nur die Art der Schwingungen über die eigenen Knochen die Stimme für einen selbst so angenehm machen, sondern vielleicht eher die zeitliche Verzögerung. Denn über die Knochen verbreiten sich die Schallwellen schneller, via Luft kommen sie etwas später an. Genau genommen hört man sich selbst also stets mit einem ganz besonderen Echo. Durch die extrem geringe Verzögerung wirkt das beinahe wie ein Stereoeffekt.

Im Umkehrschluss könnte die eigene, konservierte Stimme so ungewohnt klingen, weil sie als “zu mono” empfunden wird. Ähnlich wie bei einer Musikanlage, bei der ein einziger Lautsprecher dünner und weniger räumlich klingt als zwei Lautsprecher, selbst wenn diese exakt das gleiche wiedergeben (und also kein “echtes” Stereo sind). Der Schall der einen Box hat einen etwas längeren Weg zum Ohr als der Schall der zweiten Box, wenn man nicht ganz genau in der Mitte der beiden Boxen steht – also im Normalfall. Diese Phasenverschiebung der beiden Schallsorten ist beim natürlichen Hören der eigenen Stimme normal. Erst wenn man oft genug eine Aufnahme von sich hört, gewöhnt man sich auch an die künstlich reproduzierte Stimme, die ironischerweise für alle anderen das Original ist.

Forscher haben jetzt einen Weg gefunden, Sprache direkt aus der Gehirnaktivität zu rekonstruieren. Es reicht aus, dass wir jemanden sprechen hören oder einfach nur ein Buch lesen, also Klang denken. Dabei werden bestimmte Zentren im Gehirn über Neuronen aktiviert und es gilt Aufgabenteilung – je nach Frequenz z. B. werden unterschiedliche “Neuronen-Spots” aktiv. Diese Klang-Landkarte im Gehirn lässt Rückschlüsse über das Gehörte oder Gedachte zu. Auch wenn die Rekonstruktion der Stimme mit dem Original noch nicht ganz mithalten kann, könnte es Patienten im Wach-Koma, Locked-In-Patienten, oder Menschen mit Sprachlähmungen ihre Stimme wiedergeben.

 

 

Und weil der Luftschall nicht nur für das Hören der eigenen Stimme unzureichend ist, sondern Luft als Weiterleitungsmedium sowieso nicht so toll ist, fragen sich Akustiker, ob es nicht viel besser wäre, Klänge direkt an die Nervenbahnen zu übertragen, ohne den Umweg über die Luft zu gehen. Es gibt bereits Implantate, die die Hörschnecke (Cochlea) direkt stimulieren und in Zukunft soll dies auch durch Licht, genauer gesagt implantierte Leuchtdioden möglich werden. Bis ein MP3-Player allerdings ohne Kopfhörer auskommt, wird es wohl noch ein Weilchen dauern.

Lutz Ehrig

Lutz Ehrig
Lutz Ehrig studierte an der Technischen Universität Dresden Mechatronik mit der Spezialisierung auf Mikromechatronik und elektromechanische Systeme. An der Aalborg Universitet in Dänemark studierte er im Anschluss ein Jahr Akustik. Am Fraunhofer IDMT arbeitet Lutz Ehrig als wissenschaftlicher Mitarbeiter in der Abteilung Akustik und beschäftigt sich insbesondere mit der Weiterentwicklung von Lautsprechern.

Solveig Wehking

Solveig Wehking
Solveig Wehking hat Geographie an der FU-Berlin studiert und ihr Diplom als Medienberaterin an der TU-Berlin gemacht. Seit 2009 arbeitet sie als wissenschaftliche Mitarbeiterin in der Abteilung Forschungsplanung in der Zentrale der Fraunhofer-Gesellschaft für das Projekt Discover Markets und den Forschungs-Blog.

5 Antworten

  1. eilan

    Ich durfte mir vor kurzem mehrere Interviews anhören, die ich für meinen Masterarbeit geführt habe. Ich fand nicht nur meine Stimme furchtbar, sondern auch meinen Dialekt.

    • Solveig Wehking Solveig Wehking

      Tatsächlich den Dialekt? Vielleicht ein kleiner Trost, dass es wirklich allen so geht, dass sie sich ziemlich furchtbar finden, wenn sie sich die ersten Male hören. Das hängt meist auch nicht nur mit dem Klang zusammen ,-)

  2. Ich habe dazu eine weiterführende Zukunftsperspektive in Konzeptform entwickelt: “FUTURE PROSPECTS OF DIGITAL MEDIA” http://bit.ly/J2JqV6 :)

  3. Pingback: Thema der Woche: Ein Erdbeben der Empörung | Forschungs-Blog

  4. Der Artikel macht mich sprachlos.