Mit den Jahren wird der Frühling immer stiller. Je älter ein Mensch ist, um so schwerer fällt es ihm, hohe Töne wahrzunehmen, Gesprächen vor Hintergrundgeräuschen zu folgen und Kinderstimmen zu verstehen. Theoretisch ließe sich das Problem bekämpfen, indem die hohen Frequenzen in tiefere Töne umgewandelt werden. Doch erst moderne Computertechnik ermöglicht es, diese an sich einfache Idee auch in die Tat umzusetzen.
Nicht nur das Alter kann einem Menschen die hohen Töne rauben, auch Krankheiten, Verletzungen, zu lauter Lärm oder Nebenwirkungen von Medikamenten lassen mitunter die Welt stiller werden. Üblicherweise nehmen Haarzellen im Ohr das akustische Signal auf und leiten es zur Auswertung weiter an das Gehirn. Bei einem schweren Verlust des Hörvermögens im Bereich hoher Frequenzen sind die Haarzellen für diese Töne abgestorben oder verletzt. Die betroffenen Personen haben daher Schwierigkeiten, die schwächeren Anteile gesprochener Sprache richtig wahrzunehmen oder Wörter mit "f", "s" oder "sch" zu erkennen. Außerdem haben sie Nachteile, wenn es darum geht, einzelne Stimmen vor allgemeinem Gemurmel im Hintergrund zu verstehen.
Der verlorene Abschnitt könnte theoretisch wieder erreichbar werden, indem die hohen Geräusche in Schwingungen mit niedrigerer Frequenz umgewandelt werden, so daß gesunde Haarzellen als Empfänger einspringen. "Theoretisch könnte es erfolgreich sein, die Sprache in niedrigere Frequenzen zu verschieben. Deshalb wollten wir diese Technik ein weiteres Mal ausprobieren und dabei neue Computertechnologie benutzen", sagt Christopher W. Turner von der University of Iowa ( Journal of the Acoustical Society of America vom August 1999, Abstract).
Frühere Versuche hatten nur unbefriedigende Resultate geliefert. "Man kann nicht einfach eine Rede aufnehmen und dann langsamer abspielen, denn das zerstört unter Umständen das wichtige Zeitspiel der Anfangsphasen einiger Klänge", erklärt Turner. "Außerdem können Sie so nicht lange mit der laufenden Konversation Schritt halten. Und zudem verschoben ältere Technologien die Frequenzen derartig, daß sie die Klänge durcheinander brachten und nicht das Verhältnis der Frequenzen innerhalb des Klanges beibehielten."
Gerade dieses Verhältnis ist jedoch unbedingt notwendig, damit das Gehirn die Information richtig verarbeiten kann. Die absolute Frequenz spielt dagegen nur eine untergeordnete Rolle. So kann eine Silbe, die mit einer Männerstimme gesprochen wird, zum Beispiel Amplitudenmaxima bei 500, 1500 und 2500 Hertz haben. Bei Frauen lägen diese lautesten Frequenzen etwa bei 700, 2100 und 3500 Hertz. Die neue computergestützte Methode von Turner senkt die Stimmlage der Silben relativ um einen bestimmten Prozentsatz. Dadurch rutscht eine Frauenstimme in die Männerlage, und der Bariton wird zum Baß - eine Verschiebung, durch welche alle Töne von gesunden Haarzellen aufgenommen und vom Gehirn verarbeitet werden können.
Zusammen mit dem Sprach- und Hörpathologen Richard Hurtig führte Turner seine Studie an drei Personen mit normalem Gehör durch sowie 15 Menschen, die im oberen Frequenzbereich schwerwiegende Probleme hatten, tiefe Töne jedoch gut wahrnehmen konnten. Die Wissenschaftler spielten den Teilnehmern unsinnige Silben mit verschiedenen Lautstärken und Frequenzen vor. Tests mit sinnvollen Wörtern hätten zu falschen Ergebnissen führen können, wenn die Probanden ein bekanntes Wort scheinbar verstanden, es in Wirklichkeit aber mit ihrem gespeicherten Wissen rekonstruiert hätten.
"Die Teilnehmer gaben an, die angepaßten weiblichen Stimmen wären verständlich gewesen, hätten jedoch ungewöhnlich geklungen", sagt Turner. "Auf jeden Fall stimmten sie überein, daß die Sprache besser zu verstehen war." Nach seinen Angaben ist die neue Kompressionstechnologie kein Allheilmittel. Allerdings kann sie moderne Hörgeräte noch weiter verbessern. In den nächsten Versuchen wollen die Forscher nun testen, wie sich ihr Verfahren bei ganzen Sätzen bewährt und ob es das Hören einzelner Stimmen vor einem lauten Hintergrund erleichtert.
Siehe auch
Copyright: Spektrum der Wissenschaft