Per Radartechnologie abgescannt und in ein akustisches Bild übersetzt: So soll die Umgebung für Blinde und sehbehinderte Menschen sich künftig darstellen, damit sie sich besser orientieren können. Ein entsprechendes Sensorsystem entwickeln Forscher der Ruhr-Universität Bochum (RUB) gemeinsam mit Partnern aus der Praxis im Projekt Ravis-3D. Es wird für drei Jahre von der Europäischen Union und dem Land Nordrhein-Westfalen mit insgesamt 1,8 Millionen Euro gefördert. 1,36 Millionen Euro davon gehen an die RUB.
Hightech soll im Alltag helfen
Bisher halfen vor allem Blindenhund und Blindenstock sehbehinderten Menschen, sich zu orientieren. Die Partner im Projekt Ravis-3D wollen jetzt die Alltagsunterstützung mit Hightech verbessern. Ihr Plan: Spezielle Sensoren am Kopf oder Körper erfassen die Umgebung per Radar. „Dank modernster Radartechnologie, ähnlich der, die zukünftig autonomes Fahren ermöglichen wird, funktioniert die Sensorik auch bei schlechten Lichtverhältnissen und bei Regen“, erklärt Projektpartner Prof. Dr. Nils Pohl vom Lehrstuhl für Integrierte Systeme der RUB. Anschließend wird die Umgebung in Echtzeit in Audiosignale übersetzt. Es entsteht eine 3D-Audioumgebung, welche dem Nutzer über ein Hörgerät dargestellt wird. Der Drehradar im reflexionsfreien Raum der RUB-Forscher
Das System soll Hindernisse und Bewegungen durch unterschiedliche Geräuscheigenschaften wie Tonhöhe oder Tonfrequenz aus der entsprechenden richtigen Richtung kommend darstellen. „Um die 3D-Audioumgebung nutzbar zu machen, ist ein sehr kleines, aber schnelles Rechensystem notwendig“, so Prof. Dr. Michael Hübner vom Lehrstuhl für Eingebettete Systeme. „Es muss die Radardaten in Echtzeit verarbeiten und Bewegungen des Nutzers sowie Drehungen des Kopfes mit einberechnen. So kann es ein frei rotierendes 3D-Umfeld erzeugen und über das Hörgerät ausgeben.“
Die Technik soll es dem Nutzer möglich machen, Hindernisse zu erkennen, Entfernungen einzuschätzen und sich verhältnismäßig natürlich in der Umgebung zu bewegen. Die SNAP GmbH, ein weiterer Projektpartner, wird unter anderem prüfen, ob Audiosignale über ein Hörgerät für die Orientierung ausreichen, oder ob taktile Signale – also ein kurzes Antippen auf der Haut – eine zusätzliche Hilfestellung sein kann. Interdisziplinäre Zusammenarbeit
Möglich wird die Entwicklung des innovativen Hilfsmittels, weil drei Lehrstühle der Fakultät für Elektrotechnik und Informationstechnik der RUB und zahlreiche Partner aus der Wirtschaft ihre Kompetenzen bündeln: Das Team des Lehrstuhls für Integrierte Systeme übernimmt die Entwicklung der Radarsensorik. Es will die Sensorik weiter verkleinern und angenehm tragbar machen. Das Team vom Lehrstuhl Eingebettete Systeme kümmert sich darum, dass die Radar-Daten in Echtzeit verarbeitet werden und daraus eine virtuelle 3D-Karte entsteht. In enger Kooperation mit dem Institut für Kommunikationsakustik sollen echtzeitfähige Algorithmen entwickelt werden, um die virtuelle Umgebungskarte dem Nutzer angenehm und hochauflösend über eine akustische 3D-Darstellung zugänglich zu machen.
„Niedrige Latenz und individuelle akustische Anpassung sind hierbei die mutmaßlichen Schlüsselfaktoren für die empfundene Qualität der virtuellen Akustik“, sagt Dr. habil. Gerald Enzner. Besonderen Wert legen die Forscher darauf, dass das System zudem intuitiv nutzbar ist und die Tondarstellung keinen Stress erzeugt.