Im nahen Umfeld bietet der Blindenstock Informationen über die Umwelt, aber wo in einiger Entfernung der Durchgang zwischen Häuserfronten ist, zeigt er nicht. Das können radargestützte Systeme, die das Konsortium des Projekts Ravis-3D entwickelt hat. Die Systeme, die intuitiv benutzbar sind, erfassen die Umgebung und setzen sie in Audiosignale um, die über ein halboffenes Hörgerät ausgegeben werden. Ein Forscherteam der RUB entwickelte für das Projekt unterschiedliche Sensoren und Systeme und testete sie gemeinsam mit Betroffenen. „Das Erstaunliche war, dass es vor allem die einfachen, intuitiven Systeme waren, die das positivste Nutzer-Feedback ergaben“, berichtet Prof. Dr. Nils Pohl, Inhaber des Lehrstuhls für Integrierte Systeme der RUB.
Insgesamt drei Lehrstühle der Ruhr-Universität Bochum (RUB) sowie mehrere Industriepartner haben das dreijährige Projekt abgeschlossen, das von der Europäischen Union und dem Land Nordrhein-Westfalen gefördert wurde.
Sensoren, Antennen, Audio
Das Konsortium machte sich zunächst daran, das technisch Machbare zu entwickeln. So bauten sie unterschiedliche Radarsysteme, die von rotierenden 360-Grad-Sensoren über spezielle Antennen, welche das Gesichtsfeld des Nutzers erfassen, bis hin zu gerichteten Sensoren reichten, die die Entfernung eines Fokuspunkts messen. Auch für die Audioausgabe der Umgebung griffen die Forscherinnen und Forscher in die Trickkiste: Beispielsweise analysierte das System die Geräuschumgebung und blendete dann die Hindernisse aus, die selbst Töne von sich geben.
Akkurat in die akustische Umgebung eingliedern
„Akustisch aktive Hindernisse, wie etwa ein sprechender Mensch, sollte das System nicht als Hindernis begreifen, da der Nutzer sie ja ohnehin schon wahrnimmt“, erläutert Prof. Dr. Rainer Martin vom Lehrstuhl für Kommunikationsakustik der RUB. Durch Vermessungen des individuellen Hörvermögens von Nutzern wurde die räumliche Ortung von Quellen weiter verbessert. „Damit wollten wir erreichen, dass sich die Vertonung von realen Hindernissen beziehungsweise Navigationshinweisen möglichst akkurat in die natürliche akustische Wahrnehmung der Nutzer eingliedert“, so Prof. Dr. Gerald Enzner aus der RUB-Kommunikationsakustik.
Das wiederum interessierte die am Projekt beteiligten Firmen Kampmann Hörsysteme und „Sensorbasierte Neuronal Adaptive Prothetik“, kurz Snap, besonders. Ihre Aufgabe war es, die Systeme mit Betroffenen zu testen sowie Hörgeräte zur Audioausgabe zu integrieren. Dabei hat sich vor allem ein System positiv hervorgetan: Ein relativ einfaches Sensorsystem, das man wie eine Taschenlampe in eine Richtung halten kann, um die Entfernung zum nächsten Hindernis als Ton ausgegeben zu bekommen. „In Verbindung mit der Audioausgabe über Hörgeräte ergibt sich damit ein intuitiv zu bedienender virtueller Blindenstock, der in größerer Reichweite funktioniert“, erläutert Dr. Corinna Weber von der Firma Snap.
Großes Vermarktungspotenzial
Die Mitglieder des Konsortiums sind sicher, dass die Ergebnisse von Ravis-3D ein großes Vermarktungspotenzial haben. „Ein solches System ist bisher am Markt noch nicht vorhanden“, sagt Dirk Kampmann von der Firma Kampmann Hörsysteme, die das Konsortium leitet. „Wir müssen nun daran arbeiten, dass die Komponenten kleiner und günstiger werden und dass das System sich in weitere IT-basierte Blindenhilfsmittel zum Beispiel auf dem Smartphone gut eingliedert. Wenn das gelingt, können wir den Markt an Blindenhilfsmitteln in den kommenden Jahren bereichern.“
Eine Filmsequenz, wie der virtuelle Blindenstock funktioniert, gibt es auf der RUB-News-Seite unter https://news.rub.de/presseinformationen/wissenschaft/2019-08-06-elektrotechnik-virtueller-blindenstock-hilft-bei-der-orientierung. Einen kurzen Filmbeitrag von RTL West zum Thema gibt es außerdem auf TVNow unter https://www.tvnow.de/shows/rtl-west-89/2019-08/episode-1-thema-u-a-totes-baby-1670455 (Minute 15:38) .(Foto: RUB/Kramer)