Beschreibung
Beeinträchtigungen der optischen Wahrnehmung führen bei Menschen zu großen Herausforderungen der alltäglichen Mobilität. Konventionelle Mobilitätshilfen wie der Blindenlangstock liefern in unbekannten oder unstrukturierten Umgebungen häufig keine ausreichende Unterstützung, sodass die Assistenz sehender Personen benötigt wird. Um dennoch ein erhöhtes Maß an Selbstständigkeit zu ermöglichen, werden im Rahmen dieser Dissertation Methoden des maschinellen Lernens für die Assistenz untersucht. Dabei werden Daten einer 3D-Kamera mittels faltender neuronaler Netze semantisch segmentiert, um Wegverläufe und Hindernisse in gering strukturierter Umgebung zu kartieren. Des Weiteren werden ergänzende Sensormodalitäten zur Erfassung der Umgebung untersucht. Die gewonnenen Informationen können in Umgebungskarten überführt und durch die Berechnung eines sicheren Pfades für die Navigation genutzt werden. Die Navigationsanweisungen können schließlich über akustische und vibrotaktile Schnittstellen an die nutzende Person intuitiv übermittelt werden. Mittels eines Demonstrators in Form eines Rucksacks werden die Methoden werden im Rahmen von Labor- und Feldtests bewertet. Die Nutzerfreundlichkeit und Intuitivität werden im Rahmen von Probandenstudien untersucht.
Bewertungen
Es gibt noch keine Bewertungen.