- Projektbeschreibung
- Projektziel
Integration cyberphysischer Funktionen in Schiffsfenster für sichere Schiffsführung
Mit fortschreitender Globalisierung und immer stärker verflochtenen Wirtschaftsräumen steigen die Anforderungen an die benötigte Transport- und Versorgungs-Infrastruktur. Die Schifffahrt spielt hierbei eine besondere Rolle, da sich die systeminhärenten räumlichen Einschränkungen stark von denen der Luftfahrt sowie dem Schienen- und Straßenverkehr unterscheiden. Während letztere direkt an die Infrastruktur der Straßen bzw. Schienen gebunden sind, wird der Luftverkehr strikt und zentral überwacht und gesteuert. Die Schifffahrt hingegen ist zwar an Wasserstraßen gebunden, wird durch diese aber weniger eingeschränkt als der Schienen- bzw. Straßenverkehr. Im Vergleich zur Luftfahrt werden Schiffe weniger strikt überwacht und sind außerhalb von Hafengebieten häufig ‚auf sich allein gestellt‘. Hieraus ergeben sich deutlich höhere Anforderungen an die Autonomität und an vorausschauende Planung.
Um diesen Anforderungen gerecht zu werden, kommen immer mehr komplexe, computergestützte Assistenzsysteme und Sensornetze zum Einsatz. Die erhaltenen Informationen erlauben es dem Schiffsführer, die aktuelle Situation korrekt einzuschätzen und so richtig zu reagieren und voraus zu planen. Insbesondere aktuelle Informationen zur Navigation, dem Wetter und lokalen Besonderheiten (z.B. kreuzende Schiffe) sind unerlässlich. Des Weiteren muss der technische Status des Schiffes fortwährend überwacht werden. Aus der Menge an Daten aus vielfältigen Quellen (lokale Sensoren, zentrale Informationsdienste etc.) muss der Schiffsführer die aktuell wichtigsten extrahieren. Bei einer getrennten Darstellung auf unterschiedlichen Systemen kann dies zu einer nur schwer zu bewältigenden Aufgabe werden. Neben der Akquise relevanter Daten ist daher eine wesentliche Herausforderung bei der Ausstattung von Schiffen die Aufbereitung und Visualisierung der großen Menge an gesammelten Informationen.
Dieses Projekt hat zum Ziel, eine voll integrierte Nutzerschnittstelle (HMI : Human-Machine-Interface) zu schaffen und diese gleichzeitig um Sensorik zur Umgebungsüberwachung zu erweitern. Hierzu wird ein intelligentes Fenstermodul entwickelt, welches ein standardisiertes Brückenfenster ersetzen soll. Zum Inneren der Brücke wird eine adaptive Visualisierung von ausgewählten, aufgearbeiteten Informationen angeboten werden. Durch die Anpassung der Darstellung auf den Betrachter kann dabei eine Erweiterung der sichtbaren Realität (AR : Augmented Reality) erreicht werden, ohne gesonderte Head-Mounted-Displays zu verwenden. Ein solches HMI erhöht nicht nur die Fähigkeit, die verfügbaren Informationen sinnvoll zu filtern, sondern erlaubt es auch, sich von der starren räumlichen Organisation der Brücke zu lösen. Zur Außenseite der Bücke wird das Fenstermodul mit Sensorik ausgestattet, welche die Stärke von auftreffenden Wellen misst. Mit Hilfe der erfassten Daten können mögliche Auswirkungen des Aufpralls abgeschätzt und die globale Erforschung von Wellensystemen unterstützt werden. Durch die Integration eines Messsystems zur Analyse von Riesenwellen (auch Freakwaves oder „Kaventsmänner“) wird die Einheit zu einer Kombination aus Sensorik und eingebettetem Monitoring. Auf diese Weise entsteht ein Multifunktionsmodul, welches so zu einem „Smart Window“ wird.
Die zentrale Aufgabe des Fraunhofer IGD in diesem Projekt ist, die vorhandenen Informationen aufzuarbeiten und so zu visualisieren, dass eine echte Erweiterung der erfassbaren Realität erreicht wird. Dazu werden Verfahren entwickelt, welche Wahl und Kombination der relevanten Informationen automatisiert und eine nutzerbezogene Visualisierung in Echtzeit ermöglichen. Die besonderen Herausforderungen sind dabei die Kontextsensitivität (Tag/Nacht, Hafen/Freiwasser etc), die Bewegungsfreiheit der Nutzer und die Einhaltung bestehender Normen. Um die Bewegungsfreiheit auf der Brücke nicht einzuschränken, wird ein System zur Verfolgung des Betrachters in der speziellen Umgebung der Schiffsbrücke entwickelt. Dieses wird als Teil der adaptiven Visualisierung verwendet und ermöglicht die personenbezogene Darstellung interaktiver Inhalte als Overlay (Deckungsgleiche Einblendung) zur sichtbaren Umgebung. So kann nicht nur die geplante Route in den Seeweg eingeblendet werden, sondern auch sonst unsichtbare Entitäten (zB Bojen im Nebel) hervorgehoben werden.