Menu
Projekt
Benutzerpositionsabhängige Werkstückausrichtung
Projekt auf einen Blick

Projekt auf einen Blick

Benutzerpositionsabhängige adaptive Darstellung von 3D-Daten (z. B. CAD-Werkstück) ohne zusätzliche stereoskopische Hardware.

Ausgangslage

Ausgangslage

3D-Vision-Module haben sowohl im Maschinenbau als auch im Home-Entertainment-Bereich aufgrund der erforderlichen zusätzlichen Hardware (Bildaufnahme, Virtual-Reality-Headsets, 3D-Brillen) nur begrenzten Erfolg. In den letzten Jahren haben vor allem die Gaming- und Bildungsbranche, wo Virtual- oder Augmented-Reality zum Einsatz kommen, von solch spezialisierter Headgear (z. B. VR-Brillen) profitiert. Viele andere industrielle und biomedizinische Anwendungen wie z. B. Computer Aided Design (CAD) oder tomographische Datendarstellung haben die erweiterten 3D-Rendering-Fähigkeiten heutiger Computerhardware bisher jedoch noch nicht voll ausgeschöpft.

Projektziel

Projektziel

Dem Benutzer sollen 3D-Daten wie z. B. mit CAD-Programmen entwickelte Werkstücke in einer quasi-realistischen 3D-Ansicht präsentiert werden. Die Ansicht auf dem Bildschirm wird dabei durch die Kopfbewegungen der betrachtenden Person gesteuert. So ergibt sich – ähnlich wie bei einem Hologramm – der Eindruck eines 3D-Werkstücks. Zum Beispiel wird das Objekt bei seitlicher Kopfbewegung seitlich gedreht, sodass nun das Werkstück von der Seite betrachtet werden kann.

Umsetzung

Umsetzung

Wir verwenden Standard-Desktop-PC-Hardware (Monitor und Webcam), um von der Benutzerposition abhängige Projektionen von 3D-Daten ohne zusätzliche Headgear anzuzeigen. Die Benutzerposition wird anhand von Webcam-Bildern erkannt und die gerenderten 3D-Daten (d. h. die Ansicht) an die entsprechende Benutzerposition angepasst, was zu einem Quasi-Virtual-Reality-Rendering führt, wenn auch ohne den 3D-Effekt einer richtigen 3D-Kopfbedeckung.

Der Ansatz hat viele Anwendungen, von der medizinischen Bildgebung über Konstruktion und CAD bis hin zu Architektur, Ausstellungen, Kunst und Performances. Abhängig von der Position des Benutzers, d. h. der erkannten Kopfposition, werden die Daten unterschiedlich dargestellt, um den Blickwinkel (Zoom) und die Richtung des Benutzers zuzuordnen. Wenn der Benutzer seinen Kopf vor den Monitor bewegt, werden verschiedene Merkmale des gerenderten Objekts sichtbar. Wenn sich der Benutzer dem Bildschirm nähert, wird der Blickwinkel der gerenderten Daten verringert, was zu einer vergrösserten Version des gerenderten Objekts führt.

Adaptives Rendering von Beispiel-Objekten
Resultate

Resultate

Das Projekt wurde als Forschungsprojekt gefördert durch die Fachhochschule Graubünden durchgeführt. Die Ergebnisse sind in einer wissenschaftlichen Arbeit publiziert.

Team

Team

Weiterführende Information

Weiterführende Information

Beteiligte