VR∙Nerds

Lippensynchronisation in Unity 5 von Oculus

Quelle: Oculus

Viel Spaß!

Soziale Interaktionen und Erlebnisse sind wichtig für Virtual Reality Anwendungen, da Sie uns davon überzeugen können, dass das was wir wahrnehmen echt ist. selbst wenn es das nicht ist. Oculus möchte den Entwicklern helfen eine echte Multiplayerumgebung zu schaffen und veröffentlicht ein Plug-in für die Lippensynchronisation in Unity 5.

OVRLipSync – Lippensynchronisation in Unity 5

Die Rift von Oculus hat ein Mikrofon verbaut, welches für eine reibungslose Voice-Chat Kommunikation sorgen soll. Doch was ist schon eine Sprachübertragung ohne Lippenbewegungen? Es wäre nicht nur seltsam sondern könnte auch die Immersion zerstören. Daher bietet Oculus ab sofort ein einfaches Plug-In mit dem Entwickler die Lippen ihrer Spielfiguren mit eurer Stimme synchronisieren können. Die Datei im Developer Bereich von Oculus umfasst das Plug-In und einige nützliche Scripte. Aktuell enthält das Paket von Oculus drei Demoszenen, mit denen man direkt starten kann. Ein reiner Mund, ein weibliches Gesicht und ein Roboter. Wir haben die Demoszenen direkt ausprobiert. Das Ergebnis findet ihr hier:

 

 

Die leichte Verzögerung sollte in einem echten Chatraum weniger auffallen, als  das sie es im aktuellen Video tut. Die Stimme wird in einer echten VR-Szene auch leicht verzögert bei der zuhörenden Person ankommen und daher könnte das gesprochene dann noch besser zu den Lippenbewegungen passen.