Skip to main content
Monthly Archives

Juli 2023

Niagara Dancer – ein Mini Projekt

By 3D Visualisierung, Film / VFX / Kamera, Projekt, Realtime

Dynamische Partikelchoreografie mit Motion Capture in Unreal Engine

Die Verbindung von Bewegungsdaten und Echtzeitvisualisierung eröffnet faszinierende Möglichkeiten, digitale Welten zum Leben zu erwecken. In einem aktuellen Projekt habe ich mich damit beschäftigt, MoCap-Daten in Unreal Engine zu integrieren, um daraus eine einzigartige Partikelchoreografie zu generieren.

Ausgangspunkt war die Aufzeichnung realer Bewegungsdaten mithilfe eines Motion Capture-Systems. Diese Daten habe ich dann nahtlos in meine Unreal Engine-Umgebung übernommen. Anstatt jedoch ein menschliches 3D-Modell zu animieren, habe ich die Bewegungsinformationen dazu genutzt, ein dynamisches Partikelsystem zu steuern.

So entstand ein fließender, organischer „Partikel-Tänzer“, der die Bewegungen und Gesten der Vorlage auf beeindruckende Weise wiedergibt. Die Partikel folgen den Bewegungspfaden präzise und scheinen beinahe lebendig zu werden. Durch den Einsatz von Niagara-Effekten und ausgefeilten Materialeinstellungen konnte ich der Visualisierung zudem eine ästhetisch ansprechende, fast mystische Anmutung verleihen.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Dieses Projekt zeigt, wie die Verknüpfung von Motion Capture-Technologie und Unreal Engine völlig neue Möglichkeiten für dynamische Echtzeitvisualisierungen eröffnet. Anstatt starrer 3D-Charaktere entstehen so organische, tänzerische Partikelwesen, die den Betrachter in ihren Bann ziehen. Ich bin sehr gespannt, wie ich diese Erkenntnisse in Zukunft weiterentwickeln und in noch faszinierendere Visualisierungen überführen kann.

Jedi-Experiment mit Ultraschall

By 3D Visualisierung, Projekt, Realtime

Dynamische Interaktion zwischen realer und virtueller Welt mit Unreal Engine

Dieses faszinierende „Jedi“-Experiment zeigt eindrucksvoll, wie sich reale und virtuelle Welt miteinander verbinden lassen. Ohne aufwendige Signalglättung überträgt ein Ultraschallsensor hier dynamisch Abstandsdaten vom Arduino in die Unreal Engine 5-Umgebung.

Dadurch verändert sich die Position des 3D-Modells in der virtuellen Szene in Echtzeit entsprechend der Messwerte aus der realen Welt. Eine einfache, aber sehr wirkungsvolle Demonstration dafür, wie vielfältig die Möglichkeiten der Interaktion zwischen physischer und digitaler Realität sind.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Dieses Experiment ist nur eine von unzähligen Anwendungsmöglichkeiten, bei denen Unreal Engine als leistungsfähige Plattform dient, um reale Sensordaten in faszinierende virtuelle Erlebnisse zu überführen. Ob in Simulationen, Produktvisualisierungen oder immersiven Erlebniswelten – die Fusion von physischer und digitaler Realität eröffnet ganz neue Dimensionen der Interaktion.

Ich freue mich auf ihre Anfrage.