Blindflug-Entwicklung für die Vision Pro
Shownotes
Räumliches Computing, bislang ganz zweidimensional: Beim Programmieren erster Apps für visionOS müssen sich praktisch alle Entwickler rein auf Apples Simulator beschränken, um Bedienelemente und Funktionen zu testen. Zwangsläufig spielt sich das auf einem 2D-Bildschirm ab, statt in der räumlichen Mixed-Reality- oder Virtual-Reality-Ansicht von Apples Vision Pro.
In Episode 16 spricht Leo Becker mit Gero Gerber über Apples visionOS-SDK und zugehörige Tools zur Erstellung von 3D-Modellen wie Reality Composer Pro. Gerber ist freiberuflicher iOS-Entwickler mit dem Schwerpunkt Augmented Reality und Echtzeit-3D – sowie langjähriger Erfahrung im Gaming-Bereich. Dabei geht es unter anderem darum, wie sich Entwickler der neuen Plattform nähern können, welche Schmerzpunkte es derzeit gibt – und wie aufwendig die Anpassung bestehender iOS-Apps ist. Auch die Entwicklungsumgebung Unity ist Thema, die mit plötzlich geänderten Geschäftsbedingungen jüngst massiv in die Kritik geraten ist.
Entwickeln für die Apple Vision Pro: So funktioniert das visionOS SDK
Neuer Kommentar