Blindflug-Entwicklung für die Vision Pro

Shownotes

Räumliches Computing, bislang ganz zweidimensional: Beim Programmieren erster Apps für visionOS müssen sich praktisch alle Entwickler rein auf Apples Simulator beschränken, um Bedienelemente und Funktionen zu testen. Zwangsläufig spielt sich das auf einem 2D-Bildschirm ab, statt in der räumlichen Mixed-Reality- oder Virtual-Reality-Ansicht von Apples Vision Pro.

In Episode 16 spricht Leo Becker mit Gero Gerber über Apples visionOS-SDK und zugehörige Tools zur Erstellung von 3D-Modellen wie Reality Composer Pro. Gerber ist freiberuflicher iOS-Entwickler mit dem Schwerpunkt Augmented Reality und Echtzeit-3D – sowie langjähriger Erfahrung im Gaming-Bereich. Dabei geht es unter anderem darum, wie sich Entwickler der neuen Plattform nähern können, welche Schmerzpunkte es derzeit gibt – und wie aufwendig die Anpassung bestehender iOS-Apps ist. Auch die Entwicklungsumgebung Unity ist Thema, die mit plötzlich geänderten Geschäftsbedingungen jüngst massiv in die Kritik geraten ist.

Entwickeln für die Apple Vision Pro: So funktioniert das visionOS SDK

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.