Ich wurde diesen Sommer operiert und habe während meiner Genesung routinemäßig zwei Geräte verwendet: Ray-Bans die Meta zum einfachen Telefonieren und Musikhören, und Apple Vision Pro ins Kino fliehen. Für Letzteres habe ich eine Entwicklerversion von VisionOS 2 verwendet, deren Funktionen jetzt für jedermann auf dem Mixed-Reality-Headset verfügbar sind. Diejenigen, die eines haben, werden einige subtile Änderungen zu schätzen wissen, die die Verwendung etwas interessanter machen. Ich sage „ein wenig“, weil das Vision Pro zwar fortschrittlich ist, aber in Bezug auf seine Möglichkeiten immer noch ein eingeschränktes Headset ist.
Die Verwendung neuer Handgesten in VisionOS 2 ist fantastisch
Apple geht davon aus, dass Sie beim Vison Pro alles mit Ihren Augen und Händen erledigen. Und die integrierte Augen- und Handverfolgung ist so gut, dass das wahr ist. Das neueste Betriebssystem fügt außerdem Panel-Schnittstellen hinzu, die direkt über Ihren Händen erscheinen und so wie Popup-Panels aussehen. Meta hat dies schon seit Jahren in seinem Quest-Headset, aber Apples Interpretation der Funktionen fühlt sich bemerkenswert flüssig und bissig an.
Wenn ich meine Hand nach oben drehe, wird ein schwebendes Kreissymbol angezeigt und das App-Raster geöffnet, wenn ich mit den Fingern tippe. Das geht schneller und einfacher, als den Digital Crown-Knopf oben am Vision Pro zu drücken, was ich früher getan habe.
Wenn ich meine Hand noch einmal umdrehe, erscheint ein Kontrollzentrum-Widget, das mir noch besser gefällt. Dies ersetzt den seltsamen schwebenden Punkt oben auf dem Headset-Bildschirm (und erscheint immer noch von Zeit zu Zeit). Wenn ich es los werde, gibt es keine seltsamen Unterbrechungen mehr in meinem Sichtfeld. Das Widget zeigt auch die Uhrzeit an, ähnlich einer Uhr. Die Sorgen: „Wie spät ist es?“ in Vision Pro werden sofort behoben.
Das Widget zeigt auch die Akkulaufzeit, die Lautstärke und die WLAN-Verbindung an. Wenn ich mit den Fingern tippe, öffnet sich ein Untermenü für andere Steuerungseinstellungen, etwa die Verbindung zu meinem Mac als virtuellen Bildschirm oder das Überprüfen von Benachrichtigungen. Durch Tippen, Halten und Ziehen wird die Lautstärke angepasst, was mir ein weiteres Schwenken der Digital Crown erspart.
Es ist so gut und so einfach, dass ich mehr will. Ich möchte in diesem Modus das gesamte Vision Pro durch einfache Untergesten steuern und so vermeiden, mich durch größere Raster von Apps und Menüs zu kämpfen. Das kann passieren – und muss passieren.
Tastaturen funktionieren, wenn Sie sich in immersiven Umgebungen befinden
Meta fing an, Tastaturen zu erkennen und sie in VR zum Vorschein zu bringen, und das hat mir damals sehr gut gefallen. Das Headset von Apple verfügt jetzt standardmäßig über eine automatische Erkennung einer Mac- oder Bluetooth-Tastatur in immersiven Umgebungen; Ich kann meine Hände und meine Tastatur deutlich sehen, während ich von Stränden umgeben bin, die schöner sind als mein überfülltes Büro. In einer ruhigen Umgebung kann ich leichter schreiben.
3D-Fotokonvertierung: FOMO Delight
Manchmal zeichne ich auf meinem iPhone 15 Pro keine 3D-Videoclips auf und stelle dann fest, dass meine Erinnerungen nicht 3D-fähig sind, um sie später mit Vision Pro anzusehen. Darunter leidet auch meine gesamte Foto- und Videobibliothek. Apple verfügt in VisionOS 2 über eine brillante KI-fähige Funktion, die die Notwendigkeit eines neuen 3D-Foto-fähigen iPhone 16 fast überflüssig macht: Es wandelt 2D-Fotos einfach automatisch in 3D um.
Die Konvertierung erfolgt schnell und Fotos werden auf Ihrem Mac, iPhone und anderswo weiterhin normal in 2D angezeigt. Aber in Vision Pro sehen alte Fotos bemerkenswert dreidimensional aus. Alte Fotos meiner Kinder, Reisen, die ich vor einem Jahrzehnt unternommen habe … sie haben mich bewegt. Die Tiefenkonvertierung ist nicht immer perfekt, aber normalerweise erstaunlich. Dadurch hat es mir mehr Spaß gemacht, in meiner Fotobibliothek zu stöbern.
Safari eignet sich besser für Videos und WebXR
Apple startet jetzt (endlich) immersive WebXR-Erlebnisse, ohne in die Einstellungen gehen zu müssen, sodass Sie ein Web-VR-Erlebnis starten können, ohne eine spezielle Vision Pro-App zu benötigen. Videos werden auch in immersiven Umgebungen abgespielt, wodurch sich Netflix, YouTube und andere App-freie Videodienste auf dem Vision Pro eher wie Apps anfühlen. Das war etwas, was ich von Anfang an wollte. Ist es ein Game-Changer? Nein, aber gern geschehen.
Meditation verfolgt jetzt Ihre Atmung
Ein skurriler kleiner Bonus, der mir während einer Achtsamkeitsmeditation am Headset aufgefallen ist (etwas, das ich etwa jede Woche mache), ist, dass es mein Ein- und Ausatmen erkennt und die Animationen an meine Atemzüge anpasst. Apple hat mit seinem Mixed-Reality-Weltraumcomputer (noch) keine anderen Wege der Gesundheit und Fitness verfolgt, aber diese kleine Optimierung lässt mich fragen, wie viel mehr der Vision Pro optimiert werden könnte, um Bewegungen, Körperhaltung und andere damit zusammenhängende Dinge zu erkennen . zur Gesundheit.
Ich kann es kaum erwarten, das riesige gebogene Display von Mac auszuprobieren
Eine später in diesem Jahr verfügbare Funktion verspricht, die virtuelle Mac-Anzeige, die Sie in Vision Pro aktivieren können, auf eine riesige gebogene Anzeige zu erweitern, die Ihr gesamtes Sichtfeld umschließt. Meta verfügt bereits über eine ähnliche Technologie für seine Headsets, aber es wäre großartig, sie mit dem schönen Micro-OLED-Display von Apple auszuprobieren. Es ist immer noch nicht dasselbe wie mehrere virtuelle Mac-Displays, aber es fühlt sich an wie ein viel größerer Bildschirm für alle Apps, die Sie gleichzeitig geöffnet halten möchten.
Noch fehlt: Was ist mit dem iPhone, der Watch und Apple Intelligence?
In den letzten sechs Monaten habe ich in Vision Pro viel an meinem Mac gearbeitet, aber ich bin schockiert, dass das iPhone – das Gerät, das ich immer bei mir habe – verfügt noch nicht über eine direkte Schnittstelle. Ich würde das iPhone als physischen Controller für das Vision Pro verwenden, wenn ich könnte, oder um Dinge schnell zu tippen, schneller als das umständliche Tippen in die Luft im Headset, das ich jetzt tun muss. Oder um Informationen schnell hin und her zu teilen, indem Sie ein freigegebenes Element in einer weitläufigen Vision Pro-Ansicht erweitern. VisionOS 2 bietet eine Möglichkeit, den Bildschirm Ihres Telefons direkt in einem Popup-Fenster in Vision Pro abzuspielen, aber das ist nicht dasselbe.
Apple hat bereits Hook-Ins für Nachrichten, AirDrop und andere iCloud-ähnliche Dinge (sowie Kopieren und Einfügen zwischen Geräten), aber ich warte auf mehr. Apropos Apple-Geräte: Auch die Watch wäre ein perfektes Accessoire. Die Uhr erkennt bereits Handgelenksgesten und verfügt über haptisches Feedback sowie einen Touchscreen. Es könnte als Fitness-Tracker mit Mixed-Reality-Apps verwendet werden, was das konkurrierende Quest-Headset bereits tut.
Außerdem, was ist mit Apple Intelligence? Die generativen KI-Funktionen, die Apple seit Juni anpreist, sind noch nicht für iPhone, iPad oder Mac verfügbar, aber auch der Vision Pro sollte als klarer nächster Empfänger eines KI-Upgrades auf dieser Liste stehen. Ich verwende Siri häufig auf dem Vision Pro, um Apps zu öffnen und schnelle Aktionen auszuführen macht sehr viel Sinn damit ein aktualisierter Assistent zur Verfügung steht, um zu erkunden, was sonst noch sofort in Mixed Reality gezaubert werden könnte. Es scheint so Es wird erst nächstes Jahr passieren, Obwohl. Vielleicht wird Apple gleichzeitig auch vernetzte Unterstützung für das iPhone – und auch für Apple Watches – hinzufügen.