Meine Gedanken zur Apple Vision Pro

In Las Vegas in der Einkaufspassage des Caesars Palace gibt es einen Apple Store der unter anderem auch die Apple Vision Pro (AVP) anbietet. Ich hatte heute etwas Zeit und habe dort gefragt ob ich eine Demonstration davon bekommen könnte. Ein netter Mitarbeiter nahm sich meiner an und sagte mir, dass das kein Problem ist und ich in etwa 15 Minuten eine Demo bekommen könnte. Er wollte nur meinen Namen und die Email Adresse dafür haben. Es dauert dann keine 5 Minuten bis wir an einem Tisch Platz nahmen.

Zuerst wurde ich nach der Dioptrien Anzahl der Gläser meiner Brille gefragt, die ich natürlich nicht wusste. Aber kein Problem, meine Brille wurde einfach kurz ausgemessen. In der Zwischenzeit haben wir uns kurz unterhalten und ich durfte ihm sogar mein Blog zeigen. Eine Mitarbeiterin legte dann eine AVP Brille – oder ist es ein Spatial Computer – vor uns auf den Tisch. Mit kurzen und präzisen Sätzen bekam ich gesagt wie ich die Brille aufsetzen soll und anschließend wie die grundlegenden Bedienungsmöglichkeiten sind. Im wesentlichen sind dies die ‚Digital Crown‘, also ein ähnlich der Krone einer herkömmlichen Uhr zu verwendendes Drehrad, mit den Händen zu machende Gesten und ein Augentracking, das genau feststellen kann, wo man im Inneren der AVP gerade hin sieht. Das ist schnell gelernt. Als ich das mit dem Augentracking verstand, habe ich sofort darüber nachgedacht, dass ich meine Blicke kontrollieren muss, so dass die bei Apple nicht feststellen können, was mich wirklich an einem Bild interessiert! Mittlerweile habe ich nachgelesen und angeblich verlassen diese Informationen die Brille nicht.

Wie wird die Computermaus ersetzt: Ganz einfach, man sieht dahin wo man bei herkömmlichen Computern den Mauszeiger platzieren würde und tastet ganz kurz Daumen und Zeigefinger zusammen. Das geht vermutlich schneller und präziser als mit der Computermaus und hat einwandfrei funktioniert. Wobei ich leider keine pixelgenauen Tests unternommen habe. Da könnte es also noch Probleme geben. Die Gestenerkennung deutet daraufhin, dass es in der AVP nach vorne, also in meinen Sichtbereich gerichtete Kameras oder zumindest eine Kamera gibt, die diese Gesten erfassen kann.

Neben den grundlegenden Bedienungsmöglichkeiten wurden mir die Möglichkeit virtuelle Desktops anzulegen und dazwischen zu navigieren, den Umgang mit Bildern und wie toll ein Panorama aussieht wenn man es mit der Brille betrachtet, sowie das Betrachten von 3D Filmen wie Avatar oder 3D Filmen, die mit einem iPhone 15 aufgezeichnet wurden, sowie Filmen die mit einem speziellen Kamerasystem gemacht wurden, gezeigt. Mit der Digital Crown kann ich die Umgebung nach Belieben transparent machen. Ich kann also neben den Desktops meine tatsächliche Umgebung sehen oder sie mit einem kurzen Dreh immer mehr verblassen lassen. Ich kann mich also auch nach Belieben meiner mich umgebenden Realität entziehen. Das sah alles sehr, sehr schön aus, auch wenn ich bei den Filmen manchmal die totale Schärfe vermisst habe. Und die virtuellen Desktops könnten jede Menge Monitore einsparen!

So erfüllt und beeindruckt habe ich leider vergessen zu fragen, wie ich damit Texte schreiben und Code programmieren kann. Wobei zumindest die schnelle Positionierung auf ein falsch geschriebenes Wort oder eine Programmanweisung sicher mit dem Augentracking möglich ist und besser als mit der Maus funktionieren dürfte.

Alles in allem habe ich mich sehr gefreut, dieses zukunftsgerichtete Produkt einmal selbst ausprobieren zu dürfen und denke, wenn es das irgendwann einmal in Form und dem Gewicht einer Google Glass gibt, ich es wirklich gerne in meinen Alltag integrieren würde. Aber das ist natürlich nicht fair. Während die ursprüngliche Google Glass ja eher ein Hilfsmittel im Alltag ist, was einem mit zusätzlichen Informationen hilft den Alltag besser zu meistern, ist die AVP eine Möglichkeit den konventionellen Computer komplett zu ersetzen.

Während ich eine konventionelle Sehbrille im Alltag überhaupt nicht mehr wahr nehme, ist das bei der AVP absolut nicht der Fall. An den Stellen wo sie auf meinem Gesicht aufliegt beginne ich sanft zu schwitzen und das Gewicht auf der Nase macht sich früher oder später bemerkbar. Möglicherweise viel entscheidender ist aber die durch die Brille genommene Freiheit des sie tragenden Menschen. Ich nehme bewusst und unbewusst dieses Ding auf der Nase als begrenzendes Element war. So ist jede schnelle Kopfbewegung durch die Beschleunigung der Masse der Brille als zusätzliches Gewicht fühlbar. Bei der Demo habe ich auch darauf geachtet bei den Bewegungen mit den Händen nicht im Kabel des auf dem Tisch liegenden Akku hängen zu bleiben, was eine weitere Einschränkung meiner Bewegungsfreiheit war. Das Bild der Realität im Sichtfeld ist auch nicht die Realität und das Gefühl, nicht wirklich die Außenwelt sehen zu können, hinterlässt in meinem Kopf eine gewisse Unsicherheit. Auch der Gedanke durch die virtuelle Realität von der echten Realität abgekoppelt zu sein, sich vielleicht darin so zu verlieren dass ich vor anderen Menschen merkwürdige Dinge mache, oder aber wichtige Dinge um mich herum nicht wahrnehmen zu können und darum angreifbar zu sein, hilft nicht die AVP als mögliche Alternative zu einem konventionellen Computer zu sehen. Mag sein dass man sie lange genug (er)trägt um einen tollen 3D Film anzusehen, aber ich mag sie nicht einen ganzen Arbeitsalltag auf der Nase sitzen haben.

Und denken wir uns dass einmal weiter. Einmal abgesehen vom Multimedia Konsum, möchte ich mit einem Computer Texte schreiben und Programme coden. Diese beiden Dinge wurden mir nicht gezeigt. Ich habe mittlerweile nachgelesen und es zeigt sich, dass diese Dinge tatsächlich möglich, aber nicht so einfach zu bewerkstelligen sind. Die taktile Rückkopplung einer mechanischen Tastatur kann durch virtuelle Tastaturen, oder durch die Brille sichtbare angeschlossene Bluetooth Tastaturen nicht so einfach ersetzt werden.

Ich gebe aber gerne zu, dass ich natürlich über in Jahrzehnten gelernte Vorgehensweisen verfüge und eine so kurze Demonstration in keiner Weise völlig neue Vorgehensweisen aufzeigt, die den alten vielleicht ebenbürtig oder sogar überlegen sind. Vielleicht könnte ich in Verbindung mit der AVP Spracheingabe verwenden?

Noch etwas: Wenn ich einen Text schreibe und darin Fehler entdecke, so weiß ich unmittelbar wo der ist und wie ich ihn beseitigen möchte. Eine Sache von Mikrosekunden. In der Realität muss ich einen Mauszeiger erst genau an der Stelle platzieren an der der Fehler ist und anschließend mit der Tastatur korrigieren. Hhmm, das Augentracking könnte einfach nur durch das Hinsehen auf den Fehler eine Korrektur ermöglichen? Jedenfalls gibt es bis heute keine Computereingabemethode mit der ich eine Fehlerkorrektur deutlich schneller vornehmen kann.

Ist dann vielleicht ein im Kopf platzierter Neuralink schon bald die beste Methode um Texte oder Code so schnell erstellen zu können wie ich sie denke?

 

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert