A Apple apresentou esta semana o Vision Pro em sua Worldwide Developers Conference, na Califórnia. Com ele, a empresa está se aventurando em um mercado de óculos de realidade virtual (HMDs, ou dispositivos montados na cabeça , na tradução literal) -, que geralmente são apenas monitores.  

Mas neste caso trata-se mais um computador completo conectado à cabeça, entrando nos mundos da realidade virtual (RV), realidade aumentada (RA) e realidade mista.

O novo produto Apple alimentará as esperanças de muitos que trabalham nessas tecnologias de que elas algum dia sejam rotineiramente usadas pelo público, assim como o iPhone, iPad e Apple Watch ajudaram a popularizar o uso de smartphones, tablets e a chamada “tecnologia vestível”.

Mas o que o Vision Pro realmente faz e quanto apelo ele terá para o público?

A realidade virtual mergulha os usuários em um mundo totalmente gerado por computador, isolando-os em grande medida de seu ambiente físico.

A realidade aumentada sobrepõe elementos gerados por computador ao mundo real, enquanto este último permanece visível, com o objetivo de melhorar o contexto do nosso ambiente físico.

Um termo frequentemente usado de forma intercambiável com realidade aumentada é realidade mista, referindo-se a um conjunto de tecnologias imersivas, incluindo a própria RA, que fornecem diferentes “misturas” de mundos físicos e virtuais. Essas três tecnologias são frequentemente referidas coletivamente como XR.

A combinação de realidade aumentada e realidade virtual parece ser uma parte fundamental do pensamento da Apple, com o Vision Pro permitindo que os usuários ajustem seu nível de imersão e assim decidindo quanto do mundo real eles podem ver.

Essa transição entre as duas experiências provavelmente será uma tendência para futuros modelos de HMDs.

O mundo físico é “salvo” através de um conjunto de 12 câmeras localizadas atrás de uma camada de vidro semelhante a óculos de esqui, atuando como uma lente.

Quando o Vision Pro está no modo realidade virtual, as pessoas que se aproximam de você no mundo real são automaticamente detectadas e exibidas.

Um recurso chamado EyeSight também exibe os olhos do usuário pela da lente de vidro quando necessário, para permitir uma interação mais natural com as pessoas ao seu redor – um desafio para muitos HMDs.

Análise: especificações técnicas do Vision Pro são ‘impressionantes’

Em termos de especificações técnicas, o Vision Pro é impressionante. Ele usa uma combinação do microchip M2 e um novo chip chamado R1.

O M2 executa o visionOS, que a Apple chama de seu primeiro sistema operacional espacial, juntamente com algoritmos de visão computacional e geração de computação gráfica.

O R1 processa informações das câmeras, de vários microfones e de um scanner LiDAR – que usa um laser para medir distâncias a diferentes objetos – a fim de tornar o fone de ouvido ciente de seus arredores.

Mais importante, o Vision Pro possui um impressionante sistema de exibição com “mais pixels do que uma TV 4K para cada olho”.

Sua capacidade de rastrear onde os olhos do usuário estão olhando permite que os usuários interajam com elementos gráficos apenas olhando para eles. O fone de ouvido pode receber comandos de gestos e voz e apresenta uma forma de som de 360 graus chamado áudio espacial. O tempo de operação cotado desconectado é de duas horas.

Vision Pro: ‘ecossistema’ vestível

Embalado, na moda típica da Apple, em alumínio e vidro curvos, o fone de ouvido tem um preço de US$ 3.499 (£ 17 mil) e reúne  uma coleção de muitos recursos premium.

Mas a Apple tem um histórico de desenvolvimento de produtos com recursos cada vez mais versáteis para sentir o que está acontecendo em seu ambiente do mundo real.

A Apple também se concentra em tornar seus dispositivos interoperáveis – o que significa que eles funcionam facilmente com outros dispositivos Apple – formando um “ecossistema” vestível.

Isso é o que realmente promete ser perturbador sobre o Vision Pro. Também é semelhante ao que foi prometido e esperado pelos pioneiros na ideia de computação vestível na década de 1990.

Combinar o fone de ouvido com o iPhone, que ainda forma a espinha dorsal do ecossistema da Apple, e o Apple Watch pode ajudar a criar novos usos para a realidade aumentada.

Da mesma forma, vincular o fone de ouvido a muitas ferramentas de programação demonstra o desejo da empresa de explorar uma comunidade existente de desenvolvedores de aplicativos de realidade aumentada.

Muitas perguntas permanecem, no entanto. Por exemplo, ele será capaz de acessar aplicativos de realidade mista por meio de um navegador da web? Como será usar do ponto de vista ergonômico?

Também não está claro quando o Vision Pro estará disponível fora dos EUA ou se haverá uma versão não-Pro – já que a parte “Pro” do título implica um mercado mais “especialista” ou de desenvolvedores.

O Vision Pro é uma aposta, pois XR é frequentemente visto como algo que promete, mas raramente cumpre. No entanto, empresas como a Apple e aquelas que provavelmente são seus principais concorrentes no domínio XR, Meta e Microsoft, têm a influência para tornar o XR popular para o público.

Mais importante, dispositivos como o Vision Pro e seu ecossistema, bem como seus concorrentes, poderiam fornecer a base para o desenvolvimento do metaverso.

Este é um mundo imersivo, facilitado por fones de ouvido, que visa uma interação social mais natural do que com produtos anteriores.

Os céticos dirão que o Vision Pro e o EyeSight fazem você parecer um mergulhador em sua sala de estar. Mas este pode finalmente ser o momento de mergulhar nas águas profundas do XR.


Sobre os autores 

Peter Butcher é professor de Interação Humano-Computador e Panagiotis Ritsos leciona Visualização na Escola de Ciência da Computação e Engenharia Eletrônica da Universidade de Bangor, Reino Unido. Ambos desenvolvem pesquisas nas áreas de realidade virtual e aumentada. 

Este artigo foi publicado originalmente no portal acadêmico The Conversation sob licença Creative Commons.