Não resisti. Quis testar a próxima camada da interface. Comprei um Meta Ray-Ban Display, aquele óculos da Meta que projeta uma pequena tela na lente, visível apenas para mim. Funciona como um heads-up display de carro, só que no rosto. Informação no campo de visão, sem tirar o mundo da frente.
No início, confesso que me atrapalhei. Controles novos, lógica diferente. Ainda não me adaptei totalmente ao neural band e aos gestos. É outra gramática de interação. Exige reaprender movimentos quase invisíveis.
As funcionalidades do display, por enquanto, são limitadas. Dá para interagir bem com mensagens, pouco além disso. Hoje, soa experimental. Ainda assim, é exatamente assim que novas interfaces começam.
Comparando com o Ray-Ban Meta Gen 2, que já uso há algumas semanas, esta experiência parece menos madura. Mas a direção é clara. Não é sobre o óculos. É sobre a interface.
Uma funcionalidade que gostei bastante é poder visualizar imediatamente como ficou a foto tirada com os óculos. Parece detalhe, mas muda o ciclo de feedback. Você captura e valida sem sair da experiência.
Apesar das limitações, é impressionante como os óculos se integraram ao meu fluxo. Pode parecer estranho andar pela rua atendendo ligações ou interagindo com IA pelos óculos, enquanto as pessoas olham sem entender. Mas, na prática, é conveniente demais.
E como consigo operar o WhatsApp pelos óculos, tenho a Márcia comigo o tempo todo. Na prática, isso significa carregar uma camada adicional de raciocínio sempre disponível. A interface do Meta Ray-Ban Display ainda não tem suporte ao português, o que para mim não é exatamente uma limitação. Imagino que seja questão de tempo.
A boa notícia é simples: esta é a pior versão desse produto. Daqui para a frente, ele só tende a melhorar. Novas funções devem ser incorporadas ao display. Aos poucos, deixa de ser curiosidade tecnológica e passa a ser utilidade real.