O Google acaba de anunciar seus óculos inteligentes: Google AI Glasses, equipados com a assistente de IA Gemini. Com lançamento previsto para 2026, eles serão produzidos em colaboração com Samsung, Warby Parker e Gentle Monster.
A resposta do Google ao controverso Google Glass, lançado em 2015, trará duas versões: uma focada em interação por áudio via câmeras e microfones para consultas rápidas ao Gemini, e outra com displays integrados para exibir traduções, rotas e edições de fotos por IA diretamente no campo de visão.
A estratégia busca equilibrar peso, estilo e imersão, aprendendo com o fracasso do Glass, que enfrentou críticas por privacidade e design, e agora depende de processamento via smartphone, similar aos Ray-Ban da Meta.
Recursos e diferenciais técnicos
- Campo de visão de até 70 graus em protótipos XR como o Project Aura, com sobreposições de realidade aumentada para apps como Google Maps e Meet.
- Tradução em tempo real com legendas na tela ou áudio, além de análise de ingredientes para receitas via Gemini.
- Integração com Android XR, incluindo SDK para desenvolvedores com ferramentas para AI glasses, já testadas por parceiros como Uber.
Com o lançamento, o Google entra em um mercado aquecido, onde os Ray-Ban Meta puxam as vendas, com câmeras 3K e integração social. A abordagem “refinada” do novo modelo pode criar uma disputa acirrada não só com a Meta, mas com o Snapchat e a Apple, que prepara o seu modelo para 2026.
Vale lembrar que a Alibaba também tem seus óculos inteligentes, porém, mais focados em compras, navegação e pagamentos no seu e-commerce.





