Óculos escuros turbinados por IA e interface neural são o futuro da computação para a Meta; veja
Para Mark Zuckerberg, inteligência artificial foi feita para ser usada em óculos
Para Mark Zuckerberg, o futuro da computação vai estar bem nas nossas caras - e de maneira estilosa. Durante o Meta Connect, o principal evento da empresa dona de Facebook, Instagram e WhatsApp, o fundador da companhia revelou suas apostas para a inteligência artificial (IA) e o metaverso. Tratam-se de óculos escuros, que se acomodam de maneira estilosa, sem causar o estranhamento que óculos de realidade virtual e realidade aumentada costumam causar.
Orion
O aparelho mais que chamou mais atenção - e está mais longe das lojas - são os óculos batizados de Orion, um protótipo de óculos de realidade aumentada, que mistura mundo real e elementos virtuais. É uma aposta que promete agitar o setor, caso se torne realidade - Apple, Google e Microsoft apostaram em aparelhos semelhantes. Esses são os primeiros óculos de realidade aumentada (RA) da Meta, que focou nos últimos anos em construir aparelhos de realidade virtual (RV), para ambientes totalmente digitais.
"Óculos são a nova categoria de dispositivos de IA", afirmou Zuckerberg, que vestia uma camiseta preta que dizia em latim "Ou Zuck ou nada".
Com uma maleta secreta - e trancada a cadeados - Zuckerberg apresentou o protótipo de óculos de projeção holográfica. De acordo com o CEO, a empresa tem trabalhado em dispositivos do tipo há 10 anos. A demonstração deve ter preocupado a Apple, já que os acessórios são menores, mais estilosos e, aparentemente, mais funcionais que o Vision Pro, lançados no começo deste ano.
Pode ser uma nova tentativa de levantar o mercado, algo que a Apple não conseguiu fazer. No segundo trimestre de 2024, o mercado de aparelhos do tipo teve queda anual de 4% e trimestral de 28%, segundo a consultoria Counterpoint.
Com armação grossas e lentes transparentes, o aparelho faz uma projeção de imagens, pessoas e janelas de computador ao mesmo tempo que que pode sobrepor esses elementos a objetos reais.
Sem data de lançamento, o protótipo será, agora, testado por equipes internas da Meta e por um público selecionado, afirmou a empresa. Segundo Zuckerberg, o próximo passo é desenvolver ferramentas a partir dos testes para que a próxima versão do aparelho seja, oficialmente, o modelo que deve chegar às lojas. Ele falou sobre a necessidade de evoluir os painéis que exibem as imagens para os usuários.
As lentes são feitas de carboneto de silício e projetores de µLEDs. Para entender o ambiente, o sistema dos óculos usam algoritmos de rastreamento das mãos e dos olhos e uma tecnologia de localização e mapeamento simultâneos.
"Com aproximadamente 70 graus, o Orion tem o maior campo de visão no menor formato de óculos de Realidade Aumentada até o momento. Esse campo de visão abre casos de uso verdadeiramente envolventes para o Orion, desde janelas multitarefa e entretenimento em tela grande até hologramas de pessoas em tamanho real - todo conteúdo digital que pode combinar perfeitamente com sua visão do mundo físico", afirmou a empresa em seu blog.
Para processar as informações e ter maior duração de bateria, o Orion é combinado com uma espécie de mini CPU sem fio, que, de acordo com a Meta, ajuda a salvar o consumo de energia e a deixar o aparelho mais leve - ele se assemelha com um estojo de óculos escuros que podem ser levado no bolso dos usuários. Com isso, os óculos são responsáveis pelo processamento do rastreamento de mão, ocular e mapeamento, enquanto o chamado disco de computação fica com o processamento da parte lógica do aplicativo.
Zuckerberg fez uma promesa ainda mais futurista no evento: uma interface neural para identificar os movimentos das mãos. Porém, esse tipo de processamento deve ficar para o futuro, já que a empresa não toca no assunto no material de divulgação - o chefe da Meta usou a palavra durante a apresentação. Por enquanto, a empresa afirma que uma pulseira com eletromiografia, que consegue entender os pulsos elétricos de movimentos das mãos e enviar para o dispositivo, será usada para acompanhar os movimentos.
Óculos escuros da Ray-Ban com IA
O executivo mostrou novos recursos de IA para os óculos que a Meta produz com a Ray-Ban. Essa é uma das maiores apostas do executivo, que viu os acessórios fazerem sucesso recentemente. A companhia revelou diversos recursos de IA para os óculos, que não estão à venda no Brasil oficialmente.
"Acho que a Meta IA está se tornando um recurso cada vez mais proeminente dos óculos, e há mais coisas que você pode fazer", afirmou Zuckerberg em entrevista ao The Verge. "Não é como se fôssemos jogar fora nossos telefones, mas acho que o que vai acontecer é que, aos poucos, vamos começar a fazer mais coisas com nossos óculos e deixar nossos telefones mais no bolso."
A IA poderá entender as imagens e guardar informações, como um número de telefone em um panfleto ou o número da vaga no estacionamento. A tecnologia também vai permitir que o aparelho se conecte com informações para responder perguntas com base no que o usuário está filmando no momento.
Além da tradução de conteúdos escritos, a nova IA dos óculos da Meta poderão fazer tradução simultânea de conversas por meio de microfones e do sistema de som do aparelho. Assim, o dispositivo poderá ouvir uma conversa e traduzir para outro idioma em tempo real. Por enquanto, a ferramenta nos óculos não possui suporte ao português - entende inglês, espanhol, francês e italiano.
Para os óculos, a Meta também fechou uma parceria com a Be My Eyes, startup dinamarquesa cujo app que descreve imagens para pessoas cegas ou com baixa visão. A partir da imagem captada pelo aparelho, será possível descrever informações escritas diretamente nos alto-falantes do óculos. A startup também firmou uma parceria com a OpenAI, dona do ChatGPT, em março do ano passado, quando anunciou o modelo de IA GPT-4.
O foco da apresentação para os óculos da parceria com a Ray-Ban foi a atualização da IA do aparelho, que ainda trabalha em ferramentas de processamento de vídeo para entender o que está acontecendo ao redor do usuário em tempo real. Mas o hardware não ficou completamente de fora: a empresa lançou um novo modelo para adicionar à família já existente, adicionando a opção de uma armação transparente, que mostra o interior e seus componentes eletrônicos, para o clássico modelo Wayfare da ótica.
Meta Quest 3S
A companhia mostrou também novo Meta Quest 3S, óculos de realidade mista (virtual e aumentada), que chega a partir de US$ 300 nos EUA.
De acordo com o CEO da Meta, os óculos têm as mesmas características do Quest 3, mas com tecnologia aprimorada - o grande trunfo, segundo ele, é conseguir baixar o preço do aparelho em relação ao modelo tradicional. o Meta Quest 3S está disponível com armazenamento de 128 GB e 256 GB - a versão tradicional tem 512 GB. Não há informações sobre a venda para o Brasil.
Além das fotos, a Meta está trazendo o mapeamento espacial de espaços para criar um ambiente virtual realístico. Espaços com vários objetos, móveis e até equipamentos mais complexos, como uma mesa de som, conforme o exemplo mostrado no evento, devem ser reproduzidos próximos da realidade pela empresa no Quest. Todos os aplicativos foram redesenhados para o óculos. Agora é possível se conectar com qualquer Windows 11 bastando parear com o aparelho.
Meta AI
No evento, Zuckerberg também anunciou um novo modelo de IA, o Llama 3.2, o primeiro multimodal da empresa, capaz de entender textos e imagens que também vai alimentar a Meta AI, IA da empresa.
O modelo tem 128K de janela de contexto, semelhante ao GPT-4o, do ChatGPT, e, além da versão tradicional, o Llama 3.2 vai contar com um modelo de menor escala, que processa apenas texto - o objetivo é oferecer uma IA mais leve e mais básica, principalmente para uso em celulares.
Além disso, a IA da empresa vai ganhar uma ferramenta de voz para conversar com usuários. Para dar vida à tecnologia, a Meta usou vozes de celebridades como Kristen Bell, John Cena e Judi Dench para interação - e os usuários poderão escolher qual voz será
Outra ferramenta de IA será a dublagem de vídeos por meio do Meta AI Translation no Reels, do Instagram. Assim, os usuários podem escolher a tradução e a imagem do vídeo deve sincronizar com o áudio dublado, incluindo o tom de voz em outro idioma e o movimento dos lábios.