Google coloca agentes de IA no centro de atualização do Gemini
Por Kenrick Cai
SÃO FRANCISCO, Estados Unidos - O Google lançou nesta quarta-feira a segunda geração de seu modelo de inteligência artificial Gemini e apresentou uma série de novas maneiras de usar a IA além dos chatbots, inclusive por meio de óculos.
O presidente-executivo da Alphabet, controladora do Google, Sundar Pichai, disse que o momento é o início de uma "nova era de agentes", referindo-se a assistentes digitais que podem realizar tarefas com maior autonomia.
"Eles podem entender mais sobre o mundo ao seu redor, pensar vários passos à frente e agir em seu nome, com sua supervisão", disse o executivo.
Os lançamentos destacam os métodos pelos quais o Google está tentando recuperar a liderança na corrida para dominar o mercado de inteligência artificial. A OpenAI, apoiada pela Microsoft , chamou a atenção global quando lançou o chatbot ChatGPT em novembro de 2022. O Google revelou o Gemini em dezembro de 2023 e agora oferece quatro versões do sistema.
O Google lançou nesta quarta-feira uma atualização para o Flash, seu segundo modelo mais barato, com desempenho aprimorado e recursos adicionais para processar imagens e áudio. Outros modelos serão lançados no próximo ano.
Nos últimos dias, a OpenAI anunciou uma série de novas ofertas para diversificar seus negócios, incluindo uma assinatura do ChatGPT de 200 dólares por mês para uso em pesquisas avançadas e a disponibilidade de seu modelo de texto para vídeo, o Sora.
A estratégia do Google envolve injetar seus avanços em IA em aplicativos que já são amplamente adotados. Pesquisa, Android e YouTube estão entre os sete produtos que, segundo a empresa, são usados por mais de 2 bilhões de pessoas mensalmente.
Essa base de usuários é uma vantagem significativa sobre startups como a Perplexity, que está buscando uma avaliação de 9 bilhões de dólares junto a investidores, e os laboratórios de pesquisa mais novos, como OpenAI, Anthropic ou xAI, de Elon Musk.
O modelo Gemini 2.0 Flash vai equipar aplicativos que incluem visões gerais de IA em seu mecanismo de busca.
A maior aposta da Alphabet é a IA para pesquisa, disse Ruth Porat, presidente e diretora de investimentos, na conferência Reuters NEXT, em Nova York, na terça-feira.
O Google também mostrou a jornalistas novos recursos para o Project Astra, um protótipo de agente universal que pode conversar com os usuários sobre qualquer coisa capturada na câmera de seus smartphones em tempo real.
A ferramenta agora pode manter uma conversa falada em uma mistura de idiomas, bem como processar informações do Maps e da ferramenta de reconhecimento de imagem Lens, disse o gerente de produto do grupo DeepMind, Bibo Xu.
E o Astra também será testado em protótipos de óculos, o primeiro retorno da empresa a essa área de produtos desde o fracasso do Google Glasses. Desde então, outras empresas entraram no mercado, incluindo a Meta, que em setembro apresentou um protótipo de óculos de realidade aumentada.
O Google também revelou o Project Mariner, uma extensão do navegador Chrome que pode automatizar as teclas digitadas e os cliques do mouse, nos moldes do recurso de "uso do computador" da Anthropic. A empresa também apresentou um recurso para aprimorar a codificação de software chamado Jules e uma ferramenta para ajudar os usuários a tomarem decisões como o que fazer ou quais itens comprar em videogames.