Novidades de IA do Google exploram cidades com a câmera do celular
Visualização imersiva e live view do Google contam com inteligência artificial (IA) e unem imagem, texto e vídeos
O Google anunciou várias novidades em seu buscador, nos seus serviços de mapa e tradução, nesta quarta-feira (8), em um evento em Paris. A empresa informou ainda que os recursos de visualização imersiva e live view estarão disponíveis em alguns pontos de São Paulo, sendo um deles o aeroporto de Guarulhos.
As ferramentas contam com inteligência artificial (IA) e unem imagem, texto e vídeos para criar uma experiência que funciona de forma mais parecida com a nossa mente. Resumindo as novidades, o Google declarou que "se você consegue ver, você consegue buscar".
Um dos recursos apresentados no evento é o de multibusca, que permite ao usuário buscar uma imagem com texto ao mesmo tempo. Por exemplo, se você viu por aí uma roupa que adorou e desejaria ter igual, mas em outra cor, basta tirar uma foto da peça e buscar na ferramenta com o nome da cor desejada (como "verde").
Já outra funcionalidade é a de "pesquisar tela". Ou seja, se o Google Lens já permite explorar imagens do mundo físico, agora será possível buscar o que está aparecendo na própria tela do celular – que pode estar em um site ou app. Se um amigo te enviou um vídeo de viagem e você deseja saber que ponto turístico é aquele, é só pesquisar a tela que o Google irá procurar o local de origem da filmagem.
Novidade que estará em São Paulo, a visualização imersiva faz a pessoa sentir que está no local antes mesmo de visitá-lo, segundo o Google. Basicamente, o recurso funde bilhões de imagens do Street View e panoramas aéreos para criar uma versão digital do mundo, com informações como clima, trânsito e mais.
A ideia é: se você deseja visitar um museu, a visualização imersiva permite que você saiba se a instituição estará cheia naquele horário, se vai chover, onde são as entradas, entre outras informações. O controle deslizante do tempo também mostra variações do dia escurecendo no local, além de chuva se estiver chovendo etc.
In the coming months, we’re introducing a ✨major update ✨ to help you search what’s on your mobile screen.
You’ll soon be able to use Lens through Assistant to search what you see in photos or videos across websites and apps on Android. #googlelivefromparis pic.twitter.com/UePB421wRY
— Google Europe (@googleeurope) February 8, 2023
Se a pessoa já estiver no local, poderá ver o interior de restaurantes e cafés próximos com cenas criadas por meio de campos de radiância neural (NeRF), técnica avançada de IA que transforma imagens em representações 3D. O recurso está disponível, por enquanto, em Londres, Los Angeles, Nova York, São Francisco e Tóquio.
O live view, também anunciado pela empresa no evento, usa IA e realidade aumentada para encontrar estações de metrô, bancos, restaurantes e parques ao redor da pessoa, exigindo apenas que ela abra a câmera e aponte para os espaços ao redor. Haverá setas indicando por onde ir. A funcionalidade está nas mesmas cidades que a visualização imersiva, mas deverá chegar a outras nos próximos meses.
Por fim, o live indoor view, para ambientes internos, funciona da mesma maneira, mas para estabelecimentos como aeroportos e shoppings. Hoje, está disponível nos EUA, Zurique e Tóquio e deverá chegar a mais 1.000 novos aeroportos, estações de trem e shoppings de outras cidades.
Sobre o Bard, inteligência artificial parecida com o ChatGPT que está sendo desenvolvida pelo Google, não foram dados mais detalhes e a empresa declarou estar "em período de testes de grupos externos".