Pode-se suspeitar que os resultados da busca organizados por AI são para onde o Google eventualmente se moverá em geral, mas a implementação começa com um escopo limitado. Começando com receitas e inspiração para refeições, a AI do Google criará uma “experiência de página inteira” que inclui resultados relevantes com base em sua pesquisa. A empresa diz que as páginas compiladas por AI consistirão em “perspectivas de toda a web”, como artigos, vídeos e fóruns.
As Visões Gerais de AI do Google, os trechos de informações geradas por AI que você vê acima dos resultados da web, também estão recebendo algumas melhorias. A empresa está incorporando um novo design com mais links proeminentes para páginas da web de suporte dentro da seção. O Google diz que seus testes mostraram que o design aumentou o tráfego para os sites de suporte aos quais os links apontam.
Anúncios também estão chegando às Visões Gerais de AI – um resultado inevitável, se é que houve algum. A empresa diz que eles estão sendo lançados nos EUA, então não se surpreenda se você começar a vê-los em breve.
Voltando à direita: Google Lens falar para pesquisar, anúncios nas Visões Gerais de AI, pesquisa de vídeo do Lens
Google
O Circle to Search está recebendo capacidades semelhantes às do Shazam. O recurso agora buscará instantaneamente as músicas que você ouve sem trocar de aplicativo. O Google também observou que o Circle to Search agora está disponível em mais de 150 milhões de dispositivos Android, à medida que expande sua abrangência e capacidades desde o lançamento em janeiro.
O Google Lens, o recurso de pesquisa visual da empresa com sete anos de idade para dispositivos móveis, também está recebendo algumas atualizações. Agora ele pode pesquisar por vídeo e voz, permitindo que você faça “perguntas complexas sobre imagens em movimento”. A empresa fornece o exemplo de ver peixes em um aquário e usar o Lens para perguntar em voz alta: “Por que eles estão nadando juntos?” De acordo com o Google, a IA usará o clipe de vídeo e sua gravação de voz para identificar as espécies e explicar por que elas ficam juntas.
Seguindo a mesma linha, agora você pode fazer perguntas ao Google Lens com sua voz ao tirar uma foto. “Basta apontar sua câmera, segurar o botão do obturador e perguntar o que está em sua mente – da mesma forma que você apontaria para algo e perguntaria ao seu amigo sobre isso”, escreveu a empresa.
O Google Lens também está aprimorando suas capacidades de compras. A empresa descreve a pesquisa visual aprimorada de produtos como “dramaticamente mais útil” do que sua versão anterior. Os resultados de AI agora incluirão informações essenciais sobre o produto pesquisado, incluindo avaliações, preços em diferentes varejistas e onde comprar.
As capacidades do Google Lens estão sendo lançadas agora, embora algumas exijam uma aceitação. As pesquisas de vídeo estão disponíveis globalmente para os usuários do Search Labs; você as encontrará no experimento “Visões Gerais de AI e mais”. A entrada de voz para o Lens agora está disponível para usuários de inglês no aplicativo do Google no Android e iOS. Por fim, aprimoramentos de compras com o Lens começarão a ser lançados esta semana.
Redação Confraria Tech.
Referências:
Google stuffs more AI into search