30/09/2022

30/09/2022

Google procura uma pesquisa mais natural e intuitiva


O objectivo passa por uma pesquisa que vá de encontro à forma de pensar do ser humano. 


Há mais de duas décadas que nos dedicamos à nossa missão: organizar as informações do mundo e torná-las universalmente acessíveis e úteis. Começámos com a pesquisa de texto, mas ao longo do  tempo continuamos a criar maneiras mais naturais e intuitivas de encontrar informação — agora é possível  pesquisar o que se vê através das câmaras de um dispositivo móvel ou fazer uma pergunta por voz.


Durante o evento Search On,  mostramos como os avanços na inteligência artificial estão, mais uma vez,  a permitir-nos transformar os nossos produtos de informação. Estamos a ir mais além da caixa de pesquisa para criar experiências de pesquisa que funcionam mais como as nossas mentes e que são tão multidimensionais quanto o somos enquanto  pessoas. Prevemos um mundo em que é possível encontrar exatamente o que um utilizador procura através da combinação de  imagens, sons, texto e voz, tal  como as pessoas o fazem naturalmente. O utilizador  poderá fazer perguntas, com menos palavras - ou até mesmo nenhuma questão- e ainda assim iremos entender exatamente o que quer dizer. E o utilizador vai poder explorar a  informação organizada de uma maneira que faça mais sentido para si.


Chamamos a isto tornar a pesquisa mais natural e intuitiva, e estamos num caminho a longo prazo para trazer esta visão para as pessoas de todo o mundo.


Para dar uma ideia de como estamos a evoluir  os nossos produtos de informação, seguem-se  três destaques do que mostramos hoje no Search On.


  • Tornar o funcionamento da  pesquisa visual  mais natural - Estamos a  tornar  a pesquisa visual ainda mais natural através da pesquisa múltipla, uma maneira completamente nova de pesquisar utilizando  imagens e texto simultaneamente, semelhante como um utilizador faz quando aponta para algo e faz uma pergunta a um amigo sobre o que está a ver. Introduzimos a pesquisa múltipla no início deste ano como uma versão beta nos EUA e, durante o Search On, anunciamos que vamos expandir esta nova funcionalidade  a mais de 70 idiomas nos próximos meses. Estamos a levar este recurso ainda mais longe com a “pesquisa múltipla perto de mim”, permitindo que o utilizador tire uma foto de um item desconhecido, tal como um prato ou uma planta, e encontre-o num local próximo, como um restaurante ou numa loja de jardinagem. Vamos começar a disponibilizar  a  “multipesquisa perto de mim” em Inglês nos EUA ainda este outono.
  • Traduzir o mundo à nossa volta - Um dos aspectos mais poderosos da compreensão visual é a sua capacidade para quebrar barreiras linguísticas. Com os avanços em Inteligência Artificial (IA), fomos além da tradução de texto para a tradução de imagens. Agora é possível  combinar o texto traduzido na imagem de fundo graças a uma tecnologia de aprendizagem de máquina denominada por  Generative Adversarial Networks (GANs). Ou seja, se o utilizador  apontar a sua câmara para uma revista num outro idioma, por exemplo, será possível ver o texto traduzido e sobreposto de forma realista nas fotos que estão abaixo.
  • Explorar o mundo com a visão imersiva - Assim como na navegação o tráfego, em tempo real, tornou o Google Maps muito mais útil, estamos a fazer outro avanço significativo no mapeamento ao trazer informações úteis, como o clima e o quão lotado um local está através da visualização imersiva no Google Maps. Com esta nova experiência, o utilizador pode sentir e ter uma ideia do local antes mesmo de entrar e para que possa decidir com confiança quando e onde ir. Digamos que o utilizador está  interessado em estar com um amigo num determinado restaurante. É possível  aproximarmo-nos de um bairro e de um restaurante para ter uma ideia de como poderá estar o  local na data e hora que planeou o encontro, visualizando coisas como o clima ou como preenchido o espaço poderá estar. Ao fundir as  nossas imagens avançadas do mundo com os nossos modelos preditivos, podemos dar uma ideia de como estará um local  amanhã, na próxima semana ou até no próximo mês.

Toda a informação e respectivos detalhes estão disponíveis no post oficial assinado por Prabhakar Raghavan, Senior Vice President. 

 

0 comments:

Enviar um comentário