De acordo com a Google, o utilizador poderá fazer perguntas com menos palavras – ou até mesmo nenhuma questão – e, ainda assim, a plataforma irá entender exactamente o que quer dizer. O utilizador vai também poder explorar a informação organizada de uma forma que faça mais sentido para si.
Assim, as novas funcionalidades da Google são:
Tornar o funcionamento da pesquisa visual mais natural
Pesquisa visual mais natural através da pesquisa múltipla – uma nova forma de pesquisar, utilizando imagens e texto simultaneamente, tal como um utilizador faz quando aponta para algo e faz uma pergunta a um amigo sobre o que está a ver. Além disso, a empresa está a desenvolver uma solução que permite que o utilizador tire uma foto de um item desconhecido, tal como um prato ou uma planta, e o encontre num local próximo, como um restaurante ou numa loja de jardinagem. Vamos começar a disponibilizar a “multipesquisa perto de mim” em inglês nos EUA ainda este Outono.
Traduzir o mundo à nossa volta
A compreensão visual tem a capacidade de quebrar barreiras linguísticas. Com os avanços em Inteligência Artificial (IA), a Google foi “além da tradução de texto para a tradução de imagens”. Agora é possível combinar o texto traduzido na imagem de fundo graças a uma tecnologia de machine learning denominada por Generative Adversarial Networks (GANs). Ou seja, se o utilizador apontar a sua câmara para uma revista num outro idioma, por exemplo, será possível ver o texto traduzido e sobreposto de forma realista nas fotos que estão abaixo.
Explorar o mundo com a visão imersiva
Informações como o clima e o quão lotado um local está chegam ao Google Maps através da visualização imersiva. Com esta nova experiência, o utilizador pode sentir e ter uma ideia do local antes mesmo de entrar para que possa decidir quando e onde ir.