Um dia após o anúncio do aprimoramento do modelo de inteligência artificial (IA) Bate-papoGPT pela OpenAI, o Google mostrou sua visão de como a IA melhorará os produtos que bilhões de pessoas usam todos os dias. As atualizações, anunciadas em sua conferência anual de desenvolvedores, E/S do Googleacontecem no momento em que a empresa tenta ir além de seu negócio de publicidade com novos dispositivos e ferramentas alimentados por IA.
O CEO do Google, Sundar Pichai, apresentou novos recursos alimentados por seu mais recente modelo de IA, Gemini 1.5 Pro. Uma nova ferramenta, chamada “Ask Photos”, permite que os usuários pesquisem imagens para obter informações mais profundas – como perguntar quando sua filha aprendeu a nadar ou lembrar o número da sua placa usando imagens salvas.
Os executivos do Google também demonstraram como o Gemini 1.5 Pro poderia “ler” um livro didático e transformá-lo em uma espécie de palestra sobre IA, apresentando aos professores uma voz natural que responderá às suas perguntas.
Esta é a Pesquisa na era de Gêmeos. #GoogleIO pic.twitter.com/JxldNjbqyn
– Google Google) 14 de maio de 2024
Melhorias de IA também estão chegando ao Gmail. Pichai mostrou como os usuários podem pedir ao Gemini 1.5 Pro para resumir todos os e-mails escolares recentes de seus filhos, analisando os anexos e resumindo os pontos principais e apontando quais tarefas são necessárias.
Apenas um dia antes, a OpenAI – um dos líderes da indústria de tecnologia em inteligência artificial – revelou um novo modelo de IA que, segundo eles, tornará o chatbot ChatGPT mais inteligente e fácil de usar. O GPT-4o visa transformar o ChatGPT em um assistente digital pessoal que pode participar de conversas em tempo real e interagir usando texto e “visão”. Isso significa que ele pode visualizar capturas de tela, fotos, documentos ou gráficos enviados pelos usuários e conversar sobre eles.
O Google também mostrou as mais recentes habilidades do Gemini, o chatbot da empresa, para aceitar diferentes tipos de entrada – ele terá recursos “multimodais” para receber texto, voz ou imagens em resposta direta à atualização do ChatGPT. Um executivo também demonstrou um “amigo” virtual que pode ajudar a controlar listas de tarefas, organizar dados e gerenciar fluxos de trabalho.
A empresa destacou melhorias na busca, permitindo aos usuários fazer perguntas mais naturais ou mais focadas, e fornecendo múltiplas versões de respostas, como resultados detalhados ou resumidos. Por exemplo, a IA pode sugerir restaurantes adequados para crianças com base na localização ou no que pode estar errado com um dispositivo, como uma câmera, gravando um vídeo dele por meio do Google Lens. O objetivo é basicamente facilitar a busca no buscador, disse a empresa.
Também tivemos uma breve prévia do Projeto Astra, desenvolvido pelo laboratório DeepMind AI do Google, que permitirá que assistentes de IA ajudem no dia a dia dos usuários usando as câmeras de seus telefones para interpretar informações sobre o mundo real, como identificar objetos e até mesmo encontrar itens perdidos. Na apresentação foi demonstrado como isso funcionaria em óculos de realidade aumentada.
De acordo com o analista Jacob Bourne, da empresa de pesquisa de mercado Emarketer, não é surpresa que a IA tenha sido o foco principal da conferência de desenvolvedores do Google deste ano. “Ao apresentar seus modelos mais recentes e como eles irão alavancar os produtos existentes com forte alcance ao consumidor, o Google está demonstrando como pode efetivamente se diferenciar dos concorrentes”, disse ele.
Ele acredita que a recepção das novas ferramentas será um indicador de quão bem a empresa pode adaptar o seu produto de pesquisa para atender às demandas da era da IA generativa. “Para manter a sua vantagem competitiva e satisfazer os investidores, o Google terá de se concentrar em traduzir as suas inovações de IA em produtos e serviços lucrativos em grande escala”, disse ele.
Compartilhar: