Há quase dois anos, o Google trava uma corrida com a OpenAI e outros concorrentes para levar inteligência artificial generativa – que pode responder a perguntas complexas de maneira conversacional – ao público de uma maneira que a maioria dos consumidores realmente adotará. Nesta terça-feira (14), a empresa disparou um tiro claro contra os concorrentes, sinalizando que não tem intenção de perder sua posição de liderança como o mecanismo de busca mais popular do mundo.
O ato de “googling“, que tem sido sinônimo de busca nas últimas duas décadas, agora se tornará turbinado com a tecnologia do poderoso modelo de IA da Alphabet, Gemini, disse a empresa em sua conferência anual de desenvolvedores em Mountain View, Califórnia.
“A pesquisa do Google é uma IA generativa na escala da curiosidade humana”, disse o CEO Sundar Pichai no palco ao anunciar os novos recursos na cúpula de I/O da empresa.
Diante de uma audiência ao vivo, o Google revelou o que Pichai chamou de uma “nova experiência de pesquisa totalmente renovada” que será lançada para todos os usuários dos EUA esta semana, com a nova pesquisa alimentada pelo Gemini chegando a outros países “em breve”.
Continua depois da publicidade
“Vemos muitas oportunidades pela frente para criadores, desenvolvedores, startups, para todos”, disse Pichai em uma ligação com repórteres antes do evento.
A maior mudança no googling é que algumas pesquisas agora virão com “visões gerais de IA”, uma resposta mais narrativa que poupa as pessoas da tarefa de clicar em vários links.
Um painel alimentado por IA aparecerá abaixo das consultas das pessoas na famosa barra de pesquisa simples, apresentando informações resumidas extraídas dos resultados de pesquisa do Google de toda a web. O Google disse que também lançará uma página organizada por IA que agrupa os resultados por tema ou apresenta, por exemplo, um plano diário para as pessoas que recorrem ao Google para tarefas específicas, como montar um plano de refeições para a semana ou encontrar um restaurante para comemorar um aniversário. O Google disse que não acionará visões gerais alimentadas por IA para certas consultas confidenciais, como pesquisas por informações médicas ou automutilação.
Continua depois da publicidade
Pouco depois de sua fundação, em 1998, o Google ultrapassou o Yahoo! para se tornar o mecanismo de busca favorito global, resultado de seu algoritmo, que era mais rápido e preciso do que qualquer outra coisa na época. Seu domínio tem sido tão inabalável que é alvo de um processo federal antitruste, que acusa a empresa de monopólio. (Uma decisão sobre o caso é esperada ainda este ano.)
No entanto, a natureza da pesquisa online está mudando fundamentalmente – e os rivais do Google estão cada vez mais se movendo em seu território. A gigante das buscas enfrentou enorme pressão de empresas como OpenAI e Anthropic, cujos chatbots alimentados por IA ChatGPT e Claude são fáceis de usar e se tornaram amplamente adotados – ameaçando a posição do Google nas buscas e, consequentemente, todo o seu modelo de negócios.
Em um anúncio estrategicamente cronometrado na segunda-feira (13), a OpenAI, que é apoiada por bilhões da Microsoft, apresentou um modelo de IA mais rápido e barato chamado GPT-4o, que alimentará seu popular chatbot. O novo modelo de IA permitirá que as pessoas falem com o ChatGPT ou mostrem uma imagem, e a OpenAI diz que pode responder em milissegundos. Quando o Google revelou seus produtos mais recentes, enfrentou um complicado ato de equilíbrio: mostrar que não ficou atrás da OpenAI, sem canibalizar o negócio de publicidade de pesquisa que continua sendo sua força vital.
Continua depois da publicidade
“Ao apresentar seus modelos mais recentes e como eles impulsionarão os produtos existentes com forte alcance do consumidor, o Google está demonstrando como pode efetivamente se diferenciar dos rivais”, disse Jacob Bourne, analista da Emarketer. “Para manter sua vantagem competitiva e satisfazer os investidores, o Google precisará se concentrar em traduzir suas inovações de IA em produtos e serviços lucrativos em escala.”
Se no ano passado o Google mostrou vontade de experimentar recursos de IA generativa em seus principais produtos e serviços, este é o ano em que a empresa está mergulhando de cabeça, com mudanças fundamentais e perceptíveis em sua icônica plataforma.
A mudança representa desafios para a economia do principal negócio de buscas do Google, que entregou mais de US$ 175 bilhões em publicidade de pesquisa no ano passado. Os investidores observaram que fornecer respostas de pesquisa de IA generativas exigirá mais poder de computação do que produzir uma lista de links, potencialmente consumindo as margens da máquina de busca extremamente lucrativa do Google. Em entrevista à Bloomberg na semana passada, Liz Reid, vice-presidente de pesquisa do Google, disse que a empresa fez progressos na redução do custo da pesquisa de IA generativa. Ela disse que a empresa não tinha planos para que as adições alimentadas por IA fossem vinculadas a uma assinatura, como foi relatado na imprensa.
Continua depois da publicidade
Ao trazer mais IA generativa para seu mecanismo de busca, o Google espera reduzir o tempo e a carga mental necessários para que os usuários encontrem as informações que estão procurando, disse Reid.
“A busca é uma ferramenta muito poderosa. Mas há muitas vezes em que você tem que fazer muito trabalho duro na busca”, disse Reid. “Como podemos tirar esse trabalho árduo de procurar por você, para que você possa se concentrar em fazer as coisas?” Reid disse que a nova pesquisa do Google alimentada por IA será capaz de processar bilhões de consultas.
Mas o Google também deve tomar cuidado para não balançar muito o barco. As pessoas podem clicar em menos anúncios se as visões gerais de IA resolverem totalmente suas perguntas. O ecossistema de sites de notícias e outros sites que dependem da gigante das buscas para tráfego também pode ter menos visitantes por causa das mudanças do Google. Reid tentou projetar um ar de calma para anunciantes e editores. Os anúncios continuarão a aparecer em espaços dedicados em todos os resultados de pesquisa do Google, com rotulagem para distinguir itens patrocinados de resultados orgânicos, disse ela. Os testes da empresa, por sua vez, mostraram que as pesquisas de IA generativa são um ponto de partida para outros sites para os usuários, não o fim do caminho, acrescentou.
Reid se recusou a dizer com que frequência os usuários verão as visões gerais, mas disse que o Google, a empresa, se concentrará em fornecê-las quando puder fornecer “valor significativo” além da experiência de pesquisa tradicional.
No entanto, os editores, em particular, são cautelosos. A Raptive, uma empresa que ajuda criadores digitais a construir marcas, estima que 25% do tráfego de pesquisa para editores desaparecerão se o Google lançar amplamente a “experiência generativa de pesquisa”, ou SGE, como o mecanismo de busca de IA generativa que o Google introduziu na terça-feira.
“Ao criar uma experiência projetada para manter mais tráfego dentro do Google, menos pessoas visitarão sites individuais e a receita do criador será atingida”, escreveu Marc McCollum, diretor de inovação da Raptive, em um e-mail. “Assim, o Google ganhará participação e receita, enquanto as próprias pessoas que criaram o conteúdo que usaram para construir a SGE definharão.”
Os executivos do Google enfatizaram que a pesquisa continuará sendo central na nova era da IA. Reid, por exemplo, descreveu um novo recurso de “pesquisa visual” que chegará em breve ao experimento Search Labs do Google, que permitirá que as pessoas gravem um vídeo de um gadget com defeito, como um toca-discos, e peçam ao Google uma visão geral de IA para ajudá-las a solucionar os problemas.
Em uma ligação com repórteres na segunda-feira, Demis Hassabis, CEO do laboratório de IA do Google DeepMind, foi ainda mais longe ao mostrar a capacidade do Gemini de responder a perguntas. Hassabis mostrou o Project Astra, um protótipo de um assistente de IA que pode processar vídeo e responder em tempo real. Em uma demonstração de vídeo pré-gravada, um funcionário caminhou por um escritório enquanto o assistente usava a câmera do telefone para “ver”, respondendo a perguntas sobre o que estava na cena. O programa respondeu corretamente a uma pergunta sobre em qual bairro londrino o escritório estava localizado, com base na visão da janela, e também disse à funcionária onde ela havia deixado seus óculos. Hassabis disse que o vídeo foi capturado “em um único take, em tempo real”.
“A qualquer momento, estamos processando um fluxo de informações sensoriais diferentes, dando sentido a elas e tomando decisões”, disse Hassabis sobre a demonstração do Projeto Astra. “Imagine agentes que podem ver e ouvir o que fazemos para entender melhor o contexto em que estamos e responder rapidamente na conversa, fazendo com que o ritmo e a qualidade da interação pareçam muito mais naturais.” Pichai esclareceu mais tarde que o Google está “aspiracionalmente” procurando trazer alguns recursos do Project Astra para os principais produtos da empresa, particularmente o Gemini, no final deste ano.
Para continuar avançando em inteligência artificial, o Google também teve que atualizar seu conjunto de modelos de IA, e a empresa compartilhou mais progresso nessa frente na terça-feira. A empresa anunciou o Gemini 1.5 Flash, que o Google diz ser o modelo de IA mais rápido disponível por meio de sua interface de programação de aplicativos, ou API, normalmente usada por programadores para automatizar tarefas de alta frequência, como resumir texto, legendar imagens ou vídeos ou extrair dados de tabelas.
Também revelou atualizações para o Gemini Nano, o menor modelo de IA do Google, expandindo além das entradas de texto para incluir imagens; introduziu uma versão mais recente de sua família de modelos abertos, Gemma 2, com maior eficiência; e disse que a empresa alcançou melhores benchmarks em seu poderoso modelo de IA, o Gemini 1.5 Pro.
Na terça-feira, o Google confirmou que os desenvolvedores podem usar o Gemini 1.5 Pro para processar mais texto, vídeo e áudio ao mesmo tempo – até 2 milhões de “tokens”, ou pedaços de conteúdo. Isso equivale a cerca de 2 horas de vídeo, 22 horas de áudio ou mais de 1,4 milhão de palavras. O Google diz que essa quantidade de processamento supera em muito outros modelos de IA de concorrentes, incluindo o OpenAI.
O Google também destacou suas ferramentas e serviços de mídia generativa, introduzindo novos modelos e atualizando os existentes. A empresa anunciou um novo modelo de geração de vídeo na terça-feira que a empresa está chamando de Veo, que gera vídeos de alta qualidade com duração superior a um minuto – uma resposta à ferramenta de geração de vídeo da OpenAI, Sora. O Google está permitindo que os criadores se inscrevam para participar de uma lista de espera para testar o produto, e disse que traria alguns dos recursos da Veo para o YouTube Shorts e outros produtos de vídeo “no futuro”.
O Google anunciou atualizações para o Imagen 3, a terceira iteração de seu modelo de IA de texto para imagem, que inclui melhorias como menos distorções de imagem. E o Google continua a experimentar músicas geradas por IA com um serviço chamado Lyria, bem como um conjunto de ferramentas de IA de música conhecido como Music AI Sandbox.
Grande parte da batalha pela superioridade da IA depende de ter semicondutores poderosos que são capazes de lidar com todos os dados que estão sendo processados. Para isso, o Google anunciou uma nova versão de seu chip projetado internamente para data centers, a sexta versão de seu TPU, ou Unidade de Processamento Tensor. O mais recente será 4,7 vezes mais rápido que seu antecessor, terá acesso a mais memória e contará com conexões mais rápidas com outros chips, disse o Google.
Em meio a crescentes preocupações sobre como as empresas devem lidar com a onda de conteúdo gerado por IA e preocupações com direitos autorais, o Google disse que lançaria um sistema de marca d’água criado pela Gemini e pelo modelo de vídeo Veo. O sistema, chamado SynthID, incorpora tags digitais imperceptíveis em imagens, áudio, vídeo e até texto gerados por IA, para que as pessoas possam rastrear a procedência de uma determinada mídia. O Google planeja lançar a tecnologia em formato de código aberto neste verão para que desenvolvedores externos possam usá-la.
O Google também tentou enquadrar o Gemini como um agente poderoso que pode ajudar os usuários em suas vidas diárias. Os usuários que pagarem US$ 20 por mês pelo plano de assinatura premium de IA do Google terão acesso a uma versão do Gemini que pode processar 1 milhão de tokens – ou cerca de 700.000 palavras – de uma só vez, o que o Google disse ser o maior de qualquer modelo amplamente disponível para o público em geral. Isso significa que as pessoas podem pedir ao modelo de IA para digerir grandes volumes de dados para elas, como resumir 100 e-mails, disse a empresa. Um novo recurso chamado Gemini Live permitirá que os assinantes premium do Google falem naturalmente com o software de IA da empresa em seus dispositivos móveis, até mesmo pausando ou interrompendo o Gemini Live no meio da resposta com perguntas.
O Google disse que os arquivos das pessoas permanecerão privados e não serão usados para treinar modelos de IA. Os assinantes poderão criar versões personalizadas do Gemini, conhecidas como Gems, para servir a um propósito específico, como treiná-los em sua corrida.
© 2024 Bloomberg L.P.