No final do I/O, conferência anual de desenvolvedores do Google no Shoreline Amphitheatre em Mountain View, o CEO do Google, Sundar Pichai, revelou que a empresa disse “AI” 121 vezes. Esta foi, essencialmente, a essência da palestra de duas horas do Google – trazer a IA para todos os aplicativos e serviços do Google usados por mais de dois bilhões de pessoas em todo o mundo. Aqui estão todas as principais atualizações anunciadas pelo Google no evento.
Atualizações Gemini 1.5 Flash e Gemini 1.5 Pro
O Google anunciou um modelo de IA totalmente novo chamado Gemini 1.5 Flash, que afirma ser otimizado para velocidade e eficiência. O Flash fica entre o Gemini 1.5 Pro e o Gemini 1.5 Nano, o menor modelo da empresa que roda nativamente no aparelho. O Google disse que criou o Flash porque os desenvolvedores queriam um modelo mais leve e menos caro do que o Gemini Pro para criar aplicativos e serviços baseados em IA, ao mesmo tempo que mantinha algumas coisas como uma janela de contexto de um milhão de caracteres que diferenciava o Gemini Pro dos modelos concorrentes. Ainda este ano, o Google dobrará a janela de contexto do Gemini para 2 milhões de tokens, o que significa que será capaz de processar 2 horas de vídeo, 22 horas de áudio e mais de 60.000 linhas de código ou mais de 1,4 milhão de palavras de uma só vez. . A Hora. .
Projeto Astra
O Google exibiu o Projeto Astra, uma versão inicial de um assistente global movido por IA, que Demis Hassabis, CEO da DeepMind do Google, disse ser a versão do Google de um agente de IA “que pode ser útil na vida cotidiana”.
Em um vídeo que o Google diz ter sido filmado de uma só vez, um usuário do Astra anda pelo escritório do Google em Londres segurando seu telefone e apontando a câmera para coisas diferentes – um alto-falante, algum código em um quadro branco, fora de uma janela – e tem uma conversa natural. com o aplicativo sobre sua aparência. E em um dos momentos mais impressionantes do vídeo, ela diz corretamente ao usuário onde deixou os óculos antes, sem que o usuário sequer os levante.
O vídeo termina com uma surpresa – quando o usuário encontra os óculos perdidos e os coloca, ficamos sabendo que eles possuem um sistema de câmera embutido e são capazes de usar o Projeto Astra para conversar perfeitamente com o usuário, o que pode sugerir que O Google pode estar trabalhando em um concorrente para os óculos inteligentes Ray Ban da Meta.
Pergunte ao Imagens do Google
O Google Fotos já era inteligente quando se tratava de pesquisar fotos ou vídeos específicos, mas com a IA, o Google está levando as coisas para o próximo nível. Se você for assinante do Google One nos EUA, poderá fazer ao Google Fotos uma pergunta complexa como “Mostre-me a melhor foto de cada parque nacional que você visitou” quando o recurso for lançado nos próximos meses. O Google Fotos usará suas informações de GPS, bem como seu próprio julgamento sobre o que é “melhor” para lhe fornecer opções. Você também pode pedir ao Google Fotos para gerar legendas para postar fotos nas redes sociais.
Veja e imagine 3
Os novos mecanismos de criação de mídia baseados em IA do Google são chamados de Veo e Imagine 3. Veo é a resposta do Google ao Sora da OpenAI. O Google disse que pode produzir vídeos 1080p de “alta qualidade” que podem durar “mais de um minuto” e pode compreender conceitos cinematográficos como lapso de tempo.
Enquanto isso, Imagen 3 é um gerador de texto para imagem que o Google afirma que lida com texto melhor do que seu antecessor, Imagen 2. O resultado é o modelo de texto para imagem da mais alta qualidade da empresa com um “incrível nível de detalhe” para “realista , imagens realistas.” ” e menos artefatos – o que essencialmente o compara ao DALLE-3 da OpenAI.
Grandes atualizações na Pesquisa Google
O Google está fazendo grandes mudanças na forma como a pesquisa funciona fundamentalmente. A maioria das atualizações anunciadas hoje são como a capacidade de fazer perguntas realmente complexas (“Encontre os melhores estúdios de ioga ou Pilates em Boston e veja detalhes sobre ofertas e tempos de caminhada em Beacon Hill”) e usar a pesquisa para planejar refeições e férias. Ele não estará disponível a menos que você se inscreva no Search Labs, a plataforma da empresa que permite que as pessoas experimentem recursos beta.
Mas o grande novo recurso, que o Google chama de AI Overviews e que a empresa vem testando há um ano, está finalmente sendo lançado para milhões de pessoas nos Estados Unidos. A Pesquisa Google agora apresentará respostas geradas por IA no topo dos resultados por padrão, e a empresa afirma que disponibilizará o recurso para mais de um bilhão de usuários em todo o mundo até o final do ano.
Gêmeos no Android
O Google está integrando o Gemini diretamente ao Android. Quando o Android 15 for lançado ainda este ano, o Gemini saberá qual aplicativo, foto ou vídeo você está reproduzindo e poderá arrastá-lo como uma sobreposição e fazer perguntas específicas ao contexto. Onde fica o Google Assistant que já faz isso? Quem você conhece! O Google não mencionou isso durante a palestra de hoje.
Houve várias outras atualizações também. O Google disse que adicionará marcas d’água digitais a vídeos e textos gerados por IA, tornará o Gemini acessível no painel lateral do Gmail e do Docs, oferecerá suporte a um colega virtual com tecnologia de IA no Workspace, ouvirá chamadas telefônicas e detectará se você está realmente sendo enganado tempo e muito mais.
Acompanhe todas as novidades do Google I/O 2024 ao vivo aqui!
“Entrepreneur. Professional music nerd. Beer evangelist. Avid tv aficionado. Social mediaholic.”