Durante a conferência Google I/O 2025, realizada nos dias 20 e 21 de maio na Califórnia, a big tech apresentou avanços significativos em inteligência artificial, destacando os modelos Gemini e Gemma, além de novos agentes autônomos e ferramentas voltadas para criadores e desenvolvedores.
Gemini 2.5: IA mais proativa e integrada
O Gemini 2.5 Pro, versão mais avançada do modelo, incorpora o modo “Deep Think”, permitindo raciocínio complexo e execução de tarefas em múltiplas etapas. Com o novo “Agent Mode”, o Gemini pode organizar agendas, realizar pesquisas aprofundadas e integrar-se com aplicativos do Google, como Gmail e Drive, para fornecer respostas personalizadas e com contexto.
Além disso, o “Gemini Live” permite interações em tempo real utilizando a câmera do dispositivo, oferecendo assistência visual instantânea.
Gemma 3n: IA multimodal e eficiente
A linha Gemma foi expandida com o lançamento do Gemma 3n, um modelo multimodal capaz de processar texto, áudio, imagens e vídeos. Projetado para funcionar em dispositivos com apenas 2 GB de RAM, o Gemma 3n permite aplicações de IA eficientes e privadas, adequadas para ambientes com recursos limitados.
Outras variantes incluem o MedGemma, focado em análises médicas, e o SignGemma, que traduz linguagem de sinais para texto falado, ampliando a acessibilidade das tecnologias de IA.
Ferramentas criativas: Veo 3, Flow e Imagen 4
Para criadores de conteúdo, o Google apresentou o Veo 3, uma ferramenta de geração de vídeos realistas com áudio sincronizado, incluindo diálogos e trilhas sonoras. O Flow, por sua vez, combina os modelos Veo, Imagen e Gemini para facilitar a criação de cenas detalhadas a partir de descrições simples.
O Imagen 4, nova versão do modelo de geração de imagens, aprimora o realismo e o nível de detalhes em elementos como água, tecidos e peles de animais, oferecendo resultados mais precisos e naturais.
Novidades para desenvolvedores: Stitch e integração com Gemini
O Google lançou o Stitch, uma ferramenta de IA que transforma descrições em linguagem natural ou imagens em designs de interface de usuário e código front-end, facilitando o desenvolvimento de aplicativos.
Além disso, o Gemini 2.5 foi integrado ao Google AI Studio, permitindo que desenvolvedores criem agentes autônomos com capacidades avançadas de raciocínio e compreensão de contexto.
Expansão da IA para o mundo físico: Android XR e Gemini Robotics
A empresa também apresentou os óculos inteligentes Android XR, que combinam realidade aumentada com o assistente Gemini, oferecendo informações em tempo real sobre o ambiente ao redor.
No campo da robótica, o Gemini Robotics foi introduzido como um modelo de IA capaz de controlar robôs em tarefas complexas, adaptando-se a diferentes ambientes e instruções em linguagem natural.
O Google I/O 2025 evidenciou o compromisso da empresa em integrar a inteligência artificial de forma abrangente em seus produtos e serviços, tornando-a mais acessível, eficiente e personalizada para usuários e desenvolvedores em todo o mundo. Um dos recursos mais comentados foi a tradução de voz em tempo real através do Google Meet, e você pode saber mais aqui.