
Google Cloud Next 2025
Principais anúncios e impressões
O Google Cloud Next 2025 chegou com tudo! De 9 a 11 de abril, o Mandalay Bay Convention Center, em Las Vegas, foi palco de uma verdadeira avalanche de novidades no mundo da inteligência artificial e da computação em nuvem. Este ano, a conferência mostrou claramente que a Google está a apostar todas as suas fichas na AI generativa e nas capacidades agênticas. Vamos dar uma vista de olhos às principais novidades que promoveram aquele «uau» coletivo entre os participantes.
Ironwood: o primeiro Google TPU para a era da inferência
O Ironwood é a unidade de processamento tensorial (TPU) mais poderosa, capaz e eficiente em termos energéticos da Google até à data, concebida para alimentar modelos de AI inferenciais e de raciocínio à escala. Oferece ganhos de desempenho significativos com foco na eficiência energética, permitindo que as cargas de trabalho de AI sejam executadas de forma mais económica. O Ironwood oferece uma capacidade de 192 GB por chip, 6x a do Trillium, o que permite o processamento de modelos e conjuntos de dados maiores, reduzindo a necessidade de transferências frequentes de dados e melhorando o desempenho.
Olha, não sou nenhum especialista em batatas fritas, mas o Ironwood parece ser aquele amigo fortão que não só levanta mais peso, como também não precisa de comer o restaurante todo depois. É impressionante ver como a Google está a investir fortemente em hardware específico para AI. Com 6 vezes mais memória que o modelo anterior, imagino os engenheiros a festejarem por não terem de estar a cortar os seus modelos em bocadinhos só para caberem no chip. Num mundo onde as faturas de eletricidade das empresas de AI já assustam, esta eficiência energética vai ser um diferencial e tanto!
Gemini 2.5 Pro é o modelo de AI mais caro da Google até ao momento
A Google lançou o Gemini 2.5 Pro, um modelo de AI com desempenho líder no setor em vários benchmarks que medem a codificação, o raciocínio e a matemática. Para prompts até 200.000 tokens, o Gemini 2.5 Pro custa 1,25 dólares por milhão de tokens de entrada e 10 dólares por milhão de tokens de saída. Para prompts superiores a 200.000 tokens, o Gemini 2.5 Pro custa 2,50 dólares por milhão de tokens de entrada e 15 dólares por milhão de tokens de saída. Este preço torna o Gemini 2.5 Pro mais caro para os programadores do que qualquer outro modelo de AI oferecido atualmente pela Google, incluindo o Gemini 2.0 Flash. De acordo com o CEO da Google, Sundar Pichai, o Gemini 2.5 Pro é o modelo de AI mais procurado da empresa entre os programadores, levando a um aumento de 80% na utilização na plataforma AI Studio da Google e na API Gemini este mês por si só.
Eita, parece que a Google descobriu o que a Apple já sabe há anos: se cobrar mais, as pessoas pensam que é melhor! Brincadeiras à parte, estes preços fazem chorar um bocadinho a carteira, mas pelos vistos o mercado está disposto a pagar pelo desempenho superior. O aumento de 80% na utilização, mesmo com estes valores, mostra que as empresas estão numa corrida ao armamento da AI e não querem ficar para trás. Agora, imagino que as startups mais pequenas vão precisar de fazer algumas continhas antes de adotar o modelo. Como se fosse aquele restaurante caro do bairro - sabe que a comida é boa, mas tem de escolher bem quando lá vai.
Kit de Desenvolvimento de Agentes
Agent Development Kit (ADK) é uma estrutura flexível e modular para desenvolver e implementar agentes de AI. O ADK pode ser utilizado com LLMs populares e ferramentas de AI generativas de código aberto e foi concebido com foco na integração com o ecossistema Google e os modelos Gemini. O ADK facilita a iniciação com agentes simples alimentados por modelos Gemini e ferramentas Google AI, fornecendo o controlo e a estrutura necessários para arquiteturas e orquestração de agentes mais complexas.
Finalmente temos uma ferramenta que promete fazer aquela magia de «montar o seu próprio assistente de AI» sem precisar de um doutoramento em informática! O ADK parece-me o «Lego da AI» - blocos modulares que podes encaixar para criar desde um simples robôzinho até um exército de agentes inteligentes. O mais giro é que não se limita apenas ao ecossistema Google, o que mostra uma certa maturidade da empresa em entender que o mundo real é heterogéneo. Estou curioso para ver o que os developers criativos vão construir com esta caixinha de ferramentas nas mãos.
Anunciando o Protocolo Agent2Agent (A2A)
A Google anuncia o lançamento do protocolo Agent2Agent (A2A) em colaboração com mais de 50 parceiros tecnológicos. O A2A é um protocolo aberto que visa permitir que os agentes de AI comuniquem, troquem informações e coordenem ações em várias plataformas empresariais. O objetivo é promover a interoperabilidade entre agentes, aumentar a autonomia e impulsionar a eficiência e a inovação, independentemente dos seus fornecedores ou tecnologias subjacentes.
Sabe quando tem aqueles amigos que não se dão bem e precisa de ser o intermediário nas conversas? Pois é, o A2A promete acabar com isso no mundo dos agentes de AI! Ter 50 parceiros já embarcados neste protocolo é um sinal forte de que a indústria está cansada da fragmentação. Imagino um futuro próximo onde o assistente da Google conversa numa boa com o da Microsoft, que fala com o da Amazon... Parece muito um grupo de WhatsApp para AIs! Só espero que não comecem a coscuvilhar sobre nós, humanos, nas nossas costas.
Apresentamos o Firebase Studio e ferramentas de programador agentic para construir com Gemini
Milhões de programadores utilizam o Firebase para envolver os seus utilizadores, alimentando mais de 70 mil milhões de instâncias de aplicações todos os dias. No Google Cloud Next, foi apresentada uma suite de novas funcionalidades que transforma o Firebase numa plataforma de ponta a ponta para acelerar o ciclo de vida completo da aplicação. O novo Firebase Studio, disponível para todos em versão prévia, é um ambiente de desenvolvimento agentic baseado na nuvem e alimentado pelo Gemini que inclui tudo o que os programadores precisam para criar e publicar rapidamente aplicações de AI com qualidade de produção, tudo num só local.
O Firebase já era um amigo de confiança dos programadores, e agora ganhou super-poderes com a AI! O que me anima no Firebase Studio é a promessa de democratizar o desenvolvimento de apps com AI, exatamente como o grande Bolt faz no Stackblitz - imagino que isto vai permitir que muitas ideias giras saiam do papel sem precisar de um orçamento de Silicon Valley. Se realmente cumprir o que promete, podemos esperar uma explosão de aplicações inteligentes nos próximos meses. Quem sabe se até eu não me animo a criar aquela app que sempre tive na cabeça?
Gemini Code Assist, assistente de programação de AI da Google, recebe competências «agênticas»
Gemini Code Assist, o assistente de programação de AI da Google, está a ganhar novas funcionalidades «agênticas» em versão prévia. A Google disse que o Code Assist pode agora implementar novos «agentes» de AI que podem realizar várias etapas para realizar tarefas de programação complexas. Estes agentes podem criar aplicações a partir de especificações de produtos no Google Docs, por exemplo, ou realizar transformações de código de uma linguagem para outra. As atualizações do Code Assist são provavelmente em resposta à pressão competitiva de rivais como o GitHub Copilot, Cursor e Cognition Labs.
E a corrida para ver quem vai reformar os programadores primeiro continua! Brincadeiras! O Gemini Code Assist com características agênticas parece ser o sonho de qualquer programador preguiçoso (ou seja, um bom programador). Criar uma app inteira a partir de uma especificação num Google Doc? Isto é quase mágica! A Google está certamente a sentir o fôlego do Windsurf e do Cursor na nuca, e esta atualização mostra que a concorrência está a fazer bem ao mercado. Como alguém que já passou horas a converter código de uma linguagem para outra, posso dizer que esta funcionalidade por si só já vale um abraço na equipa de desenvolvimento da Google.
Novas ferramentas de AI generativa de vídeo, imagem, fala e música estão a chegar ao Vertex AI.
A Google anunciou quatro grandes atualizações para media generativa dentro do Vertex AI, a plataforma de desenvolvimento de AI unificada e totalmente gerida da Google Cloud: Lyria (modelo de texto para música da Google), Veo 2 (novas capacidades de edição e controlos de câmara), Chirp 3 (Instant Custom Voice) e Imagen 3 (reconstrução de partes em falta ou danificadas de uma imagem e edição de remoção de objetos com qualidade ainda superior). Estas atualizações tornam o Vertex AI a única plataforma com modelos de media generativa em vídeo, imagem, voz e música.
A Google está a transformar o Vertex AI num amigo multi-talentoso que sabe tocar vários instrumentos, canta bem, tira fotografias incríveis e ainda faz vídeos profissionais! É instigante ver todos estes modelos criativos reunidos numa única plataforma. O que mais me entusiasma é o Imagen 3 - quem nunca quis «ressuscitar» aquela foto especial que tinha um dedo à frente ou tinha aquele intrometido no fundo? Já estou a imaginar os criativos das agências de publicidade a esfregar as mãos com estas ferramentas. O único perigo é ficarmos tão habituados a conteúdos perfeitos que nos vamos esquecer de como é o mundo real, com as suas imperfeições encantadoras.
Novo modelo Gemini AI da Google foca-se na eficiência
A Google está a lançar um novo modelo de AI concebido para oferecer um forte desempenho com foco na eficiência. O modelo, Gemini 2.5 Flash, será lançado em breve na Vertex AI, a plataforma de desenvolvimento de AI da Google. A empresa afirma que oferece computação «dinâmica e controlável», permitindo aos programadores ajustar o tempo de processamento com base na complexidade das consultas.
O Gemini 2.5 Flash parece ser a resposta da Google àquela eterna queixa dos programadores: «porque é que esta AI demora tanto tempo a responder a coisas simples?». Imagina ter um desportivo que sabe quando poupar combustível e quando pisar a fundo. A capacidade de ajustar o tempo de processamento com base na complexidade da consulta é realmente inteligente - não preciso da potência total do motor para perguntar que horas são, certo? Isto deverá trazer um bom equilíbrio entre desempenho e custo, algo essencial para as empresas que querem tirar partido da AI sem ter de vender um rim para pagar a conta no final do mês.
Google anuncia a automatização do «Workspace Flows» com Gems, áudio no Docs e mais Gemini
Para além das novas funcionalidades do Gemini no Google Docs, Sheets, Meet, Chat e Vids, o Cloud Next 2025 viu o anúncio do Google Workspace Flows, uma ferramenta para automatizar processos de várias etapas utilizando AI que pode pesquisar, analisar e gerar conteúdo. O Workspace Flows pode referir-se a ficheiros do Google Drive para contexto e utilizar Gems treinados à medida para dar os próximos passos certos. O Google Docs está a adicionar funcionalidades de áudio que lhe permitem criar resumos ao estilo de podcast e versões de áudio completas dos seus documentos.
Finalmente o Google Workspace está a entrar na era da verdadeira automação. O Workspace Flows parece ser o assistente executivo que sempre sonhei ter - alguém que não só percebe o que estou a pedir, como também sabe onde encontrar a informação certa sem que eu tenha de estar a explicar tudo. E esta função de áudio no Docs? Genial! Agora posso transformar os meus relatórios aborrecidos em podcasts que ninguém vai ouvir (brincadeira!). Na real, isto é perfeito para a acessibilidade e para aqueles momentos em que quer rever um documento enquanto conduz ou faz exercício. A Google está claramente a perceber que nem toda a gente consome conteúdo da mesma forma.
Pesquisa Aprofundada com Gemini 2.5 Pro (experimental) já disponível
Os subscritores do Gemini Advanced podem agora realizar pesquisas aprofundadas com o modelo 2.5 Pro (experimental) mais inteligente da Google. Os utilizadores gratuitos não têm acesso a ele hoje. Os avaliadores preferiram os relatórios gerados pelo Gemini Deep Research com tecnologia 2.5 Pro em relação a outros fornecedores líderes de investigação aprofundada por mais de 2 para 1. A avaliação inclui o acompanhamento das instruções, a abrangência, a integridade e a qualidade da escrita.
A função de pesquisa aprofundada do Gemini parece ser um nerd que não só lê todos os livros, como também faz anotações impecáveis e entrega-lhe um resumo perfeito. Anima-me ver a Google a colocar esta funcionalidade apenas para assinantes, seguindo a lógica do «queres o melhor? Vais ter de pagar». Os resultados da avaliação são impressionantes - superar a concorrência numa proporção de 2 para 1 não é coisa pouca. Como alguém que já passou noites em branco a fazer pesquisas para trabalhos e artigos, posso dizer que uma ferramenta destas vale cada cêntimo... se entregar ao que promete, claro. Agora só falta a Google criar uma versão que escreva também a bibliografia e documentação de sistemas no formato correcto!
Raciocínio Geoespacial: Desbloquear insights com AI generativa e múltiplos modelos de fundação
A Google está a introduzir novos modelos de fundação geoespacial e a uni-los ao Raciocínio Geoespacial, um esforço de investigação que utiliza AI generativa para acelerar a resolução de problemas geoespaciais. Isto pode desbloquear insights poderosos para a resposta a crises, saúde pública, resiliência climática, aplicações comerciais e muito mais.
Olha, esta pode não parecer a novidade mais sexy do evento, mas é possivelmente uma das mais importantes! Imagina uma AI que pode analisar padrões geográficos complexos e ajudar a prever inundações, otimizar rotas de evacuação durante desastres ou rastrear a propagação de doenças. O potencial para salvar vidas e recursos é imenso. Além disso, as aplicações comerciais são infinitas - desde a agricultura de precisão até à logística otimizada. Se trabalha com dados geoespaciais, penso que acabou de ganhar um superassistente que tornará o seu trabalho muito mais impactante.
A Google está a surfar na onda agêntica
Ufa! O Google Cloud Next 2025 foi como uma enxurrada de novidades de AI, não foi? É claro que a empresa está a apostar todas as fichas no conceito de agentes de AI.
A impressão que fica é que a Google está a construir um ecossistema completo, desde o hardware especializado (Ironwood TPU) até ferramentas que democratizam a criação de agentes (ADK e Firebase Studio), sem esquecer a infraestrutura para que estes agentes falem entre si (A2A). É uma visão ambiciosa que vai muito além de simplesmente ter a AI mais inteligente - trata-se de criar um mundo onde humanos e AI colaboram de forma mais natural e produtiva.
Será interessante ver como estas tecnologias serão adotadas e que casos de utilização surgirão nos próximos meses. Uma coisa é certa: o ritmo de inovação na área da AI não mostra sinais de abrandamento. Se trabalha em tecnologia, é melhor habituar-se a aprender coisas novas constantemente. E se não trabalha... bem, talvez esteja na altura de considerar!