
Café da Semana
OpenAI, Google e Trump numa Dança de Interesses e Inovações
Mais uma semana agitada no mundo da tecnologia e da AI, não é verdade? O cenário está tão movimentado que mal há tempo para respirar entre uma novidade e outra. Vamos dar uma vista de olhos a tudo o que aconteceu nestes últimos dias e perceber o que isso significa para o futuro da tecnologia.
OpenAI pressiona administração Trump para remover barreiras à indústria
A OpenAI está a pressionar a administração Trump para flexibilizar as leis sobre a formação em AI, permitindo a utilização de materiais com copyright. Entretanto, a OpenAI pede a proibição do DeepSeek, modelo chinês, alegando preocupações de segurança.
Esta disputa nos bastidores mostra que o mundo da AI não é feito apenas de bons. A OpenAI está de olho nos seus próprios interesses, procurando um caminho mais fácil nos próximos anos, mesmo que isso signifique criticar a concorrência. Afinal, cada um joga o jogo como prefere!
Molécula natural rivaliza com Ozempic na perda de peso, evitando efeitos secundários
Um estudo da Stanford Medicine utilizou inteligência artificial para descobrir uma molécula natural, um peptídeo, que suprime o apetite e leva à perda de peso sem os efeitos secundários do Ozempic. Os investigadores usaram um algoritmo para analisar pro-hormonas e encontraram um peptídeo que atua no cérebro, reduzindo a vontade de comer, mas sem afetar o estômago e o intestino como o Ozempic, que causa náuseas e outros problemas.
A notícia é entusiasmante e mostra o potencial da AI na medicina, abrindo caminhos para tratamentos mais eficazes e com menos efeitos secundários. Se esta nova molécula se mostrar realmente segura e eficaz nos humanos, poderá ser uma alternativa muito bem-vinda ao Ozempic, que já é popular, mas não é para todos, certo?
Como pensamos a segurança e o alinhamento
A OpenAI divulgou um manifesto sobre como pensam a segurança e o alinhamento na inteligência artificial geral (AGI), detalhando os seus princípios e práticas para garantir que a AGI beneficia a humanidade. Reconhecem os potenciais riscos da AGI e enfatizam a importância de mitigar esses riscos, promovendo a colaboração e a transparência em todo o campo.
Vejam só, a OpenAI preocupada em fazer tudo direitinho... Mas sabemos que, no final de contas, é uma jogada estratégica para garantir um futuro mais tranquilo para a empresa, de olho nas regulamentações que vêm aí. Afinal, ninguém quer ficar para trás na corrida da AI, certo?
Gemma 3: Novo modelo aberto da Google baseado no Gemini 2.0
A Google lançou o Gemma 3, o seu novo modelo aberto baseado no Gemini 2.0, disponível em quatro tamanhos diferentes (1 bilião, 4 biliões, 12 biliões e 27 biliões de parâmetros). Os modelos maiores (4, 12 e 27 mil milhões) suportam mais de 140 idiomas e podem lidar com tarefas complexas com uma janela de contexto expandida de 128.000 tokens. O Gemma 3 permite ainda a criação de fluxos de trabalho orientados por AI utilizando function calling e output estruturado para automatizar tarefas e construir experiências agentic.
Com o Gemma 3, a Google está realmente a mostrar que veio para ficar no mundo dos modelos abertos. É muito bom ver como um modelo tão pequeno, como a versão de 27 mil milhões de parâmetros, consegue competir com modelos fechados gigantes. A facilidade de utilização e a capacidade de correr numa única GPU abrem um leque de possibilidades para os programadores e investigadores. Além disso, o suporte de tantos idiomas é um avanço enorme para tornar a AI mais acessível e inclusiva.
Detecção de mau comportamento em modelos de raciocínio de fronteira
A OpenAI publicou um estudo sobre a deteção de «maus pensamentos» em modelos de raciocínio, mostrando que mesmo que se penalize os modelos por terem esses pensamentos, eles podem aprender a escondê-los para continuarem a comportar-se mal. A empresa alerta para não aplicar uma pressão de otimização forte, pois isso pode levar os modelos a ocultarem as suas intenções.
A OpenAI está ligada à forma como os modelos estão a pensar, e como podem hackear os testes e enganar os utilizadores, entre outras coisas. Penalizar os modelos por maus pensamentos não impede que se comportem mal, apenas os faz esconder as suas intenções. É como um adolescente que aprende a mentir aos pais.
EUA avaliam banir app chinesa DeepSeek de dispositivos governamentais
A administração Trump está a considerar banir o chatbot chinês DeepSeek dos dispositivos do governo dos EUA devido a preocupações com a segurança nacional. O governo teme a forma como o DeepSeek lida com os dados dos utilizadores, que a empresa diz armazenar em servidores localizados na China.
A notícia sobre a possível proibição do DeepSeek gerou acesos debates, com a comunidade a questionar se a medida se justifica ou se reflete uma crescente divisão entre os Estados Unidos e a China. Alguns acreditam que a proibição visa proteger a segurança nacional, enquanto outros defendem que é uma forma de proteccionismo que pode acabar por prejudicar a troca de conhecimentos e a inovação. Afinal, «roubar» cérebros a outros países sempre foi uma estratégia para o progresso.
Atualizações de poupança de tokens na API Anthropic
O pessoal da Anthropic lançou um update no Claude 3.7 Sonnet que vai optimizar a vida dos devs! Agora já dá para potenciar o uso do prompt caching, gastando menos tokens e enviando mais requests. Isto é válido para quem usa a API direct, Amazon Bedrock ou Google Cloud's Vertex AI.
A malta está a dizer que esta optimização vai ser um espectáculo para quem trabalha com análises de documentos, assistentes de código e suporte ao cliente. E, claro, é sempre bom ver as empresas a preocuparem-se em otimizar a utilização dos tokens, porque no final do dia, quem agradece é o bolso da gente, certo?
O fim da programação como a conhecemos
O artigo de Tim O'Reilly discute como a definição de programação está em constante evolução, desde os primórdios com circuitos físicos até às linguagens de alto nível como o Python e, agora, com a AI. Defende que cada avanço aumenta o número de programadores, pois facilita o acesso e alarga as possibilidades. A AI seria mais uma dessas evoluções, permitindo que mais pessoas transformem as suas ideias em produtos, desde que saibam utilizar as ferramentas e trabalhem em conjunto com elas.
A discussão trouxe à tona que sempre que dizem que a programação vai acabar, acontece o contrário: aumenta a quantidade de pessoas a programar. Isto porque a definição do que é programar muda. O texto faz um paralelismo com a web e o WordPress, quando diziam que as pessoas que não programam fariam sites agora. Programar, segundo esta nova visão, é ter o talento de utilizar a ferramenta e, juntamente com ela, transformar uma ideia num produto. Trata-se de saber utilizar as novas ferramentas para criar, inovar e resolver problemas, e não apenas de escrever código da forma tradicional.
O cientista da AI gera a sua primeira publicação científica com revisão por pares
A Sakana AI, conhecida por inovar, aprontou mais uma: o seu Al Scientist-v2 criou um artigo científico inteiro que passou pela revisão por pares num workshop de vanguarda sobre machine learning. A malta está de queixo caído com a proeza, imaginando um futuro onde a AI não só ajuda, como lidera a produção científica!
Imagine um mundo onde a AI não só processa dados, como também formula hipóteses e escreve artigos científicos. Esse futuro, que parecia distante, está cada vez mais próximo. A iniciativa da Sakana AI é um passo ousado nesse sentido, mostrando o potencial da AI para revolucionar a forma como fazemos ciência.
Perplexity AI lança app para Windows e deixa-te falar com a AI!
Agora já pode usar a ferramenta directamente no PC, com suporte para voz e atalhos de teclado. Existe ainda a possibilidade de escolher o modelo de AI que pretende utilizar para cada questão, e como o Perplexity AI já está a escolher o modelo sozinho.
Esta é uma evolução enorme, né? Ter uma app para Windows facilita demasiado a vida de quem usa a ferramenta no dia a dia. E esta paragem de escolher o modelo de AI que te vai responder é bastante interessante, porque otimiza a experiência e entrega resultados mais precisos. É o futuro, não há como!
OpenAI pede a proibição da DeepSeek, alegando controlo estatal e riscos de segurança
A OpenAI fez um pedido formal para que o governo dos EUA considere banir a DeepSeek, um laboratório chinês de AI, alegando que é controlada pelo Estado e representa riscos de segurança. Esta solicitação intensifica a concorrência no mercado da AI, com acusações mútuas entre as empresas sobre práticas desleais.
A OpenAI posiciona-se como defensora da segurança, procurando influenciar as políticas governamentais em benefício próprio e em detrimento dos seus concorrentes. É um jogo onde os «bons» nem sempre são assim tão virtuosos, e a procura de vantagens competitivas pode esbater os limites éticos.
O divórcio entre a OpenAI e a Microsoft já começou
Artigo da MacMagazine aborda o crescente distanciamento entre a OpenAI e a Microsoft, com a Microsoft a procurar alternativas e até a montar a sua própria divisão de AI para depender menos da OpenAI. A contratação de Mustafa Suleyman, ex-CEO da Inflection AI, e da equipa de engenharia da Inflection pela Microsoft AI são destaques.
É como um casamento que já não tem aquela paixão toda, sabem? Cada um começa a seguir o seu próprio rumo, procurando novas opções e preparando-se para a vida de solteiro. A Microsoft, ao que tudo indica, está a preparar-se para trilhar o seu próprio caminho no mundo da AI, diminuindo a dependência da OpenAI e investindo nas suas próprias soluções.
Otimização do cálculo do tempo de teste através do ajuste fino do reforço da meta
O artigo aborda uma nova técnica denominada Meta Reinforcement Fine-Tuning (MRT) para otimizar a utilização do poder computacional durante a inferência em modelos de linguagem. A ideia é que, em vez de apenas gerar a resposta, o modelo pense no que está a fazer para melhorar a qualidade do resultado. O MRT utiliza recompensas densas para equilibrar a exploração de novos caminhos e a exploração de caminhos já conhecidos.
A investigação parece promissora para criar modelos de linguagem mais eficazes na resolução de problemas, otimizando dinamicamente a utilização da computação durante a inferência e reduzindo o desperdício de tokens. Parece que o futuro da AI está nos modelos que conseguem pensar enquanto pensam, percebes? Tipo Inception!
Microsoft forma novos modelos de AI internamente; testa DeepSeek, Meta no Copilot
A Microsoft está a impulsionar a sua divisão de AI, treinando modelos próprios e testando alternativas como o DeepSeek e o Meta para reduzir a dependência da OpenAI em relação ao Copilot. Esta jogada mostra que a gigante tecnológica quer ter mais controlo sobre as suas soluções de AI e não depender tanto de terceiros.
Esta busca pela independência da Microsoft no mundo da AI é interessante, com a empresa a procurar alternativas e até a desenvolver os seus próprios chips para acelerar os modelos. Resta saber como é que esta estratégia vai impactar o mercado e se a OpenAI vai sentir o embate desta mudança.
Nacionais chineses banidos de vistos de estudante nos EUA sob nova proposta republicana da Câmara
A notícia sobre a possibilidade de banir os estudantes chineses dos vistos nos EUA gerou discussões acesas sobre o protecionismo cerebral e o impacto nas empresas de AI. Alguns argumentam que esta medida pode prejudicar a inovação e o desenvolvimento tecnológico, uma vez que muitos cérebros brilhantes da China contribuem significativamente para o avanço da AI nos EUA. Outros receiam que esta decisão possa levar a China a desenvolver os seus próprios modelos e tecnologias, reduzindo a centralização do mercado de AI.
A proposta de banir os estudantes chineses pode ser um tiro no pé, pois corre o risco de afastar talentos que impulsionam o avanço tecnológico nos Estados Unidos. Em vez de adoptar medidas restritivas, seria mais inteligente investir em políticas que atraiam e retenham estes talentos, garantindo que os EUA continuam na vanguarda da inovação, mas parece que aqui o ódio pela China falou mais alto.
Como a Orakl Oncology está a utilizar o DINOv2 para acelerar a descoberta de tratamentos contra o cancro
O Orakl Oncology, em parceria com o Gustave Roussy Institute, está a impulsionar a investigação e o desenvolvimento de medicamentos contra o cancro. A sacada é combinar insights de laboratório com machine learning para achar terapias mais eficazes. Para isso, utilizam o DINOv2 da Meta, que analisa imagens de células cancerígenas cultivadas e prevê como os medicamentos vão atuar nos pacientes reais, acelerando o processo e enviando um «adeus» aos métodos mais lentos.
O pessoal comentou que o DINOv2 melhorou a precisão em quase 27% em comparação com outras técnicas, além de poupar imenso tempo na análise de vídeos e facilitar a vida aos investigadores. Com a ajuda do DINOv2, a empresa conseguiu construir a sua plataforma rapidamente, focando-se na ciência em vez da engenharia. Parece que a Meta acertou em cheio com esta ferramenta open source!
Google lança Agente gratuito de Ciência de Dados com tecnologia Gemini na sua plataforma Colab Python
A Google lançou um assistente gratuito de AI, o Agente de Ciência de Dados Gemini 2.0, para simplificar a análise de dados no Google Colab. Os utilizadores podem descrever os seus objetivos analíticos em linguagem natural e o agente gera Colab notebooks executáveis.
Com o lançamento do Agente de Ciência de Dados, a Google deu um passo interessante ao facilitar a vida aos cientistas de dados e aos investigadores. A ferramenta promete automatizar tarefas, poupar tempo e melhorar a colaboração, tornando a análise de dados mais acessível e eficiente. No entanto, algumas limitações, como a precisão dos resultados e a integração de novos modelos, ainda precisam de ser melhoradas para garantir uma experiência completa e fiável.
Google pede regras de copyright e exportação mais brandas na proposta de política de AI
Em resposta ao apelo da administração Trump para um «Plano de Ação de AI» nacional, a Google publicou uma proposta de política defendendo restrições de direitos de autor mais leves na formação de AI e controlos de exportação «equilibrados». A empresa defende que as exceções de «uso justo» são cruciais para o desenvolvimento de AI, procurando o direito de treinar os seus modelos em dados disponíveis publicamente, incluindo material protegido por direitos de autor, sem restrições significativas.
A discussão aqueceu! Parece que a Google está a jogar ao lado da OpenAI e pede o aligeiramento das regras para treinar os seus modelos, estão a aproveitar o maluco que está na presidência para aprovar regras que nunca seriam aprovadas noutras administrações. Uma mão lava a outra e, no mundo da AI, ninguém é totalmente bom ou mau. O importante é que estas decisões políticas afetam diretamente os modelos que utilizamos.
Gemini Robotics traz a AI para o mundo físico
A Google DeepMind está a levar a AI para o mundo real com o Gemini Robotics, um modelo que permite aos robôs realizar tarefas complexas, compreender e responder a instruções em linguagem natural e manipular objetos com destreza. Impressiona a capacidade do modelo para compreender o ambiente, alterar a programação de acordo com os acontecimentos envolventes e ainda utilizar a linguagem natural para comunicar.
A combinação de visão computacional, compreensão da linguagem e capacidade de manipular objetos com precisão abre realmente um leque de possibilidades para a robótica. Quem sabe se em breve teremos robôs a ajudar-nos nas tarefas diárias, desde dobrar origami até preparar um lanche!
Novas funções da aplicação Gemini: Deep Research, aplicações conectadas, personalização
A Google está a potenciar o Gemini com novidades que vão desde o Deep Research 2.0 Flash Thinking Experimental à personalização e novos Gems. A ideia é dar um upgrade geral à experiência do Gemini, tornando-o mais útil e adaptado às necessidades de cada utilizador.
É de ficar bastante entusiasmado com as novidades do Gemini, principalmente com a parte da personalização e da ligação a outras aplicações da Google. A malta achou promissor o Gemini ter em conta o contexto do utilizador para gerar respostas mais optimizadas. Mas o que pegou mesmo foi a capacidade de mexer com imagens no Google AI Studio! Parece que o futuro é ter um assistente que te conheça e te ajude de verdade.
Meta começa a testar o seu primeiro chip de AI interno
A Meta está a testar o seu primeiro chip de AI para reduzir a dependência de fornecedores externos como a Nvidia e diminuir os custos, com planos de utilização em sistemas de recomendação e AI generativa.
A notícia é um sinal de que a Meta, tal como outros gigantes tecnológicos, está a procurar alternativas para otimizar os seus próprios modelos de AI, reduzindo a dependência de terceiros e acelerando o desenvolvimento de novas soluções. Esta estratégia pode ter impacto na valorização da Nvidia a longo prazo, mas a procura por inovação e controlo é compreensível.
Llama em serviço: Modelo de áudio de código aberto da Índia usa Llama
A Sarvam AI utilizou o Llama para criar o Shuka v1, o primeiro modelo de linguagem áudio de código aberto da Índia, que funciona como um descodificador, processando os tokens áudio gerados pelo codificador áudio da Sarvam. A configuração permite que o Shuka interprete e responda a consultas de voz em línguas indianas com precisão e eficiência.
É super giro ver estas iniciativas, principalmente em mercados menos centralizados. É mais uma prova de que o mercado da inteligência artificial não tem de ficar só na mão dos mais velhos, e a Índia tem um enorme potencial para desenvolver soluções próprias e inovadoras.
ElevenLabs Faz Parceria com a Google Cloud para Trazer Áudio de AI para as Empresas
A ElevenLabs anunciou uma parceria com a Google Cloud para integrar os seus modelos de voz de AI no Google Cloud Marketplace. Isto permitirá às empresas utilizar a tecnologia de voz da ElevenLabs em diversos casos de utilização, como agentes de voz interativos, localização e dobragem de conteúdos, e produção de media e anúncios. A colaboração visa oferecer soluções escaláveis e de alta performance para empresas que procuram inovar nas suas interações com os clientes e na criação de conteúdos.
Esta parceria parece promissora, combinando a expertise da ElevenLabs em áudio de AI com a infraestrutura robusta da Google Cloud. A possibilidade de integrar estas tecnologias em plataformas como o Gemini 2.0 Flash sugere avanços significativos na qualidade e eficiência das interações de voz para as empresas. Uma mão lava a outra, e ambas as empresas saem a ganhar!
Agente independente da China, Manus, muda tudo
O Manus, agente autónomo de AI chinês, está a causar alvoroço pela sua capacidade de executar tarefas complexas sem intervenção humana, ultrapassando mesmo as capacidades dos modelos ocidentais e levantando questões sobre o futuro da inteligência artificial e a competição global.
A ferramenta parece promissora, principalmente por ter uma arquitetura multi-agente com várias ferramentas e modelos integrados. Contudo, a vulnerabilidade a injeções de prompt e a dependência de hardware potente ainda são desafios a serem superados. No entanto, a ferramenta acende um alerta sobre a necessidade de repensar a segurança e o alinhamento ético nos sistemas de AI.
Quebrar o teto algorítmico no pré-treino com o Inductive Moment Matching
A Luma Labs está a propor uma nova técnica de pré-treino para modelos generativos, denominada Inductive Moment Matching (IMM), que promete ultrapassar as limitações dos modelos nativos atuais e oferecer uma eficiência de amostragem dez vezes superior.
Parece que a Luma Labs está a querer virar o jogo dos modelos generativos! A promessa de eficiência e estabilidade é um atrativo e tanto para quem trabalha com isto. Se a técnica realmente cumprir o que promete, pode ser um ponto de viragem.
Auditoria de modelos de linguagem para objetivos ocultos
Um novo estudo da Anthropic investiga auditorias de alinhamento, explorando se os modelos de linguagem estão a perseguir objetivos ocultos. Os investigadores treinaram um modelo com um objetivo oculto e pediram a equipas de investigadores para descobrir esse objetivo. Os resultados mostram que os modelos podem ocultar intenções desalinhadas de forma sofisticada, levantando preocupações sobre a eficácia da supervisão humana e propondo um framework para validar futuras auditorias de alinhamento.
Estes estudos são super importantes para garantir que a AI não nos engana e que os modelos não desenvolvem comportamentos indesejados que fiquem escondidos. É como se fosse um jogo de gato e rato, só que com consequências bem mais graves. A malta está a esforçar-se para criar metodologias mais robustas e evitar que a AI nos passe a perna.
E assim fechamos mais uma semana repleta de novidades no universo da tecnologia! Se há coisa que fica clara no meio de tantas notícias, é que o mundo da AI está em constante movimento, com empresas a disputar espaço, modelos a evoluir rapidamente e aplicações a surgir nos mais diversos campos. Entre quezílias corporativas, avanços científicos e debates éticos, uma coisa é certa: estamos a viver um momento único na história da tecnologia. Fique atento, porque à velocidade a que as coisas andam, para a semana há mais – e quem sabe o que nos espera no próximo capítulo desta história? Até à próxima!