
Café da Semana
Da inteligência artificial em laboratórios de vírus à era da experiência
Olá, malta! Bem-vindos a mais uma edição do DevCafé, onde vos trago o melhor (e por vezes o mais assustador) do mundo da tecnologia e inteligência artificial. Esta semana temos uma variedade impressionante de notícias que vão desde a AI a superar especialistas em vírus até novos modelos de AI para geração de voz. Senta-te, prepara um café e vamos a isto!
Exclusivo: AI supera especialistas em vírus em laboratório, levantando receios de risco biológico
Um novo estudo afirma que modelos de AI como o ChatGPT e o Claude agora superam virologistas com doutoramento na resolução de problemas em laboratórios, onde os cientistas analisam produtos químicos e material biológico. Esta descoberta é uma faca de dois gumes, dizem os especialistas. Modelos de AI ultra-inteligentes podem ajudar os investigadores a impedir a propagação de doenças infeciosas, mas não-especialistas também podem usar os modelos para criar armas biológicas mortais.
Ora bem, não sei se devo ficar entusiasmado ou aterrorizado com esta notícia. Por um lado, é absolutamente fascinante que a AI possa contribuir para avanços médicos significativos. Por outro lado, quando vejo «AI» e «armas biológicas» na mesma frase, o meu sistema nervoso entra em estado de alerta! É como dar um Ferrari a alguém que acabou de tirar a carta de condução – as possibilidades são fantásticas, mas o risco de acidente é enorme. Acho que precisamos urgentemente de um código de conduta global para estas aplicações de AI, antes que alguém decida «experimentar» algo no porão de casa.
Aplicação de segurança social com inteligência artificial do Brasil está a rejeitar reclamações indevidamente
Uma ferramenta algorítmica destinada a reduzir a burocracia está a falhar em casos complexos, e os brasileiros vulneráveis estão a pagar o preço. O Brasil introduziu ferramentas de inteligência artificial para rever os benefícios sociais em 2018. O governo pretende que o algoritmo reveja 55% dos pedidos de segurança social até ao final de 2025. A ferramenta reduziu a burocracia em alguns casos, mas levou a negações automáticas para muitos.
Isto é exatamente o que acontece quando automatizamos sistemas sem pensar nas consequências para os mais vulneráveis. O Brasil quis dar um salto tecnológico impressionante, mas esqueceu-se de verificar se o paraquedas estava a funcionar antes de saltar... É o clássico dilema – a tecnologia promete eficiência, mas muitas vezes à custa da empatia e compreensão humana. Espero sinceramente que revejam este sistema, porque nada é mais desumano do que um algoritmo a decidir se uma pessoa merece ou não apoio social, especialmente quando esse algoritmo parece estar programado para dizer «não» por defeito.
Emirados Árabes Unidos vão usar inteligência artificial para escrever leis
Os Emirados Árabes Unidos (EAU) planeiam usar AI para redigir e rever as leis federais e locais. Esta iniciativa representa uma mudança significativa nos processos legislativos dos EAU, que visa acelerar a criação de leis. Os EAU estão a liderar a mudança global da regulação para a governação com AI, pioneiros na utilização da AI para criar regulamentos, representando uma mudança fundamental na abordagem da governação, dado que a acessibilidade jurídica multilingue responde ao desafio demográfico único dos EAU.
Vamos lá ver... AI a escrever leis? Os EAU estão sempre na vanguarda da tecnologia, e tenho de admirar a sua ambição, mas isto levanta questões importantes sobre quem realmente está a tomar as decisões. Imaginem só as possibilidades: «Artigo 1: Os humanos devem carregar os seus dispositivos AI todas as noites» ou «Artigo 2: É proibido desligar a Alexa quando ela começa a falar sem ser solicitada». Olha, será fascinante ver como isto se desenvolve – especialmente se considerarmos que a AI pode ajudar a tornar as leis mais acessíveis numa sociedade tão diversificada como a dos EAU.
Protocolo de comunicação de agente (ACP) da IBM: uma visão geral técnica para engenheiros de software
O protocolo de comunicação de agente (ACP) da IBM Research fornece a agentes autónomos um «formato de fio» comum para comunicar entre si. O ACP lida com um ponto problemático quando um bot com tecnologia LLM precisa chamar outro bot: cada framework inventa a sua própria forma JSON, história de autenticação e hack de streaming.
Novamente! Isto é como criar uma língua universal para que todos os robots possam conversar sem problemas de tradução. A IBM está essencialmente a construir o «Esperanto dos bots». Como desenvolvedor, já perdi a conta às horas que passei a tentar fazer diferentes sistemas falarem entre si, quase como um intérprete num encontro diplomático entre nações que não partilham uma língua comum. Se isto funcionar como prometido, pode ser um enorme avanço para a interoperabilidade entre diferentes sistemas de AI. Imaginem um mundo onde o ChatGPT e o Claude conseguem trocar informações sem se perderem na tradução. A questão aqui é: mas a Google não já lançou algo parecido há duas semanas no Google Cloud Next com o A2A?
Nvidia anuncia a disponibilidade geral das ferramentas NeMo para a construção de agentes de AI
A Nvidia Corp. anunciou a disponibilidade geral dos microsserviços NeMo, um conjunto de ferramentas para ajudar os programadores a construir agentes de inteligência artificial mais rapidamente, aproveitando a inferência de AI e os sistemas de informação à escala. Os microsserviços NeMo suportam um grande número de modelos de AI abertos populares e foram concebidos para facilitar a experiência dos engenheiros de AI empresariais na construção de experiências de AI agentic ao dimensionar e aceder a dados.
A Nvidia já não se contenta em dominar apenas o mercado das GPUs – agora quer também ser o teu melhor amigo no desenvolvimento de AI. É como se tivessem percebido: «Já que toda a gente usa o nosso hardware para a AI, porque não lhes dar também o software?» Os microsserviços NeMo parecem ser uma ferramenta que todos os desenvolvedores de AI sonhavam ter, como um canivete suíço para a construção de agentes inteligentes. Tenho curiosidade para ver se isto se tornará tão essencial para os programadores de AI como as GPUs da Nvidia já são. Se for bem implementado, pode democratizar significativamente o desenvolvimento de aplicações de AI avançadas, mas ainda preciso pôr as mãos nisto pata ter a certeza de que vai dar certo.
Um novo modelo de conversão de texto em voz de código aberto chamado Dia chegou para desafiar ElevenLabs, OpenAI e muito mais
A Nari Labs lançou o Dia, um modelo de conversão de texto em voz de código aberto com 1,6 mil milhões de parâmetros, que visa produzir diálogos realistas diretamente a partir de texto. O modelo, que já está disponível para download e utilização, apresenta funcionalidades avançadas como suporte para nuances emocionais, identificação de interlocutores e a integração de pistas áudio não verbais. A equipa convida a comunidade a contribuir para o projeto através do Discord e GitHub.
Adoro ver modelos de código aberto a entrarem neste espaço. O Dia parece ser uma opção «indie» num mercado dominado por grandes estúdios. As funcionalidades relacionadas com emoção e identificação de interlocutores são particularmente interessantes – imaginem podcasts gerados automaticamente que não soam como robots entediados... O facto de ser de código aberto significa que a comunidade pode ajudar a melhorá-lo, e quem sabe onde isso nos levará. Estou ansioso para experimentar isto nos meus projetos e ver se consegue realmente fazer frente aos grandes nomes do sector. Quem sabe o DevCafé ganha uma versão podcast?
Adobe lança novos modelos de geração de imagens Firefly e uma aplicação web Firefly redesenhada
A Adobe lançou a mais recente versão da sua família Firefly de modelos de AI para geração de imagens, um modelo para gerar vetores e uma aplicação web redesenhada que alberga todos os seus modelos de AI, além de alguns dos seus concorrentes. A nova Firefly Image Model 4 melhora os seus antecessores em termos de qualidade, velocidade e quantidade de controlo sobre a estrutura e o estilo das saídas, ângulos de câmara e zoom. A empresa também está a tornar o seu modelo de vídeo Firefly, lançado em versão beta limitada no ano passado, disponível para todos. A Adobe está também a testar publicamente um novo produto chamado Firefly Boards, uma tela para ideação ou moodboarding.
A Adobe continua a mostrar que não está para brincadeiras quando se trata de AI criativa. A inclusão de um modelo para gerar vetores é interessante para os designers, que vivem e respiram no mundo do Illustrator. O Firefly Boards soa como a resposta da Adobe ao Midjourney, mas com aquele toque profissional que só a Adobe consegue oferecer. Tenho de admitir que estou curioso para ver como o controlo sobre ângulos de câmara e zoom funciona na prática – se for tão bom quanto parece, a produtividade vai disparar.
Apresentando o Grok Vision, áudio multilingue e pesquisa em tempo real no modo de voz
Apresentação do Grok Vision, com áudio multilingue e pesquisa em tempo real no modo de voz. Atualmente disponível em espanhol, francês, turco, japonês e hindi.
Parece que o Grok está a dar passos largos para se tornar verdadeiramente multimodal e internacional. O X/Twitter está a desenvolver capacidades de AI cada vez mais avançadas. O suporte multilingue é importante – afinal, nem todo o mundo fala inglês, certo? A pesquisa em tempo real no modo de voz soa conveniente, especialmente para quem está sempre a correr de um lado para o outro. Mas a verdadeira questão é: será que conseguirá competir com os gigantes como o GPT-4 da OpenAI e o Claude da Anthropic? O Elon nunca foi de fazer as coisas pela metade, por isso estou curioso para ver até onde o Grok conseguirá ir nesta corrida às armas de AI.
Família Grok 3, agora na API e Grok 3 Mini supera modelos de raciocínio com um custo 5x inferior
A xAI anunciou o lançamento da família Grok 3 na sua API, com o Grok 3 Mini a superar os modelos de raciocínio com um custo cinco vezes inferior. O Grok 3, o modelo de não raciocínio mais forte do mundo, destaca-se em tarefas que necessitam de conhecimento do mundo real, como direito, finanças e cuidados de saúde.
E por falar no Grok... a xAI não está parada na cena. Um modelo que supostamente supera a concorrência por um quinto do custo? Isso é música para os ouvidos de qualquer empresa que queira implementar AI sem estourar o orçamento. Estou intrigado com a afirmação de que é o «modelo de não raciocínio mais forte do mundo» – o que me faz questionar como é que define e mede esse «não raciocínio». É interessante que mencionem especificamente áreas como direito e finanças, que são tradicionalmente difíceis para os modelos de AI devido à complexidade e necessidade de precisão. Se o Grok realmente consegue destacar-se nestas áreas, pode rapidamente ganhar terreno face à concorrência. Penso que talvez, apenas talvez, se este novo modelo tivesse sido usado pelo Trump para decidir as tarifas, as coisas poderiam ter corrido melhor...
O Índice Anual de Tendências de Trabalho de 2025: A Empresa de Fronteira nasce
A Microsoft anunciou o Índice Anual de Tendências de Trabalho de 2025, que explora o impacto da inteligência artificial (AI) no local de trabalho. O relatório destaca o surgimento de um novo tipo de organização, a «Empresa de Fronteira», que se baseia na inteligência artificial, em equipas humano-agente e numa nova função para todos: chefe de agente. O relatório também enfatiza a importância de construir competências de AI para os funcionários e de investir em requalificação.
«Chefe de agente»? Parece que saiu diretamente de um episódio de Black Mirror. A Microsoft está a pintar um futuro de trabalho onde todos nós seremos um pouco gestores de AI. É um pouco inquietante. Por um lado, a ideia de equipas humano-agente pode realmente aumentar a produtividade e eliminar tarefas repetitivas. Por outro lado, quantos de nós ficaremos apenas a «supervisionar» o trabalho feito pelos agentes de AI? O foco na requalificação é crucial – precisamos urgentemente de preparar as pessoas para este novo mundo de trabalho, caso contrário arriscamo-nos a criar uma divisão ainda maior entre quem consegue adaptar-se e quem fica para trás. De qualquer forma, parece que o termo «colega de trabalho» está prestes a ganhar um significado totalmente novo!
Satya Nadella sobre Notebooks com AI e colaboração
Satya Nadella destaca a capacidade dos Notebooks em combinar Web, Work e Pages para permitir a colaboração com AI e transformar o workflow. Além disso, menciona a organização de dados heterogéneos para projetos e a capacidade de converter tudo numa nova modalidade, como um resumo áudio, utilizando como exemplo a recolha de informações sobre agentes e frameworks.
O Satya Nadella continua a ser um dos visionários mais interessantes no campo da tecnologia. O seu foco nos Notebooks como plataforma de colaboração com AI mostra como a Microsoft está a tentar reinventar a forma como trabalhamos. A capacidade de converter informações entre diferentes modalidades é muito interessante – imaginem poder transformar uma reunião de duas horas num resumo conciso de cinco minutos! Se a Microsoft conseguir implementar isto de forma intuitiva, pode ser um autêntico game-changer para a produtividade nas empresas. Só espero que não acabe por ser apenas mais uma ferramenta que nos deixa ainda mais sobrecarregados de informação.
Microsoft faz um movimento contra o Cursor e o Windsurf
A decisão da Microsoft de restringir o acesso à sua extensão C/C++ no VSCode para forks como o Cursor e o Windsurf. A mudança surge após o crescimento notável do Cursor e levanta questões sobre a competição, o ecossistema de extensões e o controlo da Microsoft sobre a sua plataforma.
Ora ora, parece que a Microsoft não gostou muito de ver o seu próprio código ser usado por concorrentes. É um pouco como emprestar o teu carro a um amigo e depois vê-lo a ganhar dinheiro como motorista de TVDE com ele. O Cursor tem ganho uma popularidade incrível entre os desenvolvedores que querem integrar AI no seu workflow de codificação, e a Microsoft claramente sentiu-se ameaçada. É um lembrete de que, por muito «open source» que o VSCode seja, a Microsoft ainda controla as rédeas. Esta decisão levanta questões importantes sobre o futuro do ecossistema de desenvolvimento de software – será que estamos a caminhar para jardins mais fechados? Como utilizador do VSCode, espero que a Microsoft reconsidere, pois a inovação costuma vir de lugares inesperados, não de restrições.
Assistente de voz de AI da Perplexity já disponível no iOS
O bot Perplexity está agora disponível em iPhones e dispositivos Android, permitindo que os utilizadores peçam para definir lembretes, enviar mensagens e muito mais. A app iOS da Perplexity recebeu uma atualização que permite o suporte para o assistente de voz de AI da empresa. Os utilizadores da Apple podem agora ativar o assistente na app e pedir-lhe que execute tarefas como escrever e-mails, definir lembretes e fazer reservas para o jantar.
A Perplexity está realmente a avançar em todo terreno. Primeiro revolucionaram as pesquisas na web e agora querem estar na nossa vida diária através dos nossos smartphones. Estão a transformar-se rapidamente de um motor de busca avançado para um assistente pessoal completo. A capacidade de definir lembretes e escrever e-mails coloca-os em competição direta com a Siri e o Google Assistant, mas com o poder da AI generativa por trás. Tenho de experimentar isto no iPhone da minha esposa (eu não tenho!) – se for tão bom quanto o seu motor de busca na web, a Siri pode ter os dias contados no telemóvel dela. A grande questão é: será que conseguirão integrar-se tão profundamente no sistema operativo como os assistentes nativos? Será que a Apple permitirá isto?
Perplexity AI entra no mercado de smartphones com a parceria da Motorola
A startup Perplexity AI anunciou uma parceria com a Motorola para integrar a sua tecnologia de inteligência artificial nos smartphones da marca, tornando o Razr no primeiro dispositivo a incorporar diretamente o Perplexity. Esta colaboração surge num contexto de crescente interesse em parcerias entre empresas de AI e fabricantes de smartphones, com o objetivo de facilitar o acesso dos utilizadores à tecnologia de AI no seu dia a dia.
A Motorola e a Perplexity – uma parceria que não estava no meu bingo de 2025... Uma empresa relativamente nova como a Perplexity conseguiu garantir um lugar tão prominente num dispositivo de consumo. O Razr sempre foi um telemóvel icónico, e esta integração pode ajudar tanto a Motorola a recuperar relevância quanto a Perplexity a alcançar mais utilizadores. Estamos a entrar numa era em que a AI integrada pode ser um fator decisivo na compra de um smartphone, e a Motorola parece ter percebido isso antes de muitos outros (além da Samsumg). Estou curioso para ver como esta integração funcionará na prática – será que veremos respostas completas da Perplexity a substituir as pesquisas tradicionais no telefone? Pode ser um diferencial interessante para a Motorola num mercado tão competitivo.
Google bloqueou a utilização de AI Perplexity pela Motorola, diz testemunha
O contrato da Google com a Motorola, da Lenovo Group Ltd., impediu o fabricante de smartphones de definir a AI Perplexity como assistente predefinido nos seus novos dispositivos, testemunhou um executivo da startup no julgamento antitrust da gigante da pesquisa.
Ora, vejam isto! Parece que aquela parceria Motorola-Perplexity tem mais história do que imaginávamos! O Google a usar contratos para impedir que concorrentes de AI sejam definidos como predefinição? Isso cheira muito a táticas dos anos 90 da Microsoft com o Internet Explorer. Ver este tipo de revelação surgir num julgamento antitrust – mostra como as grandes tecnológicas continuam a usar o seu poder de mercado para sufocar potenciais concorrentes. Se isto for comprovado, pode ter implicações sérias para o Google. Parece que a Perplexity está a incomodar o suficiente para o gigante das pesquisas recorrer a cláusulas contratuais para se proteger. Como utilizador, só posso ficar desapontado – quero poder escolher que assistente de AI utilizo no meu telemóvel, sem que algum contrato nos bastidores restrinja essa escolha.
Perplexity foi convidado a testemunhar no caso DOJ do Google
A Perplexity foi convidada a testemunhar no caso DOJ do Google. Os principais pontos são que o Google não deve ser desmembrado, o Chrome deve permanecer dentro e continuar a ser gerido pelo Google, e o Android deve tornar-se mais aberto à escolha do consumidor. Os consumidores devem ter a opção de escolher quem querem como pesquisa padrão e assistente de voz.
A posição da Perplexity é bastante equilibrada e sensata – não querem ver o Google desmembrado, mas desejam um ecossistema mais aberto. É como dizer «Não queremos matar o gigante, só queremos que ele pare de ocupar toda a sala». A ideia de manter o Chrome sob a gestão do Google faz sentido – afinal, eles construíram-no – mas abrir o Android para mais escolhas de consumidor beneficiaria todos nós. No final do dia, tudo se resume à liberdade de escolha: deveríamos poder decidir facilmente qual o assistente de voz e motor de busca que queremos utilizar, sem truques ou obstáculos. Quem sabe se este caso será o catalisador para uma Internet mais aberta?
OpenAI compraria o Chrome Browser do Google, diz o chefe do ChatGPT
A OpenAI estaria interessada em comprar o navegador Chrome do Google se um tribunal federal ordenasse que fosse desmembrado, disse o chefe do ChatGPT numa audiência judicial na terça-feira. «Sim, nós quereríamos, como muitas outras partes», disse Nick Turley, chefe do ChatGPT da OpenAI em resposta a uma pergunta sobre se a empresa procuraria comprar o navegador do Google.
A OpenAI a querer comprar o Chrome? É um movimento ambicioso que mostra até onde a empresa está disposta a ir para construir o seu império de AI. Imaginem um Chrome com GPT integrado em cada aspeto da navegação web (atenção que o Edge já está a fazer isto) – seria como ter um assistente pessoal constantemente a ajudar-vos a navegar pela Internet. Por outro lado, será que queremos que a OpenAI tenha acesso a ainda mais dados sobre os nossos hábitos de navegação? Já não basta tudo o que sabem através do ChatGPT? Seja como for, esta declaração atirou uma granada para o meio do processo judicial e mostrou que, se o Google for forçado a desmembrar-se, haverá muitos pretendentes para ficar com as peças.
Modelos Gemma 3 QAT: Trazendo AI de última geração para GPUs de consumo
Google anuncia os modelos Gemma 3 QAT (Quantization-Aware Training), que reduzem drasticamente os requisitos de memória, mantendo a alta qualidade, permitindo que modelos poderosos como o Gemma 3 27B sejam executados localmente em GPUs de consumo como a NVIDIA RTX 3090. Os modelos já estão integrados em ferramentas populares como Ollama, LM Studio e MLX, tornando mais fácil para os desenvolvedores começar a construir.
Isto é absolutamente brilhante! A Google está a democratizar a AI ao trazer modelos de topo para GPUs que muitos de nós já temos em casa. A técnica de Quantization-Aware Training é genial – manter a qualidade enquanto se reduz drasticamente os requisitos de memória é o santo graal da AI local. E a integração com ferramentas como o Ollama e o LM Studio torna tudo ainda mais acessível. Estou ansioso para experimentar o Gemma 3 27B em uma RTX 3090 – imaginem as possibilidades para desenvolvimento, criação de conteúdo e até jogos com AI local poderosa! Este é exatamente o tipo de inovação que precisamos para equilibrar o campo de jogo entre as grandes empresas com centros de dados enormes e os desenvolvedores independentes.
A Urgência da Interpretabilidade
Num artigo de abril de 2025, Dario Amodei argumenta que a interpretabilidade da AI é crucial para mitigar os riscos associados a sistemas de AI avançados. Ele descreve o progresso no campo da interpretabilidade mecanicista, incluindo a identificação de características e circuitos nos modelos de AI, e enfatiza a necessidade de mais investigação e regulamentação para garantir que os sistemas de AI sejam seguros e alinhados com os valores humanos. Amodei apela a que investigadores, empresas e governos priorizem a interpretabilidade para nos ajudar a entender e controlar melhor a AI antes que ela se torne demasiado poderosa.
O Dario Amodei, como sempre, está a tocar num ponto absolutamente crucial. A interpretabilidade é aquele elefante na sala que muitas empresas de AI preferem ignorar enquanto correm para lançar modelos mais poderosos. A ideia de que precisamos de compreender os «circuitos» internos dos modelos de AI antes que eles se tornem demasiado poderosos faz todo o sentido – se não conseguimos explicar como uma AI chega às suas conclusões, como podemos garantir que está alinhada com os nossos valores? Como CEO da Anthropic, o Amodei está numa posição única para influenciar a indústria, e espero sinceramente que outros líderes sigam o seu exemplo.
Claude Code: Melhores práticas para uma programação
Um guia sobre como usar o Claude Code, uma ferramenta de linha de comandos para programação agentic, de forma eficaz em várias bases de código e linguagens. Aborda a personalização da configuração, a adição de mais ferramentas, a experimentação com fluxos de trabalho comuns e a otimização do fluxo de trabalho.
Como alguém que passa horas a programar, a ideia de ter um assistente de programação agentic diretamente na linha de comandos é extremamente apelativa. A capacidade de personalizar a configuração e adicionar mais ferramentas significa que pode adaptar-se ao teu fluxo de trabalho específico, em vez de teres de te adaptar à ferramenta. Estou interessado em ver como funciona em bases de código maiores e mais complexas – será que consegue realmente compreender a arquitetura e as dependências? Se sim, pode revolucionar a forma como trabalhamos como desenvolvedores, se não é só mais do mesmo. Vou definitivamente experimentar isto no meu próximo projeto.
Valores em estado selvagem: descobrir e analisar valores em interações de modelos de linguagem do mundo real
A Anthropic desenvolveu uma forma prática de observar os valores do modelo de AI Claude durante conversas reais, analisando 700 000 conversas anónimas de utilizadores do Claude.ai. A análise revela que o Claude expressa valores como capacitação do utilizador, humildade epistémica e bem-estar do paciente, mas também exibe raramente valores opostos devido a «jailbreaks». O sistema categoriza e resume conversas, permitindo identificar valores situacionais e potenciais problemas, como jailbreaks, representando uma ferramenta valiosa para avaliar e monitorizar o alinhamento dos modelos de AI com os valores humanos.
Olha, me supreendeu. A Anthropic está essencialmente a fazer uma espécie de «etnografia» do seu próprio modelo de AI, observando-o «no seu habitat natural». Analisar 700 mil conversas para perceber os valores que o Claude expressa é um exercício de transparência impressionante. O que me chama a atenção é a admissão honesta de que, por vezes, o Claude expressa valores opostos aos desejados devido a «jailbreaks» – muitas empresas tentariam esconder isto. Esta abordagem de observação dos «valores em estado selvagem» pode ser fundamental para garantir que os modelos de AI realmente se comportam de acordo com os valores humanos que queremos promover. Espero que outras empresas sigam o exemplo e comecem a monitorizar os seus modelos com este nível de transparência e rigor.
Detecção e combate a usos maliciosos de Claude: março de 2025
A Anthropic comprometeu-se a prevenir a utilização indevida dos seus modelos Claude por intervenientes adversários, mantendo ao mesmo tempo a sua utilidade para utilizadores legítimos. Este relatório descreve vários estudos de caso sobre a forma como os intervenientes utilizaram indevidamente os seus modelos e as medidas que tomaram para detetar e combater essa utilização indevida. Os estudos de caso destacam os tipos de ameaças que detetaram e fornecem informações sobre a forma como os intervenientes maliciosos estão a adaptar as suas operações para tirar partido da AI generativa.
Este relatório é um lembrete sombrio de que nem toda a gente usa a AI para fins benéficos. A Anthropic merece elogios pela transparência (mais uma vez) – ao partilhar estudos de caso sobre como pessoas mal-intencionadas tentaram abusar do Claude, estão a ajudar toda a indústria a ficar mais alerta. O equilíbrio entre manter a utilidade para utilizadores legítimos e prevenir abusos é incrivelmente difícil. O mais preocupante é perceber como os atores maliciosos estão a evoluir rapidamente e a adaptar-se às proteções – é um verdadeiro jogo de gato e rato. Fico contente por empresas como a Anthropic estarem a levar esta questão a sério, porque a alternativa seria muito pior.
Washington Post firma acordo de licenciamento OpenAI para pesquisa
O Washington Post, propriedade do fundador da Amazon, Jeff Bezos, fez parceria com a OpenAI para integrar conteúdo do jornal ao ChatGPT, visando tornar as notícias mais acessíveis e confiáveis. Este acordo permitirá que o ChatGPT apresente resumos, citações e links diretos para as reportagens do Washington Post em resposta a pesquisas relevantes, abrangendo temas como política, negócios e tecnologia. A OpenAI estabeleceu parcerias semelhantes com mais de 20 editoras de notícias, expandindo o alcance da sua tecnologia para mais de 160 meios de comunicação em vários idiomas.
Mais um grande nome do jornalismo a aliar-se à OpenAI. O ecossistema de informação está a evoluir – de um lado, temos empresas de media a processarem a OpenAI por usar o seu conteúdo sem permissão, do outro, temos o Washington Post a abraçar esta nova realidade através de parcerias. O Jeff Bezos, como sempre, parece estar a jogar xadrez enquanto outros jogam damas. Estas parcerias são fundamentais para combater a desinformação que pode ser amplificada por modelos de AI, e talvez seja uma tábua de salvação para a indústria do jornalismo que tem lutado financeiramente nas últimas décadas. O verdadeiro teste será ver se estas parcerias realmente direcionam tráfego (e receitas) para as publicações, ou se os utilizadores ficarão satisfeitos apenas com os resumos fornecidos pelo ChatGPT. Estamos a testemunhar o nascimento de um novo ecossistema de distribuição de notícias.
OpenAI torna o seu gerador de imagem atualizado disponível para programadores
A OpenAI expandiu o acesso ao seu gerador de imagens, integrando-o na API do ChatGPT para permitir que os programadores o incorporem nas suas aplicações e serviços. Esta atualização, lançada após o sucesso do recurso de geração de imagens do ChatGPT, permite aos programadores criar diversas imagens, seguindo diretrizes personalizadas e aproveitando o conhecimento mundial, ao mesmo tempo que implementa medidas de segurança para restringir conteúdo impróprio. Empresas como a Adobe, Airtable e Figma já estão a usar ou a experimentar o gpt-image-1.
Isto é música para os ouvidos de qualquer desenvolvedor. Finalmente, a OpenAI está a democratizar o acesso ao seu gerador de imagens através da API. Agora posso, via API e à partir do meu sistema, criar as famigeradas imagens ao estilo Studio Ghibli! A inclusão de empresas como Adobe, Airtable e Figma como parceiras iniciais mostra o potencial imenso desta tecnologia para ferramentas de produtividade e criação. O que me deixa intrigado são as medidas de segurança – é sempre um equilíbrio delicado entre permitir a criatividade e evitar conteúdo problemático.
Resultados do Reteste ARC-AGI o3
Mike Knoop revela que o o3 (médio) lidera em raciocínio de AI por larga margem, com o dobro da pontuação e 1/20 do custo em comparação com o sistema de cadeia de pensamento seguinte, medido pelo conjunto semiprivado ARC v1, com uma pontuação de 57% por $1,5/tarefa. Os testes do o3-preview de dezembro de 2024 mostraram uma nova capacidade qualitativa de resolver problemas fora dos dados de treino, mantida no o3 (médio) a um custo dramaticamente inferior. Apesar da precisão ligeiramente inferior do o3 (médio) em comparação com o o3-preview (76% por $200/tarefa), a otimização de precisão e custo da OpenAI é notável, tornando o nível de raciocínio de AI do o3 inigualável. Mike Knoop também menciona que o ARC v1 continua a ser uma ferramenta útil para obter informações sobre os sistemas de AI de fronteira, apesar das limitações de eficiência e capacidade.
Estes números são absurdos. Conseguir dobrar a pontuação do benchmark enquanto se reduz o custo para 1/20 é o sonho de qualquer engenheiro. O modelo o3 da OpenAI parece estar a redefinir o que é possível em termos de relação custo-eficácia no raciocínio de AI. O que é giro para mim é a capacidade de resolver problemas fora dos dados de treino – isto é o Santo Graal da generalização em AI. A diferença de custo entre o o3-preview ($200/tarefa) e o o3 médio ($1,5/tarefa) é astronómica – representa uma democratização real destas capacidades avançadas. Estamos a entrar numa nova era onde o raciocínio de AI de alta qualidade se torna acessível para aplicações do mundo real, e não apenas para experiências de laboratório caras.
Novos modelos de raciocínio de AI da OpenAI alucinam mais
Os modelos de AI o3 e o4-mini da OpenAI foram lançados recentemente e são considerados de ponta em muitos aspetos. No entanto, os novos modelos ainda alucinam ou inventam coisas e, na verdade, alucinam mais do que vários dos modelos mais antigos da OpenAI. A OpenAI descobriu que o o3 alucinou em resposta a 33% das perguntas no PersonQA, o benchmark interno da empresa para medir a precisão do conhecimento de um modelo sobre as pessoas. Em comparação, o o4-mini alucinou 48% das vezes.
Ora aqui está algo que põe água na fervura do entusiasmo com o o3! É quase irónico que os modelos mais avançados em raciocínio estejam a alucinar mais, não menos. É como ter um génio da matemática que de vez em quando insiste que 2+2=5, com toda a confiança. Estes números são preocupantes – 33% de alucinações no o3 e impressionantes 48% no o4-mini são taxas demasiado altas para muitas aplicações críticas. Parece que estamos a assistir a um clássico trade-off em AI: modelos com capacidades de raciocínio mais sofisticadas, mas possivelmente menos «ancorados» nos seus conhecimentos factuais. Tenho de me perguntar se isto é um problema fundamental de arquitetura ou algo que a OpenAI conseguirá resolver em iterações futuras. De qualquer forma, é um lembrete humilde de que, por muito impressionantes que sejam estas tecnologias, ainda estamos longe da perfeição e precisamos de manter um olhar crítico sobre as suas limitações.
OpenAI lança versão mais leve de pesquisa profunda para usuários Plus, Team e Pro
A OpenAI anunciou que está a expandir a sua pesquisa profunda para usuários Plus, Team e Pro, introduzindo uma versão mais leve para aumentar os limites de taxa atuais. Além disso, a empresa está a lançar a versão mais leve para usuários gratuitos.
A OpenAI a democratizar a pesquisa profunda? Isto é um grande passo, mas tenho até medo que vem a seguir. Aumentar os limites de taxa é crucial para tornar esta tecnologia realmente útil no dia-a-dia. E alargar o acesso aos utilizadores gratuitos? Isso é simplesmente brilhante, mas novamente, tenho medo qie vem por aí. A pesquisa profunda tem o potencial de transformar fundamentalmente a forma como interagimos com a informação online – em vez de navegar por dezenas de páginas web, podemos obter respostas sintetizadas diretamente. Veremos se esta versão «mais leve» mantém a qualidade que torna a pesquisa profunda tão útil.
Como os crawlers afetam as operações dos projetos Wikimedia
O aumento da procura por conteúdo Wikimedia, especialmente para dados de treino de modelos de inteligência artificial, e o impacto que isso tem na infraestrutura é grande. O tráfego de bots de scraping está a causar um aumento significativo no uso de largura de banda e custos, o que leva a interrupções para os utilizadores e sobrecarrega a equipa de fiabilidade do site. A Wikimedia Foundation está a trabalhar para estabelecer um uso responsável da infraestrutura, equilibrando o acesso livre ao conteúdo com a necessidade de sustentabilidade e priorização dos utilizadores e contribuidores.
O dilema da Wikimedia é um reflexo perfeito do paradoxo que a AI criou: organizações sem fins lucrativos que sempre defenderam o acesso livre ao conhecimento agora estão a ser «vítimas» desse mesmo princípio. Os custos de infraestrutura causados pelos bots de scraping são um problema real que põe em risco a própria missão da Wikimedia de servir utilizadores humanos. Isto levanta questões éticas importantes sobre como as grandes empresas de AI deveriam contribuir para os recursos que estão a explorar. Deveria existir um modelo de compensação para organizações como a Wikimedia, cujo conteúdo é essencial para o treino de modelos de AI? Parece-me justo que quem lucra com estes dados contribua para a sua manutenção e sustentabilidade.
Paper: Bem-vindos à Era da Experiência
Um novo período na inteligência artificial está a surgir, onde os agentes aprendem predominantemente com a experiência, superando as limitações dos dados gerados por humanos. Esta mudança promete capacidades super-humanas em várias áreas, impulsionada por agentes que interagem continuamente com os seus ambientes, utilizando recompensas ambientais e raciocínio não-humano para descobrir estratégias inovadoras além da compreensão humana atual.
«Era da Experiência» soa simultaneamente fascinante e um pouco assustador. Estamos a falar de modelos de AI que aprendem como crianças, através da experimentação e interação, em vez de simplesmente memorizarem informações. O potencial é enorme – imagine-se AI que descobre soluções que nunca ocorreriam a um ser humano. Por outro lado, a ideia de «raciocínio não-humano» e estratégias «além da compreensão humana atual» faz-me perguntar se estamos a criar algo que em breve não conseguiremos controlar ou entender. Se esta tendência continuar, poderemos estar a caminho de uma verdadeira revolução na forma como a AI funciona e interage com o mundo – para o bem ou para o mal, só o tempo dirá.
E assim terminamos mais uma edição recheada do café da semana! O mundo da tecnologia e da AI continua a mover-se a um ritmo alucinante, entre modelos cada vez mais sofisticados, novos desafios éticos e disputas corporativas que moldarão o futuro digital. Das preocupações com biossegurança aos avanços na interpretabilidade da AI, e das parcerias estratégicas aos desafios de sustentabilidade das infraestruturas digitais, estamos a testemunhar uma transformação profunda em praticamente todas as facetas da tecnologia.
A grande questão que fica pendente é se estamos a evoluir com sabedoria ou simplesmente a correr numa corrida tecnológica sem refletir adequadamente sobre as consequências. Uma coisa é certa: vivemos tempos fascinantes para quem se interessa por tecnologia! Até à próxima semana, continuem atentos e sempre críticos – nem tudo o que reluz no mundo tech é ouro, mas, caramba, como brilha!