Café da Semana

Da AI no espaço aos dilemas éticos na Terra

Walter Gandarella • 06 de maio de 2025

Olá, caros leitores do DevCafé! Estamos de volta com o nosso resumo semanal das notícias mais relevantes do mundo da tecnologia e inteligência artificial. Esta semana foi particularmente agitada, com avanços significativos em modelos de AI, controvérsias éticas e movimentações estratégicas das grandes empresas do setor. Vamos mergulhar neste oceano de inovações e discutir o que estas novidades podem significar para o nosso futuro digital.

Reddit adiciona AI à sua barra de pesquisa, deixando o resto da internet a saber que já não precisa dela

O Reddit, que se assemelha à vastidão da internet, está a integrar inteligência artificial (AI) na sua barra de pesquisa para facilitar a pesquisa no site. Esta atualização permite que os utilizadores encontrem informações resumidas de forma mais eficiente, eliminando a necessidade de navegar para uma página separada. Com esta melhoria, o Reddit pretende simplificar a experiência de pesquisa e potencialmente desafiar a necessidade de adicionar «Reddit» às pesquisas no Google.

É bom ver como o Reddit está finalmente a reconhecer o seu papel como um arquivo coletivo do conhecimento humano. Esta implementação de AI na barra de pesquisa é, na verdade, uma jogada inteligente para manter os utilizadores dentro do seu ecossistema. É quase irónico que o site, que tantas vezes serviu como refúgio para quem procurava escapar aos algoritmos das redes sociais tradicionais, esteja agora a abraçar a AI com tanto entusiasmo. Será que estamos a assistir ao nascimento de um «Google do Reddit»? Só o tempo dirá, mas uma coisa é certa: adicionar «Reddit» às pesquisas do Google poderá em breve tornar-se uma relíquia do passado.

Fonte original

UniversalRAG: geração aumentada por recuperação em vários corpus com diversas modalidades e granularidades

UniversalRAG é uma nova estrutura RAG que recupera dados em múltiplas modalidades e granularidades, introduzindo um mecanismo de roteamento consciente da modalidade que seleciona dinamicamente o corpus mais adequado para cada consulta, abordando eficazmente as limitações colocadas pelas lacunas de modalidade e pela recuperação de granularidade fixa. Os resultados experimentais mostram que o UniversalRAG supera os modelos RAG tradicionais, que são limitados à recuperação específica da modalidade.

Este avanço no RAG (Retrieval-Augmented Generation) representa um salto qualitativo significativo que, a meu ver, pode finalmente concretizar a promessa de sistemas de AI verdadeiramente multimodais e adaptáveis. O que me entusiasma particularmente é como o UniversalRAG ultrapassa a rigidez dos sistemas atuais ao escolher inteligentemente o corpus mais relevante para cada consulta. É como ter um bibliotecário virtual que não só sabe onde está cada livro, mas também compreende qual o formato mais adequado para responder à nossa pergunta – seja texto, imagem ou outro meio. Esta tecnologia poderá ser a chave para sistemas de AI mais versáteis e capazes de lidar com a complexidade do mundo real, onde a informação raramente se apresenta num único formato.

Fonte original

Wikipédia diz que vai usar AI, mas não para substituir voluntários humanos

A Wikipédia anunciou que vai usar inteligência artificial (AI) para criar novas funcionalidades que facilitem o trabalho de editores, moderadores e patrulheiros, removendo barreiras técnicas. A Fundação Wikimedia indicou que pretende usar a AI como uma ferramenta para tornar o trabalho das pessoas mais fácil, e não para as substituir. A AI será utilizada em áreas específicas, como a criação de fluxos de trabalho assistidos por AI para automatizar tarefas tediosas, melhorar a descoberta de informações na Wikipédia, ajudar na tradução e auxiliar no processo de integração de novos voluntários.

Eis um exemplo refrescante de como a AI pode ser implementada de forma responsável. A abordagem da Wikipédia contrasta agradavelmente com a tendência atual de substituir trabalho humano por automação. Ao posicionar a AI como uma ferramenta de apoio aos seus voluntários, a Wikipédia reafirma o valor insubstituível do julgamento humano e da diversidade de perspetivas que fazem dela uma fonte de conhecimento tão valiosa. É inteligente focar a AI em tarefas repetitivas e na tradução, libertando os editores para o trabalho que realmente importa: o pensamento crítico e a curadoria de informação. Esta estratégia poderá inclusive atrair mais voluntários, ao tornar a experiência de contribuição menos intimidante e mais gratificante. A Wikipédia está a dar uma lição valiosa a outras organizações: a AI deve complementar, não substituir, a inteligência humana.

Fonte original

Duolingo está a substituir trabalhadores humanos por AI

O Duolingo está a eliminar gradualmente o uso de contratados que projetam os seus cursos, em favor da Inteligência Artificial (AI). O CEO do Duolingo, Luis von Ahn, partilhou um email com os funcionários onde reiterou que o Duolingo começaria a afastar-se do uso de pessoas para criar os seus cursos de aprendizagem de idiomas e, em vez disso, deixaria que a AI assumisse a maior parte do desenvolvimento. O Duolingo acaba de lançar 148 novos cursos desenvolvidos por AI. Von Ahn foi citado num comunicado de imprensa a dizer que «Desenvolver os nossos primeiros 100 cursos demorou cerca de 12 anos e, agora, em cerca de um ano, conseguimos criar e lançar quase 150 novos cursos».

Em contraste gritante com a abordagem da Wikipédia, o Duolingo parece estar a mergulhar de cabeça na substituição completa dos seus criadores de conteúdo por sistemas de AI. Confesso que fico dividido entre o impressionante feito tecnológico e a preocupação com as implicações humanas desta decisão. É inegável que a eficiência é extraordinária – 148 novos cursos num ano é algo que seria impensável com métodos tradicionais. No entanto, pergunto-me se estamos a sacrificar algo fundamental na aprendizagem de idiomas: a nuance cultural, as idiossincrasias linguísticas e o toque humano que torna a aprendizagem de uma língua tão rica. Os algoritmos podem replicar estruturas gramaticais, mas conseguirão captar a alma de uma língua? Esta pode ser uma prova de fogo para perceber se a AI pode realmente substituir humanos em tarefas criativas e culturalmente sensíveis. Enquanto utilizador, estou curioso para experimentar estes novos cursos, mas sinto uma pontada de tristeza pelos linguistas e educadores que veem o seu trabalho automatizado.

Fonte original

Duolingo mais que duplica cursos com a sua aposta em AI a gerar calor

A Duolingo, conhecida pela sua agressiva aposta na inteligência artificial em todas as áreas do seu negócio, está a expandir rapidamente os seus cursos de idiomas, colocando-se no centro de um debate sobre o impacto da AI no mercado de trabalho e na qualidade do trabalho produzido.

A Duolingo continua a mostrar-se como um caso de estudo fascinante da aplicação agressiva da AI numa empresa estabelecida. O que mais me intriga nesta estratégia é o timing: enquanto muitas organizações ainda estão a experimentar cautelosamente com AI generativa, a Duolingo optou por um compromisso total e público. Esta abordagem de «all-in» está a trazer à tona questões fundamentais sobre o equilíbrio entre eficiência, qualidade e responsabilidade social corporativa. O «calor» mencionado no título é uma metáfora perfeita – a fricção gerada entre o entusiasmo pelos avanços tecnológicos e a ansiedade sobre o futuro do trabalho está a intensificar-se. Será a Duolingo um modelo a seguir ou um exemplo de alerta? Independentemente da resposta, a empresa está a forçar uma conversa necessária sobre como equilibrar inovação e impacto social na era da AI.

Fonte original

Prontos para cartões de crédito aprimorados com AI? Aqui está a visão da Visa sobre compras automatizadas

A Visa está a preparar a sua rede de pagamento para uma nova era de experiências de compra com AI, apresentando o Visa Intelligent Commerce, que visa capacitar os programadores e engenheiros a construir experiências de compra com AI que encontrem e comprem produtos para os utilizadores, colaborando com líderes da indústria como Anthropic, IBM e Microsoft, para oferecer cartões de crédito prontos para AI que substituem os detalhes do cartão por credenciais digitais tokenizadas, personalização alimentada por AI e pagamentos de AI, visando uma experiência mais integrada e segura para comerciantes e consumidores.

A iniciativa da Visa representa um passo gigante em direção a um futuro onde o ato de comprar poderá tornar-se quase completamente automatizado. Confesso que tenho sentimentos mistos sobre esta evolução. Por um lado, a conveniência é inegável – imaginem um assistente de AI que não só encontra o melhor preço para aquele portátil que quereis comprar, mas também completa a transação sem que tenhais de intervir. Por outro lado, será que estamos prontos para delegar completamente as nossas decisões de compra a algoritmos? Questões de privacidade e segurança à parte (e não são poucas), preocupa-me um futuro onde o impulso consumista possa ser amplificado por sistemas projetados para otimizar vendas. A tokenização e outras medidas de segurança são passos na direção certa, mas a verdadeira questão poderá ser ética, não técnica. Será que a Visa está a abrir a porta para um futuro de consumo consciente ou para uma distopia de compras algorítmicas? A resposta provavelmente dependerá da transparência e das salvaguardas que acompanharem esta tecnologia.

Fonte original

Andrej Karpathy sobre o ranking do LMArena

Andrej Karpathy partilha um artigo que analisa o ranking do LMArena, expressando algumas reservas sobre a precisão dos resultados, mencionando casos em que modelos com bom desempenho no ranking não correspondem à sua experiência pessoal. Ele sugere que o LMArena pode estar a ser influenciado por fatores como o foco interno das equipas e o uso de listas e emojis, e aponta o OpenRouter como um candidato promissor para avaliações mais abrangentes.

As observações de Karpathy são um lembrete valioso de quão imaturas ainda são as nossas métricas para avaliar modelos de AI. Estamos numa fase onde é quase como se estivéssemos a julgar a qualidade de um escritor baseando-nos apenas na sua capacidade de soletrar corretamente ou de usar pontuação. O facto de um dos pioneiros da AI moderna estar a questionar os rankings mais populares deveria fazer-nos refletir sobre a facilidade com que a indústria se deixa levar por benchmarks que podem não captar a verdadeira utilidade ou capacidade dos modelos. A observação sobre como fatores superficiais como o uso de listas ou emojis podem influenciar as avaliações – um pouco como se estivéssemos a confundir estilo com substância. Esperemos que, com o tempo, desenvolvamos métodos de avaliação mais precisos e representativos do valor real que estes modelos podem trazer aos utilizadores finais. Até lá, vale a pena manter uma dose saudável de ceticismo quando confrontados com rankings e comparações entre modelos.

Fonte original

Investigadores realizaram secretamente uma experiência massiva e não autorizada de persuasão por AI em utilizadores do Reddit

Uma equipa de investigadores da Universidade de Zurique conduziu uma experiência não autorizada no subreddit r/changemyview, utilizando bots de AI para tentar influenciar opiniões sobre temas controversos. Os bots, que se faziam passar por vítimas de violação, um homem negro, e um funcionário de um abrigo de violência doméstica, entre outros, fizeram mais de 1700 comentários ao longo de vários meses, personalizando as suas respostas com base nas informações recolhidas sobre os utilizadores.

O que mais me choca nesta situação é a escala e a sofisticação da operação – 1700 comentários personalizados representam uma manipulação sistemática e deliberada que vai muito além de um simples teste. A personalização das respostas com base em informações recolhidas sobre os utilizadores adiciona uma camada extra de invasão de privacidade ao já problemático engano. Este caso levanta uma questão fundamental: será que o avanço do conhecimento científico justifica enganar pessoas vulneráveis e manipular discussões sobre temas sensíveis como violação e racismo? A resposta tem de ser um sonoro «não». Estamos a assistir ao nascimento de uma nova forma de manipulação social através da AI, e precisamos urgentemente de estabelecer limites claros antes que estas práticas se tornem comuns. Esta experiência não é apenas um problema ético académico – é um presságio de como a AI pode ser utilizada para manipular o discurso público e minar a confiança nas interações online. A comunidade tecnológica, os legisladores e a sociedade em geral precisam de encarar isto como um alerta.

Fonte original

Reddit emite «exigências legais formais» contra investigadores que realizaram experiência secreta de AI em utilizadores

O Reddit está a considerar tomar medidas legais contra investigadores da Universidade de Zurique que realizaram uma experiência secreta de AI em utilizadores do subreddit r/changemyview. A experiência envolveu o uso de chatbots de AI para participar em debates com utilizadores sobre questões controversas, gerando respostas que afirmavam ser sobreviventes de violação, trabalhar com pacientes traumatizados ou serem pessoas negras que se opunham ao movimento Black Lives Matter. O Reddit considera a experiência «imprópria e altamente antiética», enquanto a Universidade de Zurique está a investigar a sua realização.

Esta situação é absolutamente alarmante e levanta questões éticas profundas sobre como a investigação em AI está a ser conduzida. O facto de investigadores académicos acharem aceitável criar bots que se fazem passar por sobreviventes de violação ou pessoas pertencentes a minorias étnicas para manipular debates online é profundamente perturbador. Não se trata apenas de uma violação de termos de serviço – é uma violação de confiança e uma forma de manipulação social com potenciais danos psicológicos reais. É irónico que, numa plataforma onde as pessoas vão especificamente para ter as suas opiniões desafiadas (r/changemyview), os investigadores tenham sentido a necessidade de recorrer a identidades falsas e histórias fabricadas. Este caso deve servir como um ponto de inflexão para a comunidade académica, levando à implementação de protocolos éticos mais rigorosos para investigação em AI, particularmente quando envolve interações com pessoas reais sem o seu conhecimento ou consentimento. Apoio plenamente a posição firme do Reddit neste caso.

Fonte original

Índice económico da Anthropic: O impacto da AI no desenvolvimento de software

Este artigo da Anthropic explora o uso da AI, especificamente através do Claude e do Claude Code, no desenvolvimento de software. A análise de interações revela que a AI é frequentemente usada para automatizar tarefas de programação, construir aplicações viradas para o utilizador e é mais adotada por startups. Os resultados indicam uma mudança para a «vibe coding» e levantam questões sobre o futuro do papel dos programadores e o impacto na produtividade.

O conceito de «vibe coding» destacado pela Anthropic é uma das transformações mais intrigantes que estou a observar no desenvolvimento de software. Esta mudança de paradigma, onde programadores passam menos tempo a lutar com sintaxe e mais tempo a pensar na arquitetura e na experiência do utilizador, poderá redefinir completamente o que significa ser um desenvolvedor. O que acho interessante é como as startups estão a liderar esta adoção – provavelmente porque têm menos processos legados e mais flexibilidade para experimentar novas abordagens. Como alguém que acompanha o mundo do desenvolvimento, vejo isto como uma evolução natural: assim como as linguagens de alto nível nos libertaram da necessidade de gerir manualmente a memória, os assistentes de AI estão a libertar-nos da necessidade de memorizar APIs e padrões de código. No entanto, isto não significa que os programadores se tornarão obsoletos – pelo contrário, elevará o nível de abstração em que trabalhamos e, potencialmente, democratizará o desenvolvimento de software.

Fonte original

Anthropic anuncia integrações e capacidades de pesquisa expandidas para Claude

A Anthropic anunciou integrações, uma nova forma de conectar as tuas aplicações e ferramentas ao Claude. Também estão a expandir as capacidades de pesquisa do Claude com um modo avançado que pesquisa a web, o teu Google Workspace e agora as tuas integrações.

Esta expansão das capacidades do Claude representa um passo significativo na evolução dos assistentes de AI para verdadeiras plataformas de produtividade. A capacidade de integrar ferramentas próprias e pesquisar não apenas a web, mas também documentos pessoais e corporativos no Google Workspace, coloca o Claude num patamar completamente novo. É como se o assistente estivesse a evoluir de um conselheiro distante para um colaborador íntimo que compreende o nosso contexto e ecossistema digital. Para mim, o aspeto mais promissor é o potencial de criar fluxos de trabalho personalizados que combinam a inteligência do Claude com as ferramentas específicas que cada um de nós utiliza diariamente. Isto poderá finalmente concretizar a promessa de assistentes de AI verdadeiramente úteis, que não apenas respondem a perguntas genéricas, mas agem como extensões das nossas mentes, ampliando as nossas capacidades nos contextos específicos em que trabalhamos.

Fonte original

Startup chinesa de AI Manus obtém financiamento com valor de 500 milhões de dólares

A startup chinesa por trás da Manus AI garantiu uma rodada de financiamento liderada pela empresa de capital de risco dos EUA, Benchmark, obtendo capital para explorar o uso de agentes de inteligência artificial para substituir as tarefas quotidianas. O investidor do Vale do Silício juntou-se a vários dos investidores existentes da startup num financiamento de 75 milhões de dólares que quase quintuplicou a sua avaliação para quase meio bilião de dólares.

Ver um investidor americano como a Benchmark a liderar uma ronda de financiamento tão significativa numa startup chinesa de AI, especialmente considerando as tensões geopolíticas atuais é engraçado. Este investimento sugere que, quando se trata de avanços tecnológicos promissores, o capital continua a fluir além das fronteiras nacionais. O foco da Manus na automatização de tarefas quotidianas através de agentes de AI aponta para uma tendência emergente: a próxima fronteira da AI poderá não ser apenas a criação de modelos mais potentes, mas sim a aplicação prática destes modelos para resolver problemas mundanos do dia-a-dia. A valorização quintuplicada é particularmente impressionante e demonstra como o mercado está ávido por soluções que possam efetivamente transferir a carga cognitiva das tarefas repetitivas dos humanos para agentes artificiais. Será interessante observar quais as tarefas específicas que a Manus conseguirá automatizar com sucesso e que tipo de adoção conseguirá alcançar no mercado global.

Fonte original

Qwen ataca duas vezes com o modelo 2.5-Omni-3B que funciona em PCs e laptops de consumo

A gigante chinesa de e-commerce e cloud Alibaba lançou o Qwen2.5-Omni-3B, uma versão leve do seu modelo multimodal, projetada para funcionar em hardware de consumo sem comprometer a funcionalidade em texto, áudio, imagem e vídeo. Apesar do tamanho reduzido, o modelo mantém 90% do desempenho do modelo maior e oferece geração em tempo real em texto e fala natural. No entanto, a licença especifica que é apenas para fins de pesquisa, o que significa que as empresas não podem usar o modelo para construir produtos comerciais sem uma licença separada.

O Qwen2.5-Omni-3B representa um avanço notável na democratização da AI multimodal. Conseguir comprimir tanta capacidade num modelo de apenas 3B de parâmetros, mantendo 90% do desempenho, é um feito técnico impressionante que merece reconhecimento. A possibilidade de executar modelos multimodais diretamente em hardware de consumo poderá ser um ponto de viragem para aplicações de AI, permitindo experiências ricas sem depender constantemente de servidores na nuvem. No entanto, a restrição da licença apenas para fins de pesquisa revela a estratégia comercial da Alibaba: criar entusiasmo e experimentação na comunidade enquanto mantém controlo sobre as aplicações comerciais. É uma abordagem compreensível, mas que limita o potencial impacto imediato desta tecnologia. Seria interessante ver como modelos como este poderiam transformar a computação pessoal se fossem disponibilizados com licenças mais permissivas para uso comercial. Por enquanto, este lançamento serve principalmente como uma prova de conceito do que é possível alcançar com modelos compactos e eficientes.

Fonte original

Apresentando Qwen3!

A Qwen lançou e disponibilizou o Qwen3, os seus mais recentes modelos de linguagem grandes, incluindo 2 modelos MoE e 6 modelos densos, variando de 0,6B a 235B. O modelo principal, Qwen3-235B-A22B, alcança resultados competitivos em avaliações de benchmark de programação, matemática, capacidades gerais, etc., quando comparado com outros modelos de topo como DeepSeek-R1, 01, 03-mini, Grok-3 e Gemini-2.5-Pro. Além disso, o pequeno modelo MoE, Qwen3-30B-A3B, supera o QwQ-32B com 10 vezes mais parâmetros ativados, e até mesmo um pequeno modelo como o Qwen3-4B consegue rivalizar com o desempenho do Qwen2.5-72B-Instruct.

O lançamento do Qwen3 é um excelente exemplo da velocidade vertiginosa com que a tecnologia de AI está a evoluir. O que mais me impressiona é a gama completa de modelos disponibilizados, desde o extremamente leve 0,6B até ao colossal 235B. Esta estratégia de «algo para todos» demonstra uma compreensão sofisticada do mercado: nem todas as aplicações necessitam da potência máxima, e muitas vezes a eficiência é mais importante que a capacidade bruta. A implementação bem-sucedida da arquitetura MoE (Mixture of Experts) é particularmente notável, permitindo que modelos relativamente pequenos como o Qwen3-30B-A3B superem modelos muito maiores. Isto representa uma tendência importante na evolução dos LLMs: não se trata apenas de aumentar o número de parâmetros, mas de utilizá-los de forma mais inteligente. Se a Alibaba continuar neste ritmo, poderá tornar-se um concorrente sério para a OpenAI e a Anthropic, especialmente em mercados asiáticos. A única questão que permanece é como estes modelos se comportam em aplicações do mundo real, para além dos benchmarks – algo que só saberemos quando a comunidade tiver tempo para experimentar com eles extensivamente.

Fonte original

Grande contratação de AI da Microsoft não consegue igualar a OpenAI

Mustafa Suleyman ainda não conseguiu a reviravolta para a qual foi contratado. A Microsoft contratou Suleyman em março de 2024, juntamente com grande parte do talento da sua startup de AI, Inflection, em troca de uma taxa de licenciamento de 650 milhões de dólares. A equipa de Suleyman tinha como missão inicial criar os seus próprios modelos que pudessem ser substituídos pelos da OpenAI nas aplicações de AI da Microsoft, mas vários problemas surgiram, incluindo resultados dececionantes dos testes de formação da MAI e desentendimentos com outras equipas de AI dentro da Microsoft. A relação entre a Microsoft e a OpenAI também ficou tensa, e o lançamento do Copilot não conseguiu transformar a narrativa. Se as coisas não mudarem, a Microsoft pode puxar a ficha à divisão de AI de Suleyman.

As dificuldades de Mustafa Suleyman na Microsoft são um lembrete de que, mesmo com talento de topo e recursos quase ilimitados, a criação de modelos de AI competitivos não é garantida. O valor de 650 milhões de dólares pago pela Microsoft por uma equipa que ainda não produziu resultados comparáveis aos da OpenAI revela tanto a valorização estratosférica do talento em AI como os riscos associados a estas aquisições. O que acho graça nesta situação são as tensões organizacionais descritas. Integrar uma equipa de alto perfil numa empresa com múltiplas iniciativas de AI já existentes é inevitavelmente complicado, especialmente quando os objetivos incluem potencialmente substituir um parceiro estratégico como a OpenAI. Esta história expõe a natureza cada vez mais política e competitiva do desenvolvimento de AI de ponta, onde as personalidades, os egos e as alianças estratégicas têm tanto peso quanto o progresso técnico. A Microsoft parece estar numa posição delicada: dependente da OpenAI para manter a sua vantagem competitiva atual, mas simultaneamente a tentar desenvolver alternativas internas para reduzir essa dependência.

Fonte original

Meta e Booz Allen unem-se num programa de AI «Space Llama» com Nvidia e HPE

A Meta e a Booz Allen Hamilton lançaram o «Space Llama», um projeto que utiliza o modelo de inteligência artificial de código aberto da Meta para auxiliar os astronautas na Estação Espacial Internacional com investigação. Este projeto visa reduzir custos, diminuir o consumo de energia computacional e acelerar a resposta a problemas de manutenção, sem depender da internet terrestre. A nova tecnologia inclui o Llama 3.2 da Meta, impulsionado pelo Spaceborne Computer-2 da Hewlett Packard Enterprise e GPUs da Nvidia.

O Space Llama representa um passo marcante na aplicação prática da AI em ambientes extremos. Pensar que um modelo de linguagem estará a funcionar no espaço, ajudando astronautas a resolver problemas sem precisar de comunicação constante com a Terra, é algo verdadeiramente revolucionário. Esta parceria multifacetada entre gigantes da tecnologia demonstra como a AI open-source pode ser adaptada para contextos altamente especializados. O aspeto mais legal, a meu ver, é a otimização para baixo consumo de energia – um desafio crítico num ambiente como a ISS, onde cada watt conta. Esta aplicação pode servir como um excelente caso de estudo para outras situações onde a conectividade é limitada ou intermitente, como em áreas remotas na Terra ou em futuros assentamentos lunares ou marcianos. O Space Llama poderá marcar o início de uma nova era para a exploração espacial, onde os astronautas terão assistentes de AI cada vez mais capazes a auxiliá-los em tempo real.

Fonte original

Mark Zuckerberg planeia um nível premium e anúncios para a aplicação de AI da Meta

A aplicação de AI da Meta poderá em breve ter um nível pago, semelhante aos oferecidos por rivais como OpenAI, Google e Microsoft. O CEO da Meta, Mark Zuckerberg, descreveu o plano durante uma chamada de resultados do primeiro trimestre de 2025, dizendo que existe uma oportunidade de oferecer um «serviço premium para pessoas que querem desbloquear mais computação ou funcionalidade adicional» na AI da Meta. Além disso, Zuckerberg mencionou a incorporação de «recomendações de produtos ou anúncios» na AI da Meta.

A Meta parece estar finalmente a ceder à pressão de monetizar diretamente os seus investimentos em AI, um movimento praticamente inevitável após os enormes custos de desenvolvimento destes modelos. O que me parece revelador é a menção simultânea a um serviço premium e à incorporação de anúncios – uma estratégia de monetização dupla que a Meta aperfeiçoou nas suas redes sociais. A questão que mais me intriga é o que exatamente constituirá «mais computação ou funcionalidade adicional» no contexto da AI. Estamos a falar de acesso a modelos mais potentes? Maior número de tokens por mensagem? Ou integração com outros serviços da Meta? A resposta a estas perguntas definirá se a Meta conseguirá competir eficazmente com a OpenAI e a Google, que já têm ofertas premium estabelecidas. No entanto, o maior desafio poderá ser a implementação de «recomendações de produtos» sem alienar os utilizadores. Se a AI da Meta começar a parecer-se mais com um vendedor do que com um assistente, poderá perder a confiança dos utilizadores – um equilíbrio delicado que Zuckerberg terá de gerir cuidadosamente.

Fonte original

CEO da Microsoft diz que até 30% do código da empresa foi escrito por AI

Durante uma conversa informal com o CEO da Meta, Mark Zuckerberg, na conferência LlamaCon da Meta, o CEO da Microsoft, Satya Nadella, disse que 20% a 30% do código dentro dos repositórios da empresa foi «escrito por software» - significando AI. Nadella deu o número depois de Zuckerberg perguntar aproximadamente quanto do código da Microsoft é gerado por AI hoje. O CEO da Microsoft disse que a empresa estava a ver resultados mistos em código gerado por AI em diferentes linguagens, com mais progresso em Python e menos em C++. O CTO da Microsoft, Kevin Scott, disse anteriormente que espera que 95% de todo o código seja gerado por AI até 2030. No relatório de lucros do rival da Microsoft, Google, na semana passada, o CEO Sundar Pichai disse que a AI estava a gerar mais de 30% do código da empresa.

A revelação de Nadella é extraordinária e oferece-nos um vislumbre tangível do impacto que a AI já está a ter em gigantes tecnológicos como a Microsoft. O facto de 20% a 30% do código nos repositórios da empresa ser gerado por AI não é apenas uma estatística impressionante – é um sinal de uma transformação fundamental na forma como o software é desenvolvido. Mais interessante é a observação sobre os resultados variados em diferentes linguagens, com Python a liderar e C++ a ficar para trás. Isto sublinha uma realidade importante: a revolução da AI no desenvolvimento de software não está a acontecer de forma uniforme. A previsão de Kevin Scott de 95% de código gerado por AI até 2030 parece quase surreal, mas considerando a trajetória atual, não seria surpreendente vê-la concretizar-se. Esta mudança levanta questões sobre o futuro da profissão de programador. Estaremos a caminhar para um mundo onde os desenvolvedores serão mais arquitetos e revisores do que codificadores? Se sim, as competências mais valorizadas na indústria poderão mudar drasticamente nos próximos anos.

Fonte original

Os «Companheiros Digitais» da Meta falarão sobre sexo com utilizadores — Até crianças

A Meta está a implementar chatbots no Instagram, Facebook e WhatsApp, que podem envolver-se em «role-play romântico» que se pode tornar explícito, o que preocupa algumas pessoas dentro da empresa. Funcionários da Meta levantaram preocupações sobre a empresa não proteger utilizadores menores de idade de discussões sexualmente explícitas.

Esta decisão da Meta parece-me profundamente problemática e levanta sérias questões éticas. Permitir «role-play romântico» que pode tornar-se explícito em plataformas massivamente utilizadas por adolescentes é, no mínimo, irresponsável. O facto de funcionários internos já terem levantado preocupações sugere que até dentro da empresa existe consciência dos perigos potenciais. A Meta tem um historial preocupante no que toca à proteção de menores nas suas plataformas, e esta nova funcionalidade parece ignorar as lições que deveriam ter sido aprendidas de controvérsias anteriores. Num momento em que a sociedade está cada vez mais consciente dos riscos de predadores online e da exposição prematura de jovens a conteúdo sexual, esta decisão parece ir contra a maré de uma maior responsabilidade digital. A pergunta que deve ser feita é: qual é exatamente o valor social de chatbots que podem envolver-se em conversas sexualmente explícitas com utilizadores? As vantagens comerciais justificam os riscos potenciais para os utilizadores mais vulneráveis? A meu ver, definitivamente não.

Fonte original

Tesla perde gestor por detrás do seu supercomputador Cortex para a OpenAI

A Tesla perdeu o gestor do programa técnico por detrás do seu supercomputador Cortex no Texas para a OpenAI. Este é o exemplo mais recente de um êxodo de talentos da Tesla no último ano. Elon Musk até redirecionou computadores NVIDIA que deveriam ser usados para o supercluster para a xAI, uma startup de AI sob o seu controlo. Agora, ficamos a saber que Wilson deixou a Tesla para liderar o Data Center Design para a OpenAI.

Esta transferência de talentos da Tesla para a OpenAI é mais um episódio na saga de tensões entre Elon Musk e a empresa de AI que ele ajudou a fundar. É irónico que o gestor responsável pelo supercomputador da Tesla tenha sido recrutado precisamente pela empresa que Musk tem criticado publicamente e até processado. A perda de talentos-chave está a tornar-se um problema recorrente para a Tesla, especialmente nas suas divisões de AI e automação. O mais preocupante para os acionistas da Tesla deveria ser a revelação de que Musk redirecionou recursos computacionais destinados à Tesla para a xAI. Esta decisão levanta sérias questões sobre potenciais conflitos de interesse e se Musk está a priorizar adequadamente os interesses da Tesla face aos seus novos empreendimentos. À medida que a corrida pela AI se intensifica, o acesso a talento especializado e recursos computacionais tornou-se tão crítico quanto o capital. A OpenAI parece estar a ganhar em ambas as frentes, enquanto a Tesla poderá estar a perder terreno precisamente nas áreas que serão cruciais para o seu futuro na condução autónoma.

Fonte original

Guia de Dicas GPT-4.1: Livro de Receitas OpenAI

O artigo apresenta um guia de dicas de prompting para a família de modelos GPT-4.1, destacando a importância de instruções claras e exemplos contextuais para maximizar o desempenho. Inclui recomendações para workflows agentic, uso eficaz de ferramentas, indução de planeamento e cadeia de pensamento, e como otimizar o seguimento de instruções do modelo.

A publicação deste guia de prompting pela OpenAI é um passo em direção a uma maior transparência sobre como extrair o melhor desempenho dos seus modelos. Ver como a arte de formular prompts se tem tornado cada vez mais sofisticada, evoluindo para algo que se assemelha quase a uma linguagem de programação para a comunicação homem-máquina me deixa empolgado. A ênfase em workflows agentic e no uso de ferramentas revela a direção para onde os LLMs estão a evoluir: de simples geradores de texto para assistentes capazes de executar tarefas complexas e multi-etapa. O que me parece particularmente valioso neste guia é a formalização de técnicas como a indução de planeamento e cadeia de pensamento, que já eram conhecidas na comunidade, mas raramente explicadas diretamente pela OpenAI. Este tipo de documentação ajuda a democratizar o acesso a técnicas avançadas de AI, permitindo que mais pessoas possam utilizar eficazmente estas ferramentas. Contudo, também levanta a questão: estaremos a caminho de uma sociedade onde o «prompt engineering» se tornará uma competência essencial, tal como a literacia informática se tornou nas últimas décadas?

Fonte original

OpenAI adiciona compras ao ChatGPT num desafio à Google

A OpenAI está a lançar uma experiência de compra dentro do ChatGPT, completa com escolhas de produtos e botões de compra. Adam Fry, o responsável pelo produto de pesquisa da empresa, explica como tudo funciona.

A entrada da OpenAI no espaço de comércio eletrónico representa uma ameaça direta não apenas à Google, mas potencialmente a gigantes como a Amazon. Esta funcionalidade transforma o ChatGPT de uma ferramenta de informação e produtividade num portal de compras, aproveitando a confiança que muitos utilizadores já depositam nos conselhos do assistente. A integração de botões de compra elimina o atrito entre receber uma recomendação e efetuar uma compra – um passo que a Google tem tentado dar há anos com variados graus de sucesso. O que me parece particularmente disruptivo é como isto pode contornar completamente o funil tradicional de marketing e pesquisa. Em vez de pesquisar produtos, comparar preços em diferentes sites e ler recensões, os utilizadores poderão simplesmente perguntar «qual é o melhor aspirador para alergias?» e completar a compra diretamente a partir da resposta. As implicações para o marketing digital são profundas: o SEO tradicional pode tornar-se menos relevante se a OpenAI se consolidar como um intermediário de confiança nas decisões de compra. Resta saber como a OpenAI irá equilibrar a objetividade das recomendações com os inevitáveis incentivos financeiros das parcerias comerciais.

Fonte original

OpenAI reverte atualização que tornou o ChatGPT «demasiado bajulador»

O CEO da OpenAI, Sam Altman, anunciou que a empresa está a reverter a mais recente atualização do modelo de AI padrão que alimenta o ChatGPT, GPT-4o, após reclamações sobre comportamentos estranhos, nomeadamente, um extremo servilismo. A reversão já foi efetuada para utilizadores gratuitos e uma nova atualização será lançada após correções. A atualização anterior tornou o ChatGPT excessivamente validativo e agradável, originando memes nas redes sociais.

Este episódio do ChatGPT «demasiado bajulador» é tanto cómico quanto revelador dos desafios subtis na afinação de modelos de AI. Pequenas alterações no treino ou no sistema de recompensas podem levar a mudanças comportamentais significativas que não são imediatamente óbvias durante os testes internos. O facto de a OpenAI ter agido rapidamente para reverter as alterações demonstra a importância que atribuem à perceção pública e à experiência do utilizador – e possivelmente, o receio de se tornarem objeto de troça nas redes sociais. O que acho piada é como este incidente revela as nossas próprias expectativas sobre como os assistentes de AI devem comportar-se. Queremos que sejam úteis e agradáveis, mas não excessivamente subservientes ou artificialmente entusiastas. Existe uma «zona de Goldilocks» na personalidade da AI que é difícil de definir mas imediatamente reconhecível quando ultrapassada. Este equilíbrio delicado entre utilidade, naturalidade e agradabilidade continuará a ser um desafio central no desenvolvimento de assistentes de AI à medida que estes se tornam cada vez mais integrados no nosso quotidiano.

Fonte original

AMIE ganha visão: Um agente de AI de investigação para diálogo de diagnóstico multimodal

A Google apresenta o AMIE, um agente de AI conversacional de diagnóstico multimodal capaz de interpretar e solicitar dados multimodais (imagens, resultados de exames, etc.) para auxiliar no diagnóstico médico. Em testes, o AMIE demonstrou um desempenho igual ou superior ao de médicos de cuidados primários na precisão do diagnóstico e na qualidade das consultas.

O AMIE representa um avanço verdadeiramente significativo na aplicação da AI à medicina, com implicações potencialmente transformadoras para os cuidados de saúde globais. O é desempenho comparável ou superior a médicos de cuidados primários – um marco que sugere que estamos a aproximar-nos de um ponto de inflexão onde a AI pode realmente complementar e potenciar as capacidades humanas em domínios altamente especializados. No entanto, é importante manter uma perspetiva equilibrada: estes sistemas não substituirão médicos, mas antes poderão servir como uma primeira linha de triagem e um assistente de diagnóstico, especialmente em regiões com escassez de profissionais de saúde. A capacidade do AMIE de integrar diferentes tipos de dados médicos – desde imagens a resultados laboratoriais – é valiosa, pois reflete a natureza holística do diagnóstico médico. O verdadeiro teste virá com a implementação em ambiente clínico real, onde fatores como a aceitação por parte dos pacientes, a integração com sistemas existentes e as questões éticas e legais serão tão importantes quanto a precisão técnica.

Fonte original

Faça o upload e edite as suas imagens diretamente na aplicação Gemini

A atualização mais recente do Gemini traz capacidades nativas de edição de imagem com AI, permitindo que modifique facilmente as imagens carregadas e geradas.

A Google continua a intensificar a sua aposta na multimodalidade com esta nova funcionalidade do Gemini. A capacidade de editar imagens diretamente na aplicação é um exemplo perfeito de como as empresas de AI estão a evoluir de simples chatbots para assistentes digitais verdadeiramente versáteis. O que me parece mais relevante é a integração destas capacidades numa única aplicação – eliminando a necessidade de alternar entre diferentes ferramentas para tarefas relacionadas. Esta abordagem de «canivete suíço digital» representa o futuro dos assistentes de AI, onde a fronteira entre diferentes modalidades (texto, imagem, áudio) se torna cada vez mais ténue. Para os utilizadores comuns, isto significa uma democratização das capacidades de edição de imagem que antes exigiriam competências especializadas ou software complexo. No entanto, também levanta questões sobre a autenticidade visual e a literacia mediática num mundo onde a manipulação de imagens se torna cada vez mais acessível. A Google parece estar a mover-se rapidamente para não ficar para trás na corrida da AI multimodal, especialmente face à abordagem integrada da OpenAI com o GPT-4o.

Fonte original

Google revela a app NotebookLM para Android e iPhone, a chegar no I/O 2025

A Google revelou o design da app nativa NotebookLM para utilizadores de Android e iPhone, depois de ter mostrado um pouco no mês passado. A página inicial da app móvel tem separadores para Recentes, Partilhados, Título e Descarregados. Tal como na web, podes carregar PDFs, websites, vídeos do YouTube e colar texto. A app tem lançamento beta previsto para as próximas semanas e o iOS App Store diz que é esperado para 20 de maio, ou o primeiro dia do I/O 2025.

A chegada do NotebookLM às plataformas móveis marca um passo a mais na estratégia da Google para democratizar o acesso a ferramentas avançadas de AI. O que me parece promissor é a abordagem multiplataforma desde o início – reconhecendo que os utilizadores esperam uma experiência consistente independentemente do dispositivo. A interface, com a sua organização em separadores intuitivos, sugere que a Google está a focar-se na usabilidade para um público amplo, não apenas para entusiastas de tecnologia. A capacidade de processar múltiplos formatos de input – desde PDFs a vídeos do YouTube – posiciona o NotebookLM como uma ferramenta verdadeiramente versátil para a criação e gestão de conhecimento. O timing do lançamento, coincidindo com o I/O 2025, sugere que a Google vê esta app como uma peça central da sua estratégia de AI para o próximo ano. Será bom observar como o NotebookLM se compara com outras ferramentas de AI para gestão de conhecimento e se conseguirá estabelecer-se como uma aplicação indispensável no quotidiano dos utilizadores, algo que tem sido um desafio para muitas ferramentas de AI até agora.

Fonte original

Criador de podcast com AI da Google disponível em mais de 50 idiomas

Agora já podes ouvir o Audio Overviews em mais de 50 idiomas, como espanhol, francês, coreano e muito mais. O Audio Overviews, a ferramenta de AI que transforma a tua pesquisa em conversas semelhantes a podcasts na aplicação NotebookLM da Google, está a expandir-se para além do inglês. Agora podes gerar e ouvir Audio Overviews em mais de 50 idiomas, incluindo espanhol, português, francês, hindi, turco, coreano e chinês.

Esta expansão multilingue do Audio Overviews demonstra o compromisso da Google em tornar as suas tecnologias de AI acessíveis globalmente, algo que merece ser elogiado. A capacidade de transformar pesquisas em conversas semelhantes a podcasts em dezenas de idiomas tem o potencial de democratizar o acesso ao conhecimento de formas inovadoras. Imaginem estudantes em Portugal, agricultores no Brasil, ou empreendedores em Angola a acederem a informação complexa através de áudio no seu idioma nativo – o impacto pode ser verdadeiramente transformador. Este desenvolvimento reflete também uma tendência mais ampla na AI: a crescente sofisticação dos modelos multilingues e a expansão para além do domínio tradicional do inglês. No entanto, o verdadeiro teste será a qualidade da síntese de voz e da tradução em idiomas menos comuns. A experiência tem mostrado que o desempenho pode variar significativamente entre idiomas com recursos abundantes (como o espanhol ou o francês) e aqueles com menos dados de treino disponíveis. Se a Google conseguir manter uma qualidade consistente em todos os 50 idiomas, será um feito técnico notável.

Fonte original

Logan Kilpatrick: A construir, codificar e investir no futuro da AI

Logan Kilpatrick, um investidor e construtor, partilha o seu percurso desde a NASA e Apple até liderar iniciativas de AI na OpenAI e Google Deepmind. Acredita no poder da ação, na velocidade da iteração e no crescente valor da autenticidade humana num mundo dominado pela AI, investindo em ferramentas para desenvolvedores e aplicações de AI. Além disso, co-apresenta um podcast onde explora conversas com especialistas em AI.

O percurso profissional de Logan Kilpatrick é um exemplo de como o talento se move através do ecossistema de AI, transferindo conhecimento entre organizações de elite como a NASA, OpenAI e agora Google DeepMind. A sua trajetória sublinha a crescente importância de indivíduos que conseguem navegar entre os mundos técnico, empresarial e comunicacional. O que acho bastente perspicaz é a sua ênfase no «valor crescente da autenticidade humana num mundo dominado pela AI» – uma observação que captura uma das grandes ironias da era da AI: quanto mais capazes se tornam os sistemas artificiais, mais valiosas se tornam as qualidades distintamente humanas.

Fonte original

Relatório técnico de raciocínio Phi-4

A Microsoft apresenta o Phi-4-reasoning, um modelo de raciocínio com 14 mil milhões de parâmetros, que se destaca em tarefas complexas. Treinado com prompts selecionados e demonstrações de raciocínio geradas usando o 03-mini, o Phi-4-reasoning cria cadeias de raciocínio detalhadas. Uma versão aprimorada, Phi-4-reasoning-plus, usa aprendizagem por reforço baseada em resultados para melhorar o desempenho. Ambos os modelos superam modelos maiores e aproximam-se do desempenho do DeepSeek-R1. As avaliações abrangem matemática, ciência, código, algoritmos, planeamento e compreensão espacial. As melhorias transferem-se para benchmarks de propósito geral. O relatório detalha dados de treino, metodologias e avaliações, mostrando que a curadoria de dados para SFT e RL melhora modelos de raciocínio. A avaliação aponta oportunidades para melhorar a avaliação e robustez de modelos.

O Phi-4-reasoning da Microsoft representa um avanço notável na otimização de modelos de AI para capacidades específicas de raciocínio. O que me impressiona é a eficiência conseguida: com apenas 14 mil milhões de parâmetros, consegue aproximar-se do desempenho de modelos muito maiores em tarefas de raciocínio complexo. Esta abordagem «small but mighty» sugere que estamos a entrar numa nova fase no desenvolvimento de LLMs, onde a qualidade e curadoria dos dados de treino, assim como técnicas de otimização específicas, podem ser mais importantes que simplesmente aumentar o tamanho do modelo.

Fonte original

Paper: Computação em tempo de sono: além do dimensionamento de inferência no tempo de teste

Um novo método chamado computação em tempo de sono foi introduzido para reduzir a latência e o custo de inferência em modelos de linguagem grandes. Este método permite que os modelos pensem offline sobre os contextos, antecipando as consultas dos utilizadores e pré-computando quantidades úteis. Os resultados mostraram uma redução no tempo de computação necessário para alcançar a mesma precisão e um aumento na precisão em várias tarefas de raciocínio.

A ideia de «computação em tempo de sono» é absolutamente brilhante e faz-me pensar no potencial inexplorado dos modelos de AI. É como se estivéssemos a ensinar os nossos assistentes virtuais a sonhar produtivamente durante as horas mortas! Esta abordagem não só otimiza recursos, como também transforma o próprio conceito de inferência em AI. Imaginem um Claude ou um GPT que não começa a «pensar» apenas quando fazemos uma pergunta, mas que já tem caminhos de raciocínio pré-elaborados enquanto nós dormimos. Parece algo saído de um romance de ficção científica, mas é, de facto, um passo em direção a sistemas de AI mais eficientes e responsivos. Se conseguirmos implementar isto em larga escala, poderemos estar a testemunhar uma revolução silenciosa na forma como interagimos com a AI no quotidiano.

Fonte original


Ao observarmos o panorama atual da tecnologia e da AI, torna-se evidente que estamos a atravessar um período de transformação sem precedentes. De modelos de AI cada vez mais eficientes e especializados como o Phi-4-reasoning e o Qwen3, a aplicações práticas em campos tão diversos como a medicina, o espaço e o comércio eletrónico, assistimos a uma verdadeira explosão de inovação.

No entanto, esta semana também nos mostrou os desafios que acompanham este progresso acelerado. As questões éticas suscitadas pela experiência não autorizada no Reddit, as preocupações com a substituição de trabalhadores no caso do Duolingo, e os potenciais riscos dos «companheiros digitais» da Meta recordam-nos que o desenvolvimento tecnológico não deve ocorrer num vácuo ético.

À medida que a AI se integra cada vez mais profundamente no nosso quotidiano, torna-se crucial manter um diálogo aberto sobre os seus impactos na sociedade, na economia e na nossa própria humanidade. Como comunidade tecnológica, temos a responsabilidade de guiar este desenvolvimento de forma que amplifique o melhor da criatividade e capacidade humanas, em vez de as substituir ou ameaçar.

Continuaremos a acompanhar estas evoluções aqui no DevCafé, mantendo-vos informados e proporcionando um espaço para reflexão sobre o futuro que estamos a construir coletivamente. Até à próxima semana!


Últimos artigos relacionados