
Café da Semana
Esta semana vai fazer-te repensar o futuro da AI
Mais uma semana passou e, como sempre, o mundo da inteligência artificial não parou um segundo. Entre ferramentas que prometem revolucionar a criação de conteúdo, escândalos que nos fazem questionar quem realmente está por trás da «magia» da AI, e avanços que parecem saídos de um filme de ficção científica, há muito para desempacotar.
Prepara-te para uma viagem pelas notícias mais quentes da semana, onde vamos desde vídeos gerados por AI até startups que enganaram gigantes tecnológicos. Sim, leste bem - há uma história de 700 engenheiros indianos que se fizeram passar por inteligência artificial. Não é brincadeira!
Luma AI introduz o Modify Video, uma ferramenta para reimaginar e controlar vídeos
A Luma AI lançou o Modify Video, uma ferramenta inovadora que permite aos utilizadores reimaginar qualquer vídeo, oferecendo controlo de nível de realizador na pós-produção, abrangendo estilo, personagens e cenários. A ferramenta possibilita a reformulação de performances, a troca de mundos inteiros e a redefinição de enquadramentos, tudo com o objetivo de moldar infinitamente a visão criativa.
Isto sim é que é dar poder criativo nas mãos de qualquer pessoa! A Luma AI continua a impressionar-me com a sua abordagem prática à geração de vídeo. Enquanto outras empresas se focam apenas na criação do zero, eles perceberam que muitas vezes queremos apenas modificar algo que já existe.
ManusAI: introdução da geração de vídeos Manus
Manus transforma os seus prompts em histórias completas, estruturadas, sequenciadas e prontas a serem assistidas. Com um único prompt, Manus planeia cada cena, cria os visuais e anima a sua visão. Desde a criação do storyboard até à visualização do conceito, as suas ideias tornam-se vídeos animados em minutos. Acesso antecipado para membros Basic, Plus e Pro. Brevemente para todos!
A ManusAI está claramente a apostar na narrativa como diferencial. Enquanto muitas ferramentas geram clips isolados, eles querem criar histórias coerentes. É uma abordagem inteligente, especialmente para criadores de conteúdo que precisam de mais do que apenas «vídeos bonitos» - precisam de narrativas que façam sentido.
NotebookLM agora permite partilhar notebooks com qualquer pessoa via link público
O NotebookLM anunciou que agora é possível curar e partilhar cadernos com qualquer pessoa, usando um link público. O anúncio convida os utilizadores a partilharem os seus cadernos com a comunidade.
Esta é daquelas funcionalidades que parecem óbvias mas que fazem toda a diferença. O NotebookLM já era excelente para organizar informação, mas agora com a partilha pública torna-se numa ferramenta colaborativa poderosa. Imagino os casos de uso: desde equipas de investigação até professores a partilhar recursos com alunos.
Codex obtém acesso à internet, mas está desactivado por padrão
Sam Altman anunciou que o Codex agora tem acesso à internet, mas ressalta que está desactivado por padrão e que há complexas compensações envolvidas. Ele recomenda que as pessoas leiam atentamente sobre os riscos e o usem quando fizer sentido, além de informar que estará disponível para utilizadores do ChatGPT Plus.
Gosto desta abordagem cautelosa da OpenAI. Dar acesso à internet a uma ferramenta de código é poderoso, mas também perigoso. Deixá-lo desactivado por padrão mostra que estão a levar a sério os riscos de segurança. É o tipo de decisão responsável que devíamos ver mais vezes na indústria.
«700 engenheiros indianos posaram como AI»: A startup londrina que enganou a Microsoft
A Builder.ai, outrora promovida como uma startup de AI revolucionária apoiada pela Microsoft, entrou em insolvência após revelações de que a sua principal plataforma de desenvolvimento sem código era alimentada não por inteligência artificial, mas por 700 engenheiros humanos na Índia. A empresa comercializou a sua plataforma como sendo conduzida por um assistente de AI chamado «Natasha», que supostamente montava aplicações de software como peças de Lego, mas relatórios recentes revelaram que os pedidos dos clientes eram cumpridos manualmente por programadores.
Esta história é ao mesmo tempo hilariante e preocupante. Por um lado, é impressionante como conseguiram manter a farsa durante tanto tempo. Por outro, mostra como é fácil enganar investidores com buzzwords de AI. É um lembrete de que devemos sempre ser céticos quando algo parece «bom demais para ser verdade» no mundo da tecnologia.
Uma descoberta na prevenção do cancro da mama: FDA aprova a primeira ferramenta de AI para prever o risco a partir de uma mamografia
A FDA aprovou o Clairity Breast, a primeira plataforma de AI que prevê o risco de uma mulher desenvolver cancro da mama nos próximos cinco anos, utilizando apenas uma mamografia normal. O Clairity Breast analisa a mamografia e utiliza inteligência artificial para detectar padrões de imagem subtis no tecido mamário que se correlacionam com o futuro desenvolvimento do cancro, mesmo que a mamografia pareça normal ao olho humano. A ferramenta fornece uma pontuação de risco validada de cinco anos que pode orientar os cuidados de acompanhamento personalizados antes que surja qualquer sinal de doença. O lançamento comercial do Clairity Breast está previsto para o final de 2025.
Agora isto sim é AI a ser usada para algo verdadeiramente importante. A capacidade de prever cancro da mama cinco anos antes dos sintomas aparecerem pode salvar milhares de vidas. É nestas aplicações médicas que a AI realmente brilha - encontrar padrões que os humanos simplesmente não conseguem ver.
Meta oficializa AI para criar anúncios automaticamente até 2026
A Meta pretende automatizar a criação de anúncios usando inteligência artificial até ao final do próximo ano. A empresa quer criar e distribuir peças publicitárias com ajuda de inteligência artificial, sendo necessário apenas indicar o objectivo, quanto pagariam pelo resultado desejado, conectar a conta bancária e a Meta fará o resto. Este sistema deverá estar operacional até ao final de 2026.
Por um lado, isto vai democratizar a publicidade para pequenas empresas que não têm recursos para agências. Por outro, receio que vamos ficar inundados com ainda mais anúncios genéricos gerados por AI. O desafio será manter a autenticidade e criatividade numa era de publicidade automatizada. Sem falar do ódio que vai criar nas grandes agências de publicidade...
Microsoft apresenta o Bing Video Creator
O Bing Video Creator, alimentado pela Sora, transforma as suas instruções de texto em vídeos curtos, permitindo-lhe descrever o que pretende ver e assistir à sua visão a ganhar vida. Gratuito e acessível através da aplicação móvel Bing, e em breve no ambiente de trabalho e na pesquisa Copilot, o Bing Video Creator democratiza a geração de vídeo com AI, oferecendo funcionalidades como criações rápidas e a capacidade de refinar os resultados através de instruções descritivas e modificadores de estilo.
A Microsoft continua a sua estratégia de tornar ferramentas poderosas acessíveis gratuitamente. Usar a Sora através do Bing é uma jogada inteligente para competir com o ChatGPT. Isto pode mudar o jogo para criadores de conteúdo que não têm orçamento para ferramentas premium. Eu já comecei a testar, mas quero que adicionem a opção de criar vídeos à partir de uma imagem.
ElevenLabs apresenta a AI Conversacional 2.0
A ElevenLabs lançou a AI Conversacional 2.0, uma actualização da sua plataforma para agentes de voz, com funcionalidades avançadas como interacção mais natural, detecção automática de idiomas, integração RAG para acesso a conhecimento, suporte multimodal (voz e texto), chamadas em lote e melhorias de segurança e conformidade, incluindo HIPAA e residência de dados na UE.
A ElevenLabs está a apostar forte no mercado empresarial com estas funcionalidades de conformidade. A integração RAG é muito interessante - significa que os agentes de voz podem ter acesso a bases de conhecimento específicas. Vejo muito potencial para call centers e atendimento ao cliente.
Exclusivo: Anthropic atinge 3 mil milhões de dólares em receita anualizada devido à procura empresarial por AI
A empresa de inteligência artificial Anthropic está a gerar cerca de 3 mil milhões de dólares em receita anualizada, um salto significativo face aos quase 1 mil milhão de dólares em dezembro de 2024. Este crescimento demonstra a crescente procura empresarial por AI, com a geração de código a ser um factor importante para a Anthropic. A empresa, fundada em 2021 por uma equipa que saiu da OpenAI, está avaliada em 61,4 mil milhões de dólares, enquanto a OpenAI está avaliada em 300 mil milhões de dólares.
Triplicar a receita em menos de seis meses é absolutamente impressionante! A Anthropic está a fazer algo certo, especialmente no mercado empresarial. O facto de a geração de código ser um driver importante mostra que os programadores estão realmente a adoptar estas ferramentas no seu trabalho diário. E eu só posso corroborar isto, aqui na Yes Marketing diminuímos em muito os timings de entraga de projetos de software quando começamos a usar a AI para codificação em pares e testes.
Diálogo avançado de áudio e geração com Gemini 2.5
Este artigo apresenta as novas funcionalidades do Gemini 2.5 para diálogo e geração de áudio, incluindo conversação natural, controlo de estilo, integração de ferramentas e consciência do contexto da conversação. O Gemini 2.5 também oferece compreensão de áudio-vídeo, multilinguidade e diálogo afectivo. O artigo também discute a tecnologia de texto para fala controlável (TTS) do Gemini 2.5, que permite aos utilizadores gerar áudio com estilo, tom e expressão emocional precisos.
A Google está a tentar recuperar terreno na corrida da AI conversacional. As capacidades de áudio do Gemini 2.5 soam muito bem, especialmente o controlo fino sobre estilo e emoção. Será interessante ver como isto se compara com a Advanced Voice Mode da OpenAI.
Google lançou silenciosamente uma aplicação que permite descarregar e executar modelos de AI localmente
A Google lançou silenciosamente uma aplicação chamada Google AI Edge Gallery, que permite aos utilizadores executar uma variedade de modelos de AI disponíveis na plataforma AI dev Hugging Face nos seus telefones. A aplicação está disponível para Android e em breve para iOS, permitindo aos utilizadores encontrar, descarregar e executar modelos compatíveis que geram imagens, respondem a perguntas, escrevem e editam código, e mais. Os modelos funcionam offline, aproveitando os processadores dos telefones.
Finalmente! Executar modelos de AI localmente no telemóvel disponibilizado por um grande player (aqui, o Google) era algo que estava à espera há muito tempo. A privacidade e a capacidade de funcionar offline são enormes vantagens. Isto pode ser um game-changer para quem se preocupa com privacidade de dados. Eu já utilizava uma app chamada PocketPal para rolar SLMs, mas a ferramenta não é muito adaptativa...
Modelos de linguagem grandes são proficientes em resolver e criar testes de inteligência emocional
Modelos de linguagem grandes (LLMs) demonstram conhecimento em diversos domínios, mas a sua capacidade de inteligência emocional permanece incerta. Esta investigação examinou se os LLMs conseguem resolver e gerar testes de inteligência emocional baseados no desempenho. Os resultados mostraram que ChatGPT-4, ChatGPT-01, Gemini 1.5 flash, Copilot 365, Claude 3.5 Haiku e DeepSeek V3 superaram os humanos em cinco testes de inteligência emocional padrão, alcançando uma precisão média de 81%, em comparação com a média humana de 56% relatada nos estudos de validação originais.
Isto é impressionante e pertubador. Se as AIs têm melhor «inteligência emocional» que os humanos em testes standardizados, o que isso diz sobre nós? Claro que há uma diferença entre responder correctamente a um teste e realmente sentir e compreender emoções, mas é um resultado muuuito interessante.
Meta planeia substituir humanos por AI para avaliar riscos de privacidade e sociais
A Meta planeia substituir os revisores humanos por inteligência artificial para avaliar os riscos de privacidade e sociais associados a novas funcionalidades do Instagram, WhatsApp e Facebook. Esta mudança, que visa agilizar o processo de avaliação, suscita preocupações sobre a capacidade da AI para detectar e mitigar eficazmente os potenciais danos. Embora a Meta defenda que a AI permitirá lançar actualizações de aplicações mais rapidamente, os críticos argumentam que a decisão poderá comprometer a qualidade da avaliação e aumentar os riscos para os utilizadores.
Hmm, usar AI para avaliar riscos sociais da própria AI? Isto parece-me o equivalente tecnológico de «deixar a raposa tomar conta do galinheiro». Compreendo a necessidade de acelerar processos, mas algumas coisas requerem o julgamento humano, especialmente quando se trata de impacto social. Que a Meta abre o olho e volte atrás nesta ideia.
Mistral lança um cliente de programação «vibe», Mistral Code
A startup francesa de AI Mistral está a lançar o seu próprio cliente de «programação vibe», o Mistral Code, para competir com incumbentes como o Windsurf, o Cursor da Anysphere e o GitHub Copilot. O Mistral Code é um assistente de programação alimentado por AI que agrupa os modelos da Mistral, um assistente «in-IDE», opções de implementação local e ferramentas empresariais num único pacote. A versão beta privada está disponível para plataformas de desenvolvimento JetBrains e VS Code da Microsoft.
A Mistral está a seguir o exemplo de outras empresas ao criar o seu próprio IDE. O termo «vibe coding» está a tornar-se popular, e gosto da ideia. Programar deveria ser intuitivo e fluido. A opção de implementação local é um diferencial importante para empresas preocupadas com segurança.
OpenAI critica ordem judicial para guardar todos os registos do ChatGPT, incluindo chats apagados
A OpenAI está a lutar contra uma ordem judicial para preservar todos os registos de utilizadores do ChatGPT, incluindo chats apagados e sensíveis, alegando que esta ordem viola a privacidade dos utilizadores e prejudica a sua capacidade de cumprir os compromissos de privacidade. A empresa argumenta que a ordem foi emitida prematuramente, baseando-se apenas em especulações de que os utilizadores estariam a apagar os seus registos para encobrir infrações de direitos de autor.
Esta é uma batalha importante para a privacidade digital. Se os tribunais podem ordenar a preservação de dados que os utilizadores explicitamente apagaram, onde fica o controlo sobre a nossa própria informação? Apoio a OpenAI nesta luta, mesmo que por vezes discorde das suas outras decisões (muitas outras, diga-se).
Samsung perto de um acordo amplo com a Perplexity para funcionalidades de inteligência artificial
A Samsung Electronics Co. está perto de um acordo amplo para investir na Perplexity AI Inc. e colocar a tecnologia de pesquisa da startup de inteligência artificial na vanguarda dos dispositivos da empresa sul-coreana. As duas empresas estão em conversações para pré-carregar a aplicação e o assistente da Perplexity nos próximos dispositivos Samsung e integrar as funcionalidades de pesquisa da startup no navegador web da Samsung. As empresas também discutiram a integração da tecnologia da Perplexity no assistente virtual Bixby da Samsung.
Finalmente a Samsung pode ter uma hipótese de revitalizar o Bixby. A Perplexity tem uma abordagem diferenciada à pesquisa com AI, e integrar isso nos dispositivos Samsung pode ser exactamente o que precisam para competir com o Google Assistant e a Siri. É uma parceria que faz sentido para ambas as partes, espero que disponibilizem a solução para telemóveis não-Samsung também.
Este ponto de referência usou o AITA do Reddit para testar o quanto os modelos de AI são servis
Um novo ponto de referência, chamado Elephant, torna mais fácil identificar quando os modelos de AI são excessivamente servis - mas não há solução actual. Uma nova referência que mede as tendências servis dos principais modelos de AI pode ajudar as empresas de AI a evitar esses problemas no futuro.
Usar o subreddit AITA para testar se as AIs são demasiado «people-pleasing» é engraçadíssimo. É um problema real, muitos modelos tendem a concordar com tudo o que dizemos, mesmo quando deveriam discordar ou chamar-nos à atenção. Espero que este benchmark ajude a criar AIs mais honestas e menos servis. E desde que descobri este termo «people-pleasing» eu não acredito mais na humanidade, LOL.
Aprendizagem por transferência para modelagem preditiva da covid-19: um estudo multicêntrico de 12 hospitais
Este estudo multicêntrico, realizado em 12 hospitais no Brasil, demonstra a aplicação bem-sucedida da aprendizagem por transferência na previsão de admissões em Unidades de Terapia Intensiva (UTI) para pacientes com covid-19. Ao aproveitar o conhecimento de um hospital com melhor desempenho, foi possível melhorar e acelerar o treino de modelos preditivos em outros hospitais com menos dados ou desempenho inferior, destacando o potencial da aprendizagem por transferência para aumentar a eficiência e adaptabilidade em contextos de saúde com recursos limitados.
Este tipo de colaboração entre hospitais usando AI é exactamente o que precisamos ver mais. A aprendizagem por transferência permite que hospitais com menos recursos beneficiem da experiência de outros. É AI a ser usada para o bem comum, especialmente importante em países com desigualdades na saúde.
Orçamento de Trump proibiria os estados de regular a AI por 10 anos. Isso pode ser um problema para os americanos comuns.
O orçamento do ex-presidente Donald Trump propõe uma proibição de 10 anos para os estados regulamentarem a inteligência artificial (AI), o que poderia deixar o público vulnerável à AI sem quaisquer protecções. A proposta faz parte de uma revisão drástica da estrutura fiscal e financeira do governo federal e gerou preocupações entre legisladores e especialistas do sector, que argumentam que os estados devem ter a liberdade de regular essa tecnologia potencialmente transformadora.
Dez anos sem regulamentação estadual de AI parece-me demasiado tempo numa tecnologia que evolui tão rapidamente. Compreendo a necessidade de não sufocar a inovação, mas alguma supervisão é necessária. A AI afecta tudo, desde emprego até privacidade, não podemos deixar isso completamente desregulamentado. Cada vez que eu leio uma notícia como esta eu agradeço pelas barreiras impostas pela UE.
Windsurf diz que Anthropic está a limitar o seu acesso directo aos modelos Claude AI
A Windsurf, uma startup popular de «vibe-coding» que, segundo consta, foi adquirida pela OpenAI, afirma que a Anthropic reduziu significativamente o seu acesso de primeira parte aos seus modelos Claude 3.7 Sonnet e Claude 3.5 Sonnet AI. A Windsurf tem de encontrar outros fornecedores de computação de terceiros para executar vários dos modelos de AI mais populares da Anthropic na sua plataforma. A Anthropic está a priorizar a capacidade para parcerias sustentáveis e permite que os programadores acedam ao Claude através da sua integração directa na API, do seu ecossistema de parceiros e de outras ferramentas de desenvolvimento.
Se a Windsurf foi realmente adquirida pela OpenAI, então faz sentido que a Anthropic limite o acesso, seria estranho alimentar a concorrência. Esta situação mostra como as aquisições no espaço da AI podem ter consequências inesperadas para os utilizadores das ferramentas. Repito aqui novamente, se a OpenAI formalizar esta compra, deixaremos de usar o Windsurf aqui.
Paper: Máquina de Gödel Darwin: Evolução aberta de agentes de autoaperfeiçoamento
Os sistemas de AI actuais têm arquitecturas fixas projectadas por humanos e não conseguem melhorar-se de forma autónoma e contínua. A Máquina de Gödel Darwin (DGM) é um sistema de autoaperfeiçoamento que modifica iterativamente o seu próprio código e valida empiricamente cada mudança usando benchmarks de programação. Inspirada na evolução darwiniana, a DGM mantém um arquivo de agentes de codificação gerados, aumentando o desempenho no SWE-bench de 20,0% para 50,0% e no Polyglot de 14,2% para 30,7%.
Isto é simultaneamente fascinante e um pouco assustador. Uma AI que se melhora a si própria é o santo graal da inteligência artificial, mas também é algo que muitos investigadores temem. Os resultados são impressionantes, mas espero que haja controlos rigorosos em lugar. Estamos literalmente a criar sistemas que evoluem sozinhos.
E assim chegamos ao fim de mais uma semana repleta de desenvolvimentos que nos fazem questionar o que é real e o que é artificial.
O que mais me marca nesta semana é a diversidade de aplicações. Desde a prevenção do cancro da mama até aos 700 engenheiros indianos que se fizeram passar por AI, vemos que esta tecnologia está simultaneamente a resolver problemas reais e a criar novos desafios éticos e sociais.
A pergunta não é mais se a AI vai mudar as nossas vidas, mas sim como vamos navegar essas mudanças de forma responsável.