
Café da Semana
AI open-source, chips da Nvidia e crianças chinesas codificando o futuro
Opa, malta do tech! 🚀 Bem-vindos a mais uma edição do nosso resumo semanal, onde destaco as notícias mais quentes do universo da tecnologia e inteligência artificial! Esta semana está a bombar com novidades: modelos open-source revolucionários, a China a investir fortemente na educação de AI para crianças, avanços da Nvidia com os seus novos chips, e muito mais. Prepare o café e vamos mergulhar neste mar de inovações que estão a moldar o futuro da tecnologia!
Utilização de Gen AI para compras aumenta 1.200%
Os dados do relatório da Adobe sobre a utilização da AI generativa no retalho online. Os números mostram um aumento de 1200% no tráfego proveniente de ferramentas de AI, mas as compras ainda não acompanham este ritmo. O relatório destaca ainda que os visitantes provenientes de AI passam mais tempo nos sites, mas convertem menos em vendas.
Ainda é cedo para cravar um cenário, mas os números trazem pontos muito interessantes, por exemplo, se as pessoas chegam ao site por uma recomendação feita por AI, tendem a «vasculhar» mais o site, gastando mais tempo. Este é um dado importante, ainda que não se converta em mais vendas, o que ainda acontece mais no modelo tradicional (chegar diretamente ao produto que se quer comprar). É esperar pelos próximos meses, porque o campo é promissor e as coisas evoluem muito rapidamente!
Medir a capacidade da AI em completar tarefas longas
Os investigadores da Meta publicaram um estudo que mostra que a capacidade das AI para realizar tarefas complexas e demoradas está a duplicar a cada sete meses desde 2019. Mediram o desempenho dos agentes de AI em 170 tarefas de software, que vão desde decisões de 2 segundos a projetos de 8 horas, e observaram um aumento exponencial na capacidade de completar tarefas com sucesso.
É um estudo bastante interessante que mostra o avanço da AI em tarefas mais complexas, algo que pode ter um impacto bastante grande no futuro. Se esta taxa de crescimento se mantiver, teremos agentes de AI capazes de realizar projetos que hoje em dia demoram semanas a serem concluídos por humanos. Claro que ainda há muita discussão se este crescimento se vai manter ou se vamos atingir um plateau. Mas, por enquanto, o gráfico é impressionante e dá-nos um vislumbre do futuro da AI.
Juíza detona a poesia de Data de Star Trek ao decidir que a AI não pode criar obras
Uma juíza norte-americana decidiu que AI não pode ser autora de obras protegidas por direitos de autor, usando como exemplo a poesia da personagem Data de Star Trek. O caso envolve um informático que tentou registar uma obra criada por AI, mas viu o pedido negado.
De acordo com a decisão, para que algo seja passível de proteção por direitos de autor, é necessário que exista autoria humana, algo que a AI não possui. Para ilustrar a situação, a juíza ironizou ainda a poesia de Data, comparando-a ao ChatGPT e afirmando que a AI ainda não atingiu o nível de inteligência necessário para ser considerada autora de uma obra. A decisão gerou debates sobre o futuro da criação artística e os limites da inteligência artificial.
Irmãos Russo revolucionaram Hollywood em tempos. Agora pretendem fazê-lo novamente.
Os irmãos Russo, famosos por «Avengers: Endgame», estão a apostar num estúdio de alta tecnologia para enfrentar a inteligência artificial, com o objectivo de a utilizar como ferramenta para artistas, em vez de substitutos.
A iniciativa parece promissora, uma vez que as mentes criativas e inquietas tendem a impulsionar a tecnologia para a frente, e não o contrário. Além disso, contrataram Dominic Hughes, ex-Apple, para liderar a criação de AI e modelos de linguagem para a Apple News. Criticam também o uso da AI por empresas de Silicon Valley em tarefas que exigem respostas exatas. Ou seja, se os rapazes dos Avengers estão nisto, é bom ficar de olho!
Tencent expande AI com ferramentas de geração 3D de código aberto
A gigante tecnológica chinesa Tencent lançou um conjunto de ferramentas de inteligência artificial para transformar texto e imagens em visuais 3D, com o objetivo de impulsionar o crescimento chinês na área da AI generativa. A empresa lançou cinco modelos open-source baseados na tecnologia Hunyuan3D-2.0, incluindo versões «turbo» que prometem gerar visuais 3D até 30 segundos, mantendo uma elevada precisão e qualidade.
A Tencent não está para brincadeiras e quer mostrar que também se dá bem no mundo da AI. Parece que a concorrência entre as empresas chinesas está cada vez mais feroz, com cada uma a tentar superar a outra em termos de desempenho e custo. E não é só a Tencent que está nesta corrida, outras empresas estão também a investir fortemente em modelos de texto para 3D e de imagem para 3D. Se pretende continuar a boicotar os produtos e serviços Chineses por pura ideologia ou xenofobia, recomendo vivamente que reveja as suas posições, ou ficará para trás.
China quer crianças de 6 anos a aprender AI até 2030
A China está a incentivar as suas escolas a integrar a inteligência artificial nos currículos das crianças a partir dos 6 anos, com o objetivo de formar uma geração nativa em AI até 2030. A ideia é preparar os futuros cidadãos para um mundo cada vez mais automatizado e tecnológico.
A iniciativa gerou debates sobre a idade ideal para começar a aprender sobre AI e os possíveis impactos no desenvolvimento infantil. Alguns especialistas receiam que a exposição precoce à tecnologia possa prejudicar o desenvolvimento de competências sociais e criativas, enquanto outros defendem que é importante preparar as crianças para o futuro e dar-lhes as ferramentas necessárias para prosperarem na era da AI. A minha opinião fica entra as duas.
China anuncia a rotulagem da AI genérica para eliminar a desinformação
A Administração do Ciberespaço da China, em conjunto com outras três agências, anunciou novas regras que exigem que os fornecedores de serviços rotulem o material gerado por AI explícita ou através de metadados.
A nova lei tem como objetivo ajudar os utilizadores a identificar a desinformação e responsabilizar os fornecedores de serviços pela rotulagem do conteúdo, com a intenção de reduzir o uso indevido de conteúdo gerado por AI. Será que esta medida vai pegar e outros países vão seguir o exemplo? Só o tempo o dirá!
Dos tribunais às linhas de crise, autoridades chinesas abraçam a DeepSeek
Depois de o fundador da DeepSeek ter apertado a mão a Xi Jinping, as autoridades de toda a China estão a mostrar como utilizam a tecnologia da empresa para redigir pareceres jurídicos, propor planos de tratamento em hospitais e responder a perguntas nas linhas de ajuda do governo.
Embora seja um sucesso para a DeepSeek, esta proximidade com o governo chinês pode ser uma faca de dois gumes. Há quem diga que este tipo de notícias é música para os ouvidos dos políticos, alimentando narrativas de que a DeepSeek está nas mãos do governo chinês e que rouba os dados do Ocidente para alimentar a máquina espiã comunista. Além disso, o próprio interesse e aproximação do governo pode elevar a empresa, mas ao mesmo tempo atrair mais atenção.
Empresas tecnológicas estão a voltar a priorizar entrevistas presenciais
Um estudante de informática criou uma ferramenta que ajuda os candidatos a contornar as entrevistas de emprego com recurso à AI, o que tem levado algumas empresas a ponderar o regresso das entrevistas presenciais. A ferramenta é quase indetetável e permite que os candidatos respondam às perguntas de forma mais eficaz e rápida, sem que o entrevistador se aperceba que estão a fazer batota.
Apesar da controvérsia, a ferramenta tem ganho popularidade entre os programadores que se sentem frustrados com os processos de seleção tradicionais e querem mostrar as suas capacidades de forma mais eficiente. Resta saber se as empresas vão conseguir encontrar formas de combater esta prática e garantir que os candidatos são avaliados de forma justa. Por outro lado isto fecha as portas a muitos candidatos que estão fora dos Estados Unidos, uma vez que agora teriam de se deslocar lá presencialmente para concorrer a uma vaga.
Meta celebra 1 bilião de downloads do Llama
O Llama tem ajudado desde o Spotify a fazer recomendações de música mais personalizadas até pequenas empresas a fecharem acordos.
E não é para menos, certo? O Llama tem sido utilizado por pessoas de todo o mundo para inovar e criar novas oportunidades. É como se o Andrew Ng (aquele tipo famoso da AI) estivesse a espalhar a palavra e a trazer o conhecimento ao mundo.
Mistral Small 3.1: o novo modelo open source que promete revolucionar a AI
A Mistral AI anunciou o Mistral Small 3.1, um modelo open source que já chega a pôr para quebrar, com melhorias na compreensão de texto e multimodalidade, bem como um context window até 128k tokens. E o melhor? Dá-se bem em velocidade de inferência, com 150 tokens por segundo.
O Mistral Small 3.1 tem tudo para dar um chega para lá aos modelos da Google e até ao GPT-4o Mini, sobretudo se procura algo mais rápido e com menor latência. A malta até está a apostar que ele se vai tornar o queridinho de quem curte uma ferramenta open source e potente.
Nvidia lança Blackwell Ultra, Dynamo. descreve o roadmap até 2027
A Nvidia apresentou o Blackwell Ultra, focado em melhorar tanto o treino como a inferência, e o Dynamo, uma framework open-source para otimizar o processo de raciocínio da AI. O artigo indica ainda que os chips da família Blackwell Ultra, começarão a ser disponibilizados para o mercado ainda este ano. Podem ser utilizados para serviços de AI premium, que exigem mais rapidez. Terão também uma versão mais parruda que são 8 GPUs numa lâmina, uma placa com um rack de 72 chips.
A Nvidia está a apostar forte no seu roadmap anual, com foco em escalar e otimizar os seus sistemas. As discussões centram-se na forma como a NVIDIA está a «duplicar a aposta» na sua plataforma com o Blackwell Ultra, incluindo hardware e software. A empresa não quer que sejamos surpreendidos em maio com as novidades.
Nvidia anuncia novos modelos de raciocínio Llama Nemotron AI
A Nvidia está a apostar forte nos agentes de AI, lançando novos modelos Llama Nemotron e ferramentas para potenciar o desenvolvimento desta área. A ideia é criar uma infraestrutura completa para que os agentes de AI possam realizar tarefas de forma autónoma e eficiente.
O anúncio dos novos modelos Nvidia foi uma grande jogada, mostrando que a empresa está a investir fortemente em hardware e software para AI. A NVIDIA está realmente a esforçar-se para estar na vanguarda da AI, lançando chips cada vez mais poderosos e modelos de linguagem cada vez mais inteligentes. O problema é que os preços crescem a par com a capacidade dos novos modelos...
Nvidia anuncia chips Blackwell Ultra e Vera Rubin AI
A Nvidia anunciou os seus novos chips para a construção e implementação de modelos de inteligência artificial na sua conferência anual GTC. O CEO, Jensen Huang, revelou o Blackwell Ultra, uma família de chips que serão lançados ainda este ano, e o Vera Rubin, a próxima geração de GPUs da empresa, com lançamento previsto para 2026.
É claro que estes anúncios são um teste à nova cadência de lançamento anual da Nvidia, que se esforça por anunciar novas famílias de chips anualmente. Antes do boom da AI, a Nvidia lançava novas arquiteturas de chips a cada dois anos. Agora é quase de duas em duas semanas.
Para CEO da Google Deepmind, AI que pode igualar os humanos pode surgir 'de cinco a dez anos'
Em entrevista à CNBC, Demis Hassabis, CEO da DeepMind da Google, considera que, apesar dos avanços atuais, a Inteligência Artificial Geral (AGI) ainda é um objetivo distante, apesar de ter uma visão mais conservadora em comparação com outros colegas da indústria.
O CEO da DeepMind parece mais terra a terra, dando um prazo mais alargado para a chegada da AGI, enquanto outros líderes do setor apostam em prazos mais curtos. Uma visão interessante, vinda de um cientista que está no mercado há muito tempo e não de um mero marketeer. O negócio é ter cautela e esperar pelos próximos capítulos desta novela tecnológica.
Nvidia adota padrão SynthID de marca de água
A NVIDIA e a Google unem forças para impulsionar a AI, desde robôs que agarram coisas até à descoberta de novos medicamentos. A parceria promete democratizar o acesso a ferramentas de AI, acelerar o desenvolvimento da AI física e transformar setores como a saúde, a indústria transformadora e a energia.
Esta jogada é interessante para fortalecer ambos os lados. A NVIDIA, com o seu poder de fogo em hardware, e a Google, com a sua expertise em AI, unem-se para criar um futuro onde a AI está presente em tudo, desde robôs nas fábricas a diagnósticos médicos mais precisos. Esta parceria estratégica pode abrir portas a avanços significativos e consolidar a posição de ambas as empresas no mercado da AI.
China obriga a sinalização de conteúdos feita por AI
O governo chinês está a mandar o pessoal sinalizar o conteúdo gerado por inteligência artificial, seja colocando um selinho explícito ou escondendo-o nos metadados. A ideia é deixar claro o que é obra da máquina e o que é produção humana.
Parece que a China está a jogar safe, certo? Mas a real é que está toda a gente nesta vibe, a tentar arranjar um jeito de marcar o que é AI para não se tornar uma confusão.
A Google traz uma função 'canvas' para o Gemini, bem como uma visão geral do áudio
A Google adicionou ao seu chatbot Gemini, uma ferramenta chamada Canvas, semelhante em conceito à ferramenta Canvas do OpenAI para o ChatGPT e aos Artefactos da Anthropic, que oferece aos utilizadores do Gemini um espaço interativo onde podem criar, refinar e partilhar projetos de escrita e codificação. Além disso, existe também a visão geral do áudio do NotebookLM para o Gemini, que cria resumos de áudio realistas em estilo de podcast de documentos, páginas web e outras fontes.
Era natural que esta ideia do Arthurflex da Anthropic fosse tão boa que toda a gente a ia copiar, dito e feito: a Google implementou-o com o nome de Canvas e é praticamente igual. A ferramenta é tão poderosa que vai passar a fazer parte do dia a dia de todos, permitindo a edição e visualização de textos e códigos, tudo num só local. Além disso, a visão geral em áudio é uma excelente forma de consumir conteúdo de forma mais dinâmica.
Google prepara-se para parceria com MediaTek de Taiwan no próximo chip de AI, relatórios de informação
A Google, da Alphabet, está a preparar uma parceria com a taiwanesa MediaTek para desenvolver a próxima versão dos seus chips de AI, os Tensor Processing Units (TPUs), que serão produzidos no próximo ano. Apesar disso, a Google mantém a sua colaboração com a Broadcom, com quem tem trabalhado exclusivamente nos chips de AI nos últimos anos. A MediaTek foi escolhida devido à sua forte relação com a TSMC e por oferecer custos mais baixos por chip em comparação com a Broadcom.
O mercado dos chips está cada vez mais interessante. Agora a Google e a MediaTek estão a tramar alguma para acabar com a dependência da Nvidia. Será que vai acontecer? O futuro o dirá!
A experiência do Assistente no telemóvel está a ser atualizada para o Gemini
O Google Assistant está a dar lugar ao Gemini nos telemóveis, trazendo uma nova era de assistência impulsionada pela AI. A atualização, que já está disponível em mais de 40 línguas e 200 países, promete uma experiência mais personalizada e capaz, com funcionalidades como conversas multimodais e Deep Research.
A mudança reflete a evolução da AI generativa e a ambição da Google de criar um assistente pessoal mais inteligente e útil. Resta saber se esta transição será tranquila para os utilizadores e se o Gemini irá realmente superar o seu antecessor. Estou ansioso parq que esta novidae chegue ao meu Android.
OpenAl anuncia modelos de áudio de última geração na API
A OpenAI acaba de lançar uma nova fornada de modelos de áudio turbinados com a capacidade de criar agentes de voz mais poderosos e personalizáveis. E não se fica por aqui: estes modelos também se dão super bem na transcrição e prometem dar um show em ambientes barulhentos e com sotaques desafiantes, além de permitirem a criação de vozes com diferentes estilos e emoções. É a OpenAI a pôr para quebrar no mundo da comunicação entre humanos e máquinas!
O lançamento dos novos modelos de áudio da OpenAI, com melhorias notáveis na precisão da transcrição e na personalização das vozes, representa um avanço significativo no desenvolvimento de agentes de voz mais sofisticados. A empresa está cada vez mais focada em oferecer ferramentas que não só compreendam a linguagem humana, mas também a transmitam de forma natural e expressiva, o que abre um leque de possibilidades para aplicações em diversas áreas, como o atendimento ao cliente e a educação. A expectativa é que, com estas novidades, a interação entre humanos e máquinas se torne ainda mais intuitiva e eficiente, abrindo portas para um futuro onde a tecnologia se adapta cada vez mais às necessidades e expectativas dos utilizadores.
CEO da Y Combinator diz que a AI está a fazer com que os investimentos rendam mais
Garry Tan, CEO da Y Combinator, revelou à CNBC que as startups atuais estão a crescer mais rapidamente e com mais receitas do que nunca, e isso deve-se à inteligência artificial, que permite às empresas criar com menos pessoas e angariar menos capital.
A AI está a mudar o jogo para quem está a começar, certo? Com 95% do código a ser feito por AI, podes montar uma equipa enxuta e não ter de te preocupar tanto em levantar dinheiro. É uma grande oportunidade para a malta que percebe de tecnologia mas não quer enfrentar os desafios de uma grande empresa. Fonte original
O Claude já pode pesquisar na web
O Claude tem agora acesso à internet, permitindo-lhe fornecer respostas mais atualizadas e relevantes, com citações diretas para facilitar a verificação das fontes. Esta atualização, no entanto, está apenas disponível para subscritores pagos nos Estados Unidos, com promessa de expansão para mais países e planos gratuitos em breve.
Finalmente! A funcionalidade é excelente, uma vez que o Claude poderá aceder a informações em tempo real, como eventos recentes, e diminuir as probabilidades de alucinações. No entanto, a disponibilidade limitada é um balde de água fria, pois restringe o acesso a muitos utilizadores, especialmente aqui na Europa. A falta de informação clara sobre o tempo que levará para a expansão da funcionalidade também gera incerteza.
Paper: DAPO - An Open-Source LLM Reinforcement Learning System at Scale
A malta do DAPO lançou um sistema open-source para potenciar LLMs com aprendizagem por reforço, visando raciocínios complexos. O sistema atinge os 50 pontos no AIME 2024 com um modelo base Qwen2.5-32B, e ainda lançaram o código de treino e um dataset caprichado!
Os desenvolvedores acreditam que, com a iniciativa de código aberto, mais pessoas podem beneficiar e reproduzir os resultados, impulsionando a investigação em LLMs. Salientam que o trabalho surge numa altura de grande ascensão da AI e dos modelos de linguagem, mas não deixa de ser importante ter atenção ao mau uso das ferramentas.
Paper: Transformers sem Normalização
Estudo propõe simplificar os Transformers, dispensando as camadas de normalização e utilizando a técnica de tangente hiperbólica dinâmica, o que promete um treino mais rápido e eficiente dos modelos.
A proposta de um novo paper visa otimizar a arquitetura dos Transformers, um dos pilares da AI, removendo as camadas de normalização e adotando uma técnica diferente. Esta mudança visa acelerar o treino e a inferência, e pode dar mais liberdade durante o processo.
E é isto por hoje, pessoal! Espero que tenham gostado deste passeio pelo mundo da tecnologia. Como se pode perceber, a AI continua a todo o vapor, com as empresas e os países a correrem para não ficarem para trás nesta revolução. Desde a China a querer ensinar AI a criancinhas até aos irmãos Russo de Hollywood a apostar na tecnologia, é claro que a inteligência artificial está a mudar todos os setores. Fiquem atentos à próxima edição e, enquanto isso, continuem a explorar este universo fascinante da tecnologia! Até à próxima! 👋