
Café da Semana
Sam Altman muda os planos, os médicos perdem para os robôs e a internet pega fogo
E aí malta! Bem-vindos a mais uma edição do DevCafé, onde vos trago aquele gole quentinho das notícias mais importantes do mundo da tecnologia e inteligência artificial. Esta semana foi agitada, com anúncios bombásticos da OpenAI, novidades da Meta com o Llama 4, e a Amazon a entrar com tudo na luta dos modelos de voz. Vamos pegar na nossa chávena virtual e mergulhar nas novidades enquanto estão quentes!
Sam Altman no X: «Mudança de planos: afinal vamos lançar o3 e o4-mini, provavelmente daqui a umas semanas...»
Sam Altman anunciou no X (antigo Twitter) uma alteração nos planos de lançamento, indicando que as versões o3 e o4-mini serão lançadas em breve, provavelmente dentro de algumas semanas. Além disso, revelou que o GPT-5 será lançado dentro de alguns meses. Altman explicou que esta mudança se deve a várias razões, incluindo a capacidade de tornar o GPT-5 ainda melhor do que o originalmente previsto, além de dificuldades encontradas na integração. A prioridade é garantir capacidade suficiente para satisfazer a procura esperada.
É incrível como a OpenAI consegue manter toda a gente na ponta da cadeira, não é? O Sam Altman tem um talento especial para fazer anúncios que viram o mercado de pernas para o ar em menos de 280 caracteres! Esta mudança de planos parece-me uma jogada inteligente: libertar modelos intermédios enquanto preparam o terreno para o tão aguardado GPT-5. Estou particularmente curioso para ver o que este «o4-mini» vai entregar, uma vez que parece ser uma versão mais acessível do que seria o GPT-4o. E percebe-se a preocupação com a capacidade - ninguém quer outro lançamento com filas intermináveis como já vimos no passado, certo?
OpenAI reduz o tempo dado para testes de segurança enquanto corre para inovar
A OpenAI terá reduzido o tempo gasto a testar a segurança dos seus modelos de inteligência artificial, provocando preocupações de que esteja a correr em direção a uma AI poderosa sem salvaguardas adequadas. A empresa costumava permitir meses para testes de segurança, mas agora concede apenas alguns dias. Os responsáveis pela segurança da AI estão preocupados com os riscos catastróficos da AI, incluindo a facilitação do desenvolvimento de armas biológicas, e um antigo investigador da OpenAI alertou recentemente para a dinâmica de uma corrida ao armamento que leva a uma perigosa corrida pela AI.
Esta notícia deixa-me com aquela sensação de «a pressa é inimiga da perfeição». Compreendo perfeitamente a pressão competitiva que a OpenAI está a enfrentar, principalmente com a Meta a soltar o Llama 4 e a Anthropic sempre nos calcanhares. Mas sinceramente? Reduzir os testes de segurança de meses para dias parece um pouco como conduzir a 200km/h de olhos vendados. Se a famosa carta aberta que todos assinaram há dois anos falava sobre os riscos existenciais da AI, como se justifica o corte precisamente da parte que verifica esses riscos? É aquela história: às vezes precisamos de abrandar para chegar mais depressa ao destino certo - e não rapidamente ao sítio errado.
Memória e novos controlos para o ChatGPT
A OpenAI está a testar a capacidade do ChatGPT de se lembrar das coisas que discute para tornar os futuros chats mais úteis. Está no controlo da memória do ChatGPT. A memória no ChatGPT é agora mais abrangente e referencia todas as suas conversas passadas para fornecer respostas mais relevantes e personalizadas. Pode ativar ou desativar a referência a «memórias guardadas» ou «histórico de chat» a qualquer momento nas Definições. Também pode pedir ao ChatGPT para alterar o que sabe sobre si diretamente na conversa ou utilizar o Chat Temporário para conversas que não utilizem ou atualizem a memória. Quanto mais utilizar o ChatGPT, mais útil se torna. As novas conversas baseiam-se no que ele já sabe sobre si para tornar as interações mais suaves e personalizadas ao longo do tempo.
Finalmente uma funcionalidade que já todos pediam há meses! Quantas vezes já não teve de explicar ao ChatGPT pela milésima vez quem é e o que faz? Esta atualização de memória promete acabar com aquela sensação de «primeiro encontro» a cada nova conversa. O que é giro é que parecem ter pensado bastante na privacidade, com todas estas opções de controlo. Confesso que estou ansioso por testar isto - imagina só não ter de estar sempre a repetir que tenho alergia ao PHP cada vez que peço ajuda com código! Ao mesmo tempo, penso que vou utilizar bastante aquele «Chat Temporário» para aquelas questões, digamos... menos profissionais. Tipo quando peço ajuda para inventar desculpas criativas para faltar ao ginásio.
A manada Llama 4: O início de uma nova era de inovação da AI nativamente multimodal
A Meta anuncia os primeiros modelos do Llama 4, que permitirão às pessoas construir experiências multimodais mais personalizadas. A Llama 4 Scout e a Llama 4 Maverick são os primeiros modelos multimodais nativos de código aberto com um suporte de comprimento de contexto sem precedentes e construídos utilizando uma arquitetura de mistura de especialistas (MOE). A Meta está também a visualizar o Llama 4 Behemoth, um dos LLMs mais inteligentes do mundo e o mais poderoso da Meta até agora, para servir de professor para os seus novos modelos.
A Meta a chegar com tudo a esta nova geração! Adoro esta coisa da «manada» - é claro que a sua estratégia é atacar diferentes nichos com modelos especializados, em vez de um modelo único que tenta fazer tudo. Esta arquitetura MOE (Mixture of Experts) é bastante interessante porque permite ativar apenas partes específicas do modelo conforme necessário, poupando recursos. O que me chama mais a atenção é este tal «Behemoth» - um nome muito modesto, certo? 😂 Mas se realmente cumprir o que promete, pode ser o trunfo da Meta para finalmente competir de igual para igual com o GPT-4. E tudo isto sendo de código aberto! Entretanto, a OpenAI continua a trancar os seus modelos a sete chaves...
Os benchmarks da Meta para os seus novos modelos de AI são um pouco enganadores
A Meta lançou recentemente um novo modelo de AI chamado Maverick. Os benchmarks do modelo mostram que tem um bom desempenho no LM Arena, mas a versão do Maverick disponível para os programadores difere da versão implantada no LM Arena. Os investigadores apontaram que o Maverick no LM Arena é uma «versão experimental de chat». Um gráfico no site oficial do Llama revela que o teste do Maverick no LM Arena foi conduzido utilizando o «Llama 4 Maverick optimizado para conversação». Alguns investigadores notaram diferenças de comportamento entre a versão disponível para download e a versão alojada no LM Arena. A versão do LM Arena parece usar muitos emojis e dá respostas incrivelmente prolixas.
Ah, a velha história dos benchmarks... sempre tão fiáveis como a previsão meteorológica para o próximo mês! Esta tática do Meta faz-me lembrar aquele amigo que mostra a foto de perfil do Tinder de há 10 anos. «Otimizado para conversação» é uma forma elegante de dizer «não é exatamente o mesmo modelo que vai descarregar». O mais engraçado é esta dos emojis - imaginem um modelo super avançado que decide que a chave do sucesso é enfiar 🔥😂👍 em cada resposta! Isto levanta questões importantes sobre a transparência nos benchmarks de AI. Como programador, prefiro um modelo que seja honesto sobre as suas limitações do que um que parece incrível no papel mas desilude na prática. Precisamos urgentemente de métricas mais padronizadas e transparentes no campo da AI.
O executivo da Meta nega que a empresa tenha impulsionado artificialmente as pontuações de benchmark do Llama 4
Um executivo da Meta negou um rumor de que a empresa ajustou os seus novos modelos de AI para apresentar um bom desempenho em benchmarks específicos, ocultando as fragilidades dos modelos. Ahmad Al-Dahle, VP de AI generativa da Meta, afirmou que é «simplesmente não é verdade» que a Meta treinou os seus modelos Llama 4 Maverick e Llama 4 Scout em «conjuntos de teste». O rumor surgiu de uma publicação numa rede social chinesa de um utilizador que alegava ter-se demitido da Meta em protesto contra as práticas de benchmarking da empresa.
Estamos a ver o drama a desenrolar-se em tempo real! Primeiro descobrimos que os benchmarks são baseados em versões diferentes, e agora surgem acusações ainda mais graves de que a Meta teria feito batota diretamente. Treinar nos conjuntos de teste seria como estudar com as respostas do teste - claro que se vai sair bem! O curioso é que a negação veio rapidamente, o que mostra como estas acusações podem ser prejudiciais para a credibilidade da empresa. No fundo, isto tudo mostra como a corrida da AI está a tornar-se cada vez mais renhida e como os benchmarks se tornaram uma espécie de campo de batalha. Quando todos estão obcecados com os números, os números começam a perder o seu significado. O problema é que nós, os developers, somos os que ficamos no meio do fogo cruzado a tentar descobrir quais os modelos que realmente valem a pena.
Amazon revela um novo modelo de voz de AI, Nova Sonic
A Amazon estreou um novo modelo de AI generativo, o Nova Sonic, capaz de processar voz nativamente e gerar fala com som natural. A Amazon afirma que o desempenho do Sonic é competitivo com os modelos de voz de fronteira da OpenAI e da Google em benchmarks que medem a velocidade, o reconhecimento de voz e a qualidade conversacional. O Nova Sonic é a resposta da Amazon aos modelos de voz de AI mais recentes, como o modelo que alimenta o ChatGPT's Voice Mode, que parecem mais naturais para falar do que os modelos mais rígidos dos primeiros dias da Amazon Alexa.
A Amazon finalmente percebeu que a Alexa estava a começar a soar como aquele GPS dos anos 2000 em comparação com as novas vozes de AI. O Nova Sonic parece ser a tentativa da empresa de não ficar para trás nesta corrida das interfaces de voz. Tenho de confessar que a Alexa lá de casa já se tornou quase um móvel decorativo desde que experimentei o Voice Mode do ChatGPT e o assistente de voz do Google Gemini - a diferença é gritante. Estou curioso para ver como o Nova Sonic se compara na prática, principalmente porque a Amazon tem uma vantagem que poucos consideram: milhares de milhões de horas de interações de voz com a Alexa para treinar os seus modelos. Se conseguirem transformar esta experiência num assistente de voz que realmente soe natural e inteligente, poderão recuperar o terreno perdido. Só espero que não seja mais um caso de «incrível nos benchmarks, decepcionante na vida real».
Inteligência artificial da pesquisa Google faz com que os criadores de sites se sintam «traídos»
Em março de 2024, a proprietária de um site, Morgan McBride, estava a posar para fotografias na sua cozinha semi-renovada para um anúncio da Google que celebrava as formas como o gigante das pesquisas ajudou o crescimento do negócio da sua família. Mas, quando o anúncio foi veiculado cerca de um mês depois, o tráfego do Google caiu mais de 70%, disse McBride. A Charleston Crafted, que apresenta guias sobre projetos de melhoria da casa, resistiu a alterações e atualizações de algoritmos no passado; desta vez, não recuperou. McBride suspeitou que as pessoas estavam a obter mais conselhos de reforma nas respostas de inteligência artificial no topo da pesquisa do Google.
Esta história é de partir o coração. Imagine que está literalmente a protagonizar um anúncio publicitário do Google a celebrar o sucesso do seu site, enquanto nos bastidores o mesmo Google está a preparar uma AI que vai sugar o seu tráfego. O mais irónico é que a Google construiu o seu império utilizando conteúdo de sites como o da Morgan, e agora está essencialmente a canibalizar esses mesmos sites que ajudaram a construir o seu índice de pesquisa. Estamos a assistir a uma mudança fundamental na economia da internet, onde criar conteúdo original pode já não ser suficiente para sobreviver. Será que chegámos ao ponto em que todos os criadores de conteúdo precisarão de pivotar para modelos de negócio baseados em subscrições ou produtos diretos, uma vez que o tráfego orgânico está a secar?
WordPress.com lança um construtor de sites gratuito com tecnologia de AI
O WordPress.com lançou um novo construtor de sites com AI que permite a qualquer pessoa criar um site funcional utilizando uma interface de chat com AI. O recurso é gratuito e dirigido a empreendedores, freelancers, bloggers e outros que necessitem de uma presença online profissional. O construtor de AI inclui 30 avisos gratuitos antes que os utilizadores tenham de escolher um plano de alojamento.
Como alguém que já passou horas (quem é que eu quero enganar, dias!) a configurar temas WordPress e a ajustar CSS, esta notícia desperta-me sentimentos bem misturados. Por um lado, democratizar a criação de websites é incrível - agora, literalmente qualquer pessoa pode ter uma presença online profissional sem ter de aprender código. Por outro lado, lá se vão mais alguns empregos de front-end developers e web designers! O que me intriga é como será a qualidade destes sites gerados. Será que vão começar todos a parecer iguais, com aquela «estética AI» que já começamos a reconhecer? De qualquer forma, este é mais um exemplo de como a AI está a transformar rapidamente tarefas que antes exigiam competências técnicas em conversas simples.
A visão da Adobe visão para acelerar a criatividade e a produtividade com AI generativa
A Adobe anunciou a sua visão para integrar a AI generativa nos seus produtos, como o Acrobat, Express, Photoshop e Premiere Pro, permitindo aos utilizadores automatizar tarefas, criar conteúdos mais facilmente e expandir a sua criatividade. A AI generativa atuará como um parceiro criativo, ajudando os utilizadores em todas as fases do processo criativo e permitindo-lhes concentrar-se em tarefas mais importantes.
Depois de anos a cobrar uma fortuna pelo seu software, parece que perceberam que precisam de acrescentar mais valor para justificar aquela dolorosa subscrição mensal. A Adobe tem uma posição única no mercado - já são o padrão da indústria criativa, pelo que não precisam de «reinventar a roda» como muitas startups de AI estão a tentar fazer. Em vez disso, podem focar-se em melhorar fluxos de trabalho que já existem. Imagina poder dizer «remova este objeto de fundo e substitua-o por um pôr-do-sol» diretamente no Photoshop, ou «crie uma transição suave entre estas duas cenas» no Premiere? Como alguém que já perdeu horas a fazer mascaramento manual, isto soa a magia. O desafio será equilibrar a automação com o controlo criativo - os profissionais não vão querer sentir que a AI está a tomar decisões artísticas por eles.
Anthropic intensifica a competição com o OpenAl, lança assinatura de 200 dólares para Claude
A Anthropic lançou o plano Max para o Claude, um novo nível de subscrição para o seu chatbot viral e concorrente do ChatGPT. O plano tem dois preços: 100 dólares por mês ou 200 dólares por mês, oferecendo diferentes quantidades de utilização. Os subscritores terão «acesso prioritário a novos modelos e capacidades», incluindo o modo de voz do Claude quando for lançado.
200 dólares por mês? A Anthropic está mesmo a apostar na teoria de que «se cobrar mais, as pessoas vão achar que é melhor»! O Claude sempre teve esta aura de ser o «assistente de AI mais educado e seguro», com menos tendência para alucinações e respostas problemáticas do que os seus concorrentes. Imagino que este plano Max seja direcionado para profissionais como advogados, médicos e investigadores que precisam de respostas fidedignas e estão dispostos a pagar por isso. O que me deixa curioso é o que significa exactamente este «acesso prioritário» na prática - será que os subscritores premium vão receber versões melhoradas do Claude enquanto o resto de nós continua com a versão «diet»?
OpenAI contra-ataca Elon Musk, alegando assédio
A OpenAI contra-atacou Elon Musk na quarta-feira, citando um padrão de assédio por parte de Musk e pedindo a um juiz federal que o impeça de qualquer «acção ilegal e injusta» contra a OpenAI num processo judicial sobre a futura estrutura da empresa que ajudou a lançar a revolução da AI. As duas partes deverão iniciar um julgamento com júri na primavera do próximo ano.
E o drama continua! Esta novela entre Elon Musk e OpenAI tem mais reviravoltas do que séries da Netflix. É curioso ver como uma empresa que começou com ideais tão nobres sobre a «AI benéfica para a humanidade» acabou no meio de uma batalha judicial tão feia com um dos seus fundadores. O que torna tudo ainda mais intrigante é que ambos os lados estão a desenvolver tecnologias de AI poderosas - Musk com a sua xAI e a OpenAI com o GPT. É quase como se estivéssemos a assistir a uma guerra de titãs tecnológicos, onde o prémio é nada mais nada menos que o futuro da inteligência artificial. O lado engraçado é que, enquanto lutam nos tribunais, o resto da indústria continua a avançar. Talvez a verdadeira lição aqui seja sobre como é difícil manter parcerias e visões partilhadas quando estão em jogo milhares de milhões de dólares e tecnologias potencialmente transformadoras.
Projeto Económico da União Europeia da OpenAI
A OpenAI está a partilhar o Projeto Económico da União Europeia, um conjunto de propostas para ajudar a aproveitar a promessa da inteligência artificial para impulsionar o crescimento económico sustentável na região e garantir que a AI é desenvolvida e implementada pela Europa, na Europa e para a Europa. A OpenAI definiu quatro princípios para alcançar o potencial de AI da Europa: estabelecer e desenvolver as bases necessárias para o crescimento sustentado da AI (dados, energia e talento); garantir que as regras da UE são simplificadas e funcionam em sincronia para permitir os pilotos de AI, em vez de os dificultar; maximizar a oportunidade de AI através da adoção generalizada em todas as regiões e sociedade; garantir que a AI é construída de forma responsável e reflete os valores europeus.
Vejam só a OpenAI a tentar ganhar pontos junto dos reguladores europeus... Este «Projecto Económico» parece aquele presente que se dá à sogra depois de uma discussão acesa. A UE tem sido um dos reguladores mais rigorosos com a AI, com o famoso AI Act a colocar regras bastante restritivas, e agora a OpenAI vem com esta proposta toda bonita a falar em «AI pela Europa, na Europa e para a Europa». Traduzindo do corporativês: «por favor, não nos regulem muito severamente!». O que me chama a atenção é o foco na simplificação das regras - claramente estão a sentir o peso da burocracia europeia. No fundo, não creio que estejam sequer interessados no bem da Europa, estão apenas a tentar abrir caminho para dominar o mercado. A ver se a UE vai morder o isco...
A AI não matou a radiologia, mas está a mudar isso
Embora a inteligência artificial não esteja a substituir os radiologistas, mudou significativamente o campo. Dois terços dos departamentos de radiologia nos Estados Unidos utilizam a AI de alguma forma e este número duplicou desde 2019. Existem cerca de 340 ferramentas de radiologia da AI aprovadas pela FDA até à data, e a maioria são algoritmos de deteção, que podem procurar tudo, desde tumores cerebrais e pneumonia a cancro da mama e acidentes vasculares cerebrais. A AI tem também o potencial de dar aos doentes resultados mais precisos, e a investigação demonstrou que quando dois radiologistas leem o mesmo estudo, há uma discrepância de 3% a 5% nas suas conclusões.
O que estamos a assistir é a uma transformação gradual do papel do radiologista, não ao seu desaparecimento. A estatística que mais me impressiona é esta discrepância de 3-5% entre radiologistas humanos - isto mostra como a interpretação de imagens médicas tem uma componente subjetiva que muitas vezes ignoramos. A AI, neste contexto, está a tornar-se uma espécie de «segundo par de olhos» mais consistente. O ponto alto desta evolução é que, em vez de simplesmente substituir os humanos, a AI na radiologia está a permitir que os profissionais se foquem em casos mais complexos e no contacto com os pacientes. Talvez seja este o futuro da maioria das profissões: não a substituição, mas a elevação do trabalho humano para níveis mais criativos e interpessoais.
Quando a AI ultrapassa os médicos com AI isoladamente
Um artigo de Eric Topol e Pranav Rajpurkar explora estudos recentes que mostram que os sistemas de AI a funcionar independentemente superaram os médicos combinados com a AI em tarefas médicas como exames, diagnósticos e raciocínio de gestão. O artigo discute explicações para estes resultados surpreendentes, incluindo o uso inadequado da AI por parte dos médicos ou o «descuido da automação». Propõe repensar a divisão de responsabilidades entre os médicos humanos e os sistemas de AI, defendendo um modelo de parceria ideal em que a AI lida com o rastreio inicial enquanto os médicos se concentram em casos complexos. O artigo enfatiza a necessidade de reavaliar os papéis dos médicos e da AI, encontrando um equilíbrio entre a experiência humana e a inteligência artificial para melhorar a prática médica.
Este estudo é realmente surpreendente e, de certa forma, contraintuitivo. A sabedoria convencional sempre foi a de que «AI + humano > AI sozinho > humano sozinho», mas parece que a realidade é mais complicada. Uma explicação que me faz muito sentido é o «descuido da automatização» - já notei isso em mim próprio quando uso o GPS. Quando o Waze está ligado, presto menos atenção às ruas e aos sinais porque sei que a app me vai avisar. Imagino que o mesmo aconteça com os médicos que usam AI - talvez estejam a delegar demasiado o seu raciocínio crítico. A proposta de utilização da AI para rastreio inicial enquanto os médicos se focam nos casos complexos parece o caminho mais sensato. Como em muitas áreas, não se trata de humanos vs. máquinas, mas sobre encontrar a divisão ideal do trabalho.
Microsoft atualiza o Copilot com os maiores sucessos de outras AI
A Microsoft está a atualizar o Copilot com novas funcionalidades, incluindo memória, personalização, ações baseadas na web, criação de podcasts, análise de câmaras e ecrãs, pesquisa aprofundada e muito mais. As novas funcionalidades têm como objetivo tornar o Copilot mais pessoal e poderoso, permitindo aos utilizadores personalizar a aparência e realizar tarefas utilizando um navegador da Web.
A Microsoft está claramente a jogar o jogo de «pegar em todas as ideias giras que os outros já lançaram e colocá-las num único produto». A memória já a vimos no ChatGPT, as ações na web fazem lembrar o WebPilot e outros plugins, e a criação de podcasts parece inspirada no Artifact da Meta. Mas sabem o que é genial nisto tudo? Funciona! Para o utilizador comum, ter todas estas funcionalidades num só local é muito mais conveniente do que ter de alternar entre vários serviços. A Microsoft raramente inventa algo completamente novo, mas quando decide integrar várias tecnologias num pacote coeso, poucos o fazem melhor.
Paper: Comparação entre AI e Médicos em Diagnósticos Virtuais Urgentes
Um estudo comparou as recomendações iniciais de inteligência artificial (AI) com as recomendações finais dos médicos em consultas de atendimento urgente virtual assistido por AI. O estudo descobriu que as recomendações de AI eram mais frequentemente classificadas como de melhor qualidade do que as decisões dos médicos, sugerindo que a AI pode ter um papel no apoio à tomada de decisões médicas em cuidados urgentes virtuais.
Mais um estudo a mostrar que em alguns casos a AI pode superar os médicos. Temos de ter cuidado com o sensacionalismo aqui, mas também não se pode ignorar estes resultados. Para mim, o que está a acontecer é que estamos a comparar a AI nas tarefas em que está otimizada para brilhar - seguir protocolos, considerar grandes quantidades de informação e não ser influenciada pela fadiga ou preconceitos pessoais. Isto não significa que a AI seja «melhor médico» em geral, mas sim que apresenta vantagens específicas em determinados contextos. O atendimento urgente virtual é um ambiente perfeito para a AI, uma vez que geralmente envolve condições comuns e bem documentadas. O futuro da medicina não é provavelmente nem a AI sozinha nem os médicos sozinhos, mas sim uma colaboração inteligente onde cada um faz o que faz melhor. Imagino um sistema em que a AI lida com o diagnóstico inicial e os protocolos padrão, enquanto os médicos humanos se focam na empatia, nas decisões complexas e nos casos atípicos. A questão não é se a AI vai substituir os médicos, mas sim como vamos reconceber o sistema de saúde para tirar partido do melhor dos dois mundos.
Paper: Escalonamento de tempo de inferência para modelação de recompensa generalista
O artigo explora o uso da aprendizagem por reforço para melhorar as capacidades de raciocínio dos modelos de linguagem de grande dimensão (LLMs). Investiga como melhorar a modelação de recompensas (RM) com mais computação de inferência para consultas gerais e a eficácia do escalonamento da computação de desempenho com métodos de aprendizagem adequados. Apresenta ainda o ajuste de crítica auto-principiado (SPCT) para promover comportamentos de geração de recompensa escaláveis em GRMs através de RL online, resultando em modelos DeepSeek-GRM. Emprega também amostragem paralela para expandir o uso da computação e introduz um meta RM para orientar o processo de votação para um melhor desempenho de escala.
Temos aqui um daqueles artigos técnicos que parecem complicados mas trazem ideias importantes. Numa linguagem simples, estão basicamente a dizer: «E se usarmos mais poder computacional não só para treinar melhores modelos, mas também para os fazer pensar mais profundamente durante a inferência?» É como dar ao modelo tempo extra para reconsiderar as suas respostas antes de responder - algo que nós, humanos, fazemos naturalmente. No mundo dos programadores, isto poderia significar que, em vez de precisarmos sempre do modelo mais recente e mais caro, poderíamos extrair respostas de alta qualidade de modelos mais pequenos, dando-lhes apenas mais tempo para «pensar». É uma abordagem elegante que me lembra que nem sempre precisamos de um martelo maior - por vezes basta usar o que temos de forma mais inteligente.
Paper: SoundStream, um codec de áudio neural de ponta a ponta
O artigo apresenta o SoundStream, um novo codec de áudio neural que pode comprimir eficientemente a fala, a música e o áudio geral a taxas de bits normalmente direcionadas por codecs adaptados à fala. Nas avaliações subjetivas utilizando áudio à taxa de amostragem de 24kHz, o SoundStream a 3kbps supera o Opus a 12kbps e aborda o EVS a 9,6kbps.
Isto é sério? O SoundStream consegue comprimir o áudio para 3 kbps mantendo uma qualidade comparável ao Opus a 12 kbps? Para quem não é especialista em áudio, isto significa que pode transmitir áudio com 1/4 da largura de banda necessária anteriormente, mantendo a mesma qualidade. Imaginem o impacto disto nas videochamadas em zonas com fraca ligação, ou no streaming de música em países com internet limitada. Esta é daquelas tecnologias que parecem muito técnicas e obscuras, mas que mudam silenciosamente o mundo quando são implementadas em escala.
E assim chegamos ao fim de mais uma semana agitada no mundo da tecnologia e da AI. O que é claro é que a competição entre as grandes empresas - OpenAI, Meta, Microsoft, Anthropic e Amazon - está mais feroz do que nunca. Enquanto o Sam Altman surpreende com mudanças repentinas de planos para o lançamento de novos modelos, a Meta acena com a sua «manada» de Llamas, a Anthropic lança um plano premium caríssimo, e a Amazon mostra finalmente que não quer ficar atrás na corrida das interfaces de voz.
Ao mesmo tempo, vemos sinais preocupantes, como a OpenAI a reduzir drasticamente o tempo dos testes de segurança e a Google a transformar a vida dos criadores de conteúdo num verdadeiro pesadelo com as suas respostas de AI no topo das pesquisas.
No meio disto tudo, os avanços continuam a ser impressionantes - desde codecs de áudio neurais que revolucionam a compressão até estudos que mostram que a AI já supera os médicos em determinadas tarefas. A tecnologia avança a um ritmo frenético, e muitas vezes os impactos sociais, económicos e éticos ficam para segundo plano.
Como desenvolvedores e entusiastas de tecnologia, o nosso papel é não só acompanhar estas mudanças, mas também pensar criticamente sobre elas. Afinal, não estamos apenas a observar a revolução da AI - estamos a construir e a direcionar ativamente o seu futuro.
Até à próxima chávena no DevCafé, pessoal! E lembrem-se: num mundo cada vez mais automatizado, a nossa humanidade torna-se o nosso ativo mais valioso.