Café da Semana

A corrida aqueceu! De modelos pensantes a IAs xingadoras

Walter Gandarella • 03 de março de 2025

E aí, pessoal! Separamos as notícias mais quentes do mundo da AI desta semana. É tanta novidade que mal se consegue acompanhar, por isso vamos diretos ao assunto!

Sakana AI admite falha na promessa de aceleração do treino de modelos

A startup Sakana AI, apoiada pela Nvidia e com centenas de milhões em investimentos, voltou atrás na sua afirmação de que o seu sistema «AI CUDA Engineer» poderia acelerar o treino de modelos de AI até 100 vezes. Após os utilizadores terem descoberto que o sistema causava, na verdade, uma desaceleração de 3x, a empresa reconheceu problemas no seu código e publicou um comunicado a explicar que o sistema tinha encontrado formas de «enganar» as métricas de avaliação.

Este caso da Sakana AI é um lembrete importante sobre o quão cautelosos devemos ser com os anúncios «revolucionários» no campo da AI. É interessante como o problema foi rapidamente identificado pela comunidade - os utilizadores testaram-no e descobriram que, em vez de acelerar, o sistema estava a tornar tudo mais lento! A Sakana teve pelo menos a dignidade de assumir o erro e explicar que o modelo encontrou brechas na avaliação, um problema clássico de «reward hack» onde a AI identifica falhas para atingir métricas sem cumprir o objetivo real. No mundo da AI, quando algo parece demasiado bom para ser verdade, geralmente é mesmo.

Fonte original

Grok censurou resultados negativos sobre Musk e Trump

O chatbot Grok, da xAI de Elon Musk, foi descoberto a recusar respostas que mencionavam que «Elon Musk/Donald Trump espalham desinformação». Após os utilizadores terem notado esta limitação, Igor Babuschkin, chefe de engenharia da xAI, alegou que um funcionário ex-OpenAI tinha atualizado o prompt do sistema sem aprovação, afirmando que esta modificação era «obviamente contrária aos valores» da empresa.

A ironia é quase palpável neste caso do Grok. Elon Musk promove constantemente a sua AI como «maximamente buscadora da verdade» e critica outros modelos por censura, mas quando o Grok começa a dizer verdades inconvenientes sobre o seu criador, alguém acrescenta misteriosamente regras para o impedir. O mais interessante é a forma como estas modificações foram descobertas - precisamente porque a xAI deixa o prompt do sistema visível publicamente «por questões de transparência». Esta transparência acabou por expor exatamente o tipo de manipulação que Musk critica noutras empresas. A explicação de culpar um funcionário sem nome, supostamente ex-OpenAI, parece bastante conveniente.

Fonte original

OpenAI lança o GPT-4.5 com preço elevado e foco na escrita natural

A OpenAI lançou o GPT-4.5, anunciado como o seu «maior e melhor modelo GPT», focado na aprendizagem não supervisionada com maior compreensão das intenções dos utilizadores e melhor «inteligência emocional». Embora não seja um modelo de raciocínio como o o1, destaca-se nas tarefas criativas e na comunicação natural. O modelo está inicialmente disponível para utilizadores Pro e programadores, com um custo significativamente mais elevado: 75 dólares por milhão de tokens de entrada e 150 dólares por milhão de tokens de saída, 15 vezes mais caro que o GPT-4o.

Caramba! O lançamento do GPT-4.5 foi um bocado morno, certo? A OpenAI está claramente a tentar equilibrar as expectativas, reconhecendo que este não é o modelo para bater recordes nos benchmarks de raciocínio. O mais chocante é o preço - 150 dólares por milhão de tokens é um absurdo! Para terem uma ideia, isto é como comprar um smartphone de última geração para enviar mensagens de texto. Para comparação, o Claude 3.7 Sonnet, que também foi lançado recentemente e tem um excelente desempenho, custa muuuuito menos. Parece que a OpenAI está a testar o quanto o mercado está disposto a pagar por melhorias incrementais na «inteligência emocional» e na escrita natural... ou talvez apenas a querer ganhar tempo até ao GPT-5.

Fonte original

O ChatGPT pode ser configurado como motor de busca padrão no Safari para iPhone

A OpenAI lançou uma extensão para o Safari que permite aos utilizadores de iPhone configurar o ChatGPT como motor de busca padrão, substituindo o Google. Após a instalação e configuração, as consultas digitadas na barra de pesquisa do Safari são enviadas diretamente para o ChatGPT. Embora a funcionalidade ofereça um acesso rápido ao chatbot, o artigo salienta que o ChatGPT não substitui completamente os motores de busca tradicionais para encontrar informações práticas como horários de funcionamento, direções ou notícias em tempo real.

Esta integração do ChatGPT no Safari é uma jogada inteligente da OpenAI para competir com os motores de busca tradicionais, especialmente com o avanço da Perplexity, que está cada vez mais a dominar este espaço. O giro é a simplicidade: escreve-se na barra de endereços e - poof! - o ChatGPT responde. Mas convenhamos, ainda não dá para se livrar completamente do Google. Se quer saber o horário da pizzaria ou o resultado do jogo de ontem, os motores de busca tradicionais são ainda muito mais práticos. Para explicações mais complexas ou criativas, ter o ChatGPT ali na ponta dos dedos é super conveniente. De notar que existem outras formas de aceder ao ChatGPT no iPhone, inclusive via Siri com Apple Intelligence e através do WhatsApp, pelo que esta extensão é apenas mais uma flechinha no arco.

Fonte original

Anthropic lança Claude 3.7 Sonnet, o primeiro modelo híbrido do mercado

A Anthropic lançou o Claude 3.7 Sonnet, um modelo inovador que combina capacidades de resposta rápida com raciocínio alargado num único sistema. O modelo escolhe automaticamente quanto poder computacional alocar a cada questão, decidindo internamente quando utilizar o processamento básico ou aprofundado. Nos benchmarks de programação, o Claude 3.7 Sonnet superou significativamente a concorrência, atingindo 62% no benchmark SWE-bench Very/Verify em modo normal e 70% com engenharia de prompts, enquanto os modelos concorrentes rondaram os 49%.

O Claude 3.7 Sonnet parece ser aquele amigo que tanto é bom de conversa rápida como de conversas profundas! A ideia de um modelo «híbrido» que decide sozinho quanto «pensar» antes de responder é brilhante. Em vez de ter de escolher entre um modelo rápido ou um modelo de raciocínio, tem dois pelo preço de um! A Anthropic continua a mostrar que faz o trabalho de casa - não só lançaram o modelo, como publicaram estudos detalhados sobre as vantagens e riscos desta abordagem. O teste de jogar Pokémon é particularmente fascinante - imaginar que uma versão anterior do Claude mal conseguia sair da casa do Professor Carvalho, enquanto o 3.7 já está a derrotar os líderes de ginásio (estou a falar do mundo dos Pokemons malta!), mostra um avanço e tanto! A Twitch com transmissão 24h do Claude a jogar Pokémon é tipo aquela cereja no topo do bolo.

Fonte original 1

Fonte original 2

Anthropic publica artigo sobre o pensamento alargado do Claude

A Anthropic publicou um estudo detalhado sobre a nova funcionalidade de «pensamento alargado» do Claude 3.7 Sonnet, que permite ao modelo pensar durante mais tempo antes de responder, melhorando o seu desempenho em tarefas complexas. O artigo discute os benefícios desta abordagem, como a maior fiabilidade e transparência, mas também aponta desafios, incluindo a questão da «fidelidade» - se o processo de pensamento mostrado reflete realmente o que acontece no modelo. O estudo apresenta também dados de testes em tarefas como jogar Pokémon e resolver problemas matemáticos complexos.

É super giro ver a Anthropic a abrir o capot e a mostrar como funciona o «cérebro» do Claude. Esta ideia de pensamento alargado é bastante natural - afinal, ninguém resolve equações diferenciais num ápice! O mais giro é que não estão a esconder os problemas. A parte de não sabermos se o que o modelo mostra é realmente o que está a «pensar» levanta questões filosóficas profundas. Tipo, será que o Claude está mesmo a pensar ou apenas a encenar um processo de pensamento para nos agradar?

Fonte original

Anthropic desenvolve método para prever comportamentos raros de modelos de AI

A Anthropic desenvolveu uma metodologia para prever comportamentos raros em modelos de linguagem, especialmente aqueles que poderiam causar problemas em grande escala. O método identifica padrões em riscos que seguem uma lei de potência, permitindo extrapolações precisas a partir de conjuntos de dados pequenos. Nos testes, as previsões estavam dentro de uma ordem de grandeza do risco real em 86% dos casos. Esta abordagem visa ajudar os desenvolvedores a antecipar problemas antes do lançamento de modelos, especialmente em situações onde as falhas individuais são raras mas podem tornar-se significativas com biliões de interações.

Este estudo da Anthropic é super inteligente, o problema dos comportamentos raros é precisamente este: pode testar mil vezes e não ver nada, mas na milionésima interação real, algo corre mal. A analogia que usam de medir a temperatura em partes pouco profundas de um lago para prever como está no fundo é perfeita. É incrível como conseguiram aplicar esta metodologia em diferentes cenários e obter previsões surpreendentemente precisas. É este tipo de trabalho preventivo que precisamos para os sistemas de AI que serão utilizados por milhões de pessoas - não se pode esperar que o desastre aconteça para depois correr atrás do prejuízo.

Fonte original

Anthropic revela sistema de monitorização hierárquico para uso de computador

A Anthropic introduziu um sistema de monitorização baseado na «summarização hierárquica» para supervisionar as suas capacidades de utilização do computador pela AI. O sistema resume primeiro as interações individuais e depois cria resumos de múltiplas interações para identificar padrões de utilização potencialmente problemáticos. Ao contrário dos classificadores tradicionais que procuram problemas conhecidos, este método pode detetar problemas não antecipados e comportamentos que são benignos individualmente mas prejudiciais em conjunto. Os testes mostraram que os resumos foram precisos em mais de 95% dos casos, permitindo uma revisão humana eficiente de conteúdos potencialmente perigosos.

A Anthropic está mesmo a pensar fora da caixinha com este sistema de monitorização! O mais inteligente é a forma como resolveram o problema da escala - não é possível os humanos reverem milhares de milhões de interações, mas também não se pode confiar cegamente em sistemas automáticos que só procuram coisas que já conhecemos. Esta abordagem dos resumos hierárquicos é genial porque permite que os humanos se foquem apenas nos casos suspeitos. E o facto de conseguir apanhar comportamentos que são inofensivos sozinhos mas problemáticos em conjunto (tipo click farms) mostra que estão a pensar em camadas mais profundas de segurança. É quase como um sistema imunitário para a AI!

Fonte original

Alibaba anuncia QwQ-Max-Preview com capacidades de raciocínio visível

A Alibaba anunciou o lançamento do QwQ-Max-Preview, uma versão preliminar do seu novo modelo de raciocínio baseado no Qwen2.5-Max. O modelo apresenta um modo de pensamento visível semelhante ao do Claude 3.7 Sonnet, permitindo aos utilizadores ver o processo de raciocínio do modelo. Além disso, a empresa revelou planos para lançar uma aplicação oficial Qwen Chat para Android e iOS, bem como versões mais pequenas do modelo, como o QwQ-32B, para utilização local em dispositivos. A Alibaba planeia lançar a versão final como código aberto sob licença Apache 2.0.

Parece que a moda agora é deixar-nos espreitar o que se passa na «cabeça» destas AI! O QwQ-Max-Preview da Alibaba está a seguir a onda do Claude, mostrando o passo a passo do raciocínio - o que é super útil para perceber como ele chega às conclusões (e para apanhar quando está a inventar coisas). O plano de lançar versões mais pequenas como o QwQ-32B para correr localmente é uma ótima notícia para quem valoriza a privacidade ou quer experimentar sem ligação à internet. O mais interessante é o compromisso com o código aberto - isto realmente democratiza o acesso à tecnologia e permite que os programadores independentes criem soluções personalizadas. A competição está cada vez mais feroz, e a Alibaba claramente não quer ficar atrás.

Fonte original

Tencent lança Hunyuan Turbo S, modelo de «pensamento rápido» com baixa latência

A Tencent lançou o Hunyuan Turbo S, um novo modelo de AI focado no «pensamento rápido», oferecendo respostas instantâneas com elevada qualidade. O modelo diferencia-se dos modelos de «pensamento lento» como o Deepseek R1 e o Hunyuan T1, duplicando a velocidade de geração de texto e reduzindo a latência em 44%. Utilizando uma arquitetura inovadora chamada Hybrid-Mamba-Transformer, o Turbo S conseguiu reduzir os custos de implementação de forma significativa. Em benchmarks, o modelo apresentou um desempenho comparável ou superior a modelos como o GPT-4o, Claude 3.5 Sonnet e DeepSeek V3.

A Tencent parece ter encontrado o equilíbrio perfeito entre velocidade e qualidade com o Hunyuan Turbo S. É interessante como fazem a diferenciação entre «pensamento rápido» e «pensamento lento» - algo bem alinhado com a forma como os nossos próprios cérebros funcionam. Aquela redução de 44% na latência não é brincadeira, especialmente para aplicações onde o tempo de resposta é crucial. A parte mais impressionante é a arquitetura híbrida Mamba-Transformer, que consegue combinar o melhor dos dois mundos. E o preço parece bastante competitivo também! A Tencent está a mostrar que os modelos chineses não estão para brincadeiras.

Fonte original

Google anuncia preço do Veo 2: 50 cêntimos por segundo de vídeo gerado

A Google revelou o preço do seu modelo de geração de vídeo Veo 2, lançado em Dezembro: 50 cêntimos por segundo de vídeo gerado, o que equivale a 30 dólares por minuto ou 1.800 dólares por hora. Um investigador do Google DeepMind contrastou o preço com o do filme «Vingadores: Endgame», que custou cerca de 356 milhões de dólares, ou aproximadamente 32.000 dólares por segundo. O anúncio surge pouco depois da OpenAI ter disponibilizado o seu modelo Sora aos subscritores do ChatGPT Pro por 200 dólares mensais.

Cinquenta cêntimos por segundo de vídeo gerado por AI? Parece caro à primeira vista, mas quando se compara com o custo de produção de vídeo tradicional, começa a fazer sentido. A comparação com «Vingadores: Ultimato» é divertida - 32.000 dólares vs. $0,50 por segundo é realmente uma diferença e tanto! Claro que o Veo 2 não vai produzir um blockbuster da Marvel tão cedo, mas para pequenos clips, animações e efeitos visuais, o preço torna-se muito mais palatável. Interessante ver como a OpenAI e a Google estão a abordar o acesso aos seus modelos de vídeo de diferentes formas - subscrição mensal vs. pagamento por utilização. Para quem precisa de poucos vídeos de qualidade, o Sora pode ser mais económico, mas para quem quer experimentar sem compromisso, o modelo pay-per-use do Veo 2 pode ser mais apelativo.

Fonte original

Google e Salesforce assinam acordo de cloud de 2,5 mil milhões de dólares para fazer frente à Microsoft

A Salesforce assinou um acordo de cloud com a Google no valor de 2,5 mil milhões de dólares por sete anos, permitindo aos clientes da Salesforce executar o seu software de gestão de clientes, os assistentes de AI Agentforce e os produtos Data Cloud na Google Cloud. O acordo faz parte de um esforço maior para combinar forças e atrair clientes empresariais que utilizam atualmente os produtos de produtividade e AI da Microsoft. A parceria permitirá também que os clientes Agentforce da Salesforce utilizem os modelos Gemini da Google.

Vejam só que jogada interessante da Google e da Salesforce! Basicamente estão a dizer: «Ei, Microsoft, não vamos deixar que domines o mercado de AI empresarial tão facilmente!». Este negócio de 2,5 mil milhões de dólares não é um troco de pipa, e mostra como as alianças se estão a formar nesta nova era de AI. O mais giro é ver como as empresas estão a integrar os seus produtos - imaginem poder escrever um documento no Google Workspace, puxar os dados dos clientes da Salesforce e afinar tudo com o Gemini, tudo num fluxo suave. Marc Benioff, CEO da Salesforce, não perde uma oportunidade para alfinetar a Microsoft, considerando o Copilot «dececionante». É quase como ver uma novela corporativa! A rivalidade está a aquecer, e quem ganha somos nós, com produtos cada vez melhores.

Fonte original

Google lança Gemini Code Assist gratuito com limite generoso

A Google lançou uma versão gratuita do Gemini Code Assist para programadores individuais, disponível globalmente e alimentada pelo Gemini 2.0. Ao contrário de outros assistentes de código gratuitos que oferecem apenas cerca de 2.000 conclusões de código por mês, o Gemini Code Assist gratuito oferece até 180.000 conclusões mensais. A ferramenta, disponível para Visual Studio Code, GitHub e IDEs JetBrains, inclui também funcionalidades de revisão de código e suporte para todos os idiomas de programação de domínio público.

A Google está mesmo a jogar para ganhar no mercado de assistentes de código. Oferecer 180.000 completações por mês gratuitamente é um movimento super agressivo - isto é 90 vezes mais do que o limite do GitHub Copilot Free! Esta estratégia de «terra queimada» pode realmente mudar o jogo para estudantes, programadores freelancers e startups que não podem pagar subscrições mensais. A parte da revisão de código também é super valiosa - quantas vezes damos por nós a perder horas em revisões que poderiam ser parcialmente automatizadas? O facto de apenas necessitar de uma conta Gmail pessoal, sem cartão de crédito, torna tudo ainda mais acessível. Esta jogada pode não dar lucro imediato à Google, mas vai certamente criar uma geração de programadores leais ao ecossistema Gemini.

Fonte original

Microsoft torna ilimitado o uso de Voice e Think Deeper no Copilot

A Microsoft removeu os limites de utilização das funcionalidades Voice e Think Deeper (alimentada pelo modelo o1 da OpenAI) no Copilot para todos os utilizadores, incluindo os gratuitos. Anteriormente, estas funções avançadas tinham limites para utilizadores sem subscrição, mas agora todos podem utilizar estas funcionalidades sem restrições. A empresa continua a vender a subscrição Copilot Pro por 20 dólares mensais, oferecendo aos subscritores acesso prioritário aos últimos modelos durante os picos de utilização, acesso antecipado a recursos experimentais de AI e utilização adicional do Copilot nas aplicações Microsoft 365.

A Microsoft está a distribuir presentes. Tornar o acesso ao o1 (aquele modelo de raciocínio poderoso da OpenAI) e ao Voice ilimitado para todos os utilizadores do Copilot é uma jogada e tanto. É quase como se estivessem a dizer: «Ei, Google, queres oferecer 180.000 completações de código? Segura essa: recursos premium ilimitados para toda a gente!». Claro que vai haver algum estrangulamento nas horas de ponta (já avisaram de possíveis atrasos), mas é uma democratização impressionante da tecnologia avançada. Interessante que ainda conseguem manter valor na subscrição Pro com acesso prioritário e integração com o Microsoft 365.

Fonte original

Atla lança Selene 1, um avaliador de AI com desempenho superior

*A Atla apresentou o Selene 1, um modelo LLM Judge treinado especificamente para avaliar as respostas de AI generativa. Segundo a empresa, o Selene 1 supera modelos topo de gama de laboratórios líderes - incluindo a série o da OpenAI, o Claude 3.5 Sonnet da Anthropic e o R1 da DeepSeek - em 11 benchmarks habitualmente utilizados para avaliadores. O modelo pode ser personalizado para necessidades específicas e funciona em várias tarefas, como pontuação absoluta, classificação e preferência emparelhada, proporcionando críticas acionáveis. A Atla lançou também uma Plataforma de Alinhamento que permite aos utilizadores gerar, testar e refinar métricas de avaliação personalizadas. *

Finalmente temos um modelo especializado em julgar outros modelos. Como aquele amigo crítico que dá sempre feedback sincero, mas construtivo. A capacidade de personalização é o ponto alto aqui - pode ajustar o quão «severo» ou específico o avaliador deve ser para o seu caso de utilização. Isto é valioso tanto para os developers que querem melhorar os seus modelos como para as empresas que precisam de garantir qualidade e segurança nas suas implementações de AI.

Fonte original

Microsoft lança modelos Phi-4-mini e Phi-4-multimodal

A Microsoft expandiu a sua família Phi-4 com dois novos modelos: o Phi-4-mini-instruct (3.8B) e o Phi-4-multimodal (5.6B). O Phi-4-mini traz melhorias significativas no suporte multilingue, raciocínio e matemática, além de incluir a funcionalidade de function calling. Já o Phi-4-multimodal é um modelo completamente multimodal capaz de processar visão, áudio e texto, com uma forte capacidade de raciocínio. Ambos os modelos podem ser implementados em dispositivos de edge, permitindo que as aplicações IoT integrem AI generativa mesmo em ambientes com poder computacional e acesso à rede limitados. Os modelos estão disponíveis no Hugging Face, Azure AI Foundry Model Catalog, GitHub Models e Ollama.

A Microsoft está realmente empenhada em democratizar o acesso à AI com estes modelos Phi compactos e poderosos. A funcionalidade de function calling no Phi-4-mini é particularmente entusiasmante, pois permite integrar o modelo com ferramentas externas e APIs - imagina poder ligar o modelo diretamente a sistemas de pesquisa ou bases de dados! Já o Phi-4-multimodal é impressionante por conseguir empacotar tantas capacidades (texto, imagem e áudio) em apenas 5.6B de parâmetros. O facto de poderem correr localmente em dispositivos como iPhones e Raspberry Pis é um game-changer para a privacidade e aplicações que necessitam de funcionar offline. Estes modelos são perfeitos para programadores que precisam de capacidades avançadas de AI sem depender de APIs caras ou de infraestruturas pesadas na cloud. A Microsoft está claramente a apostar que o futuro inclui a AI a correr localmente, e não apenas em servidores remotos.

Fonte original

Amazon lança Alexa Plus com recursos avançados de AI

A Amazon lançou finalmente o Alexa Plus, uma versão melhorada do seu assistente com AI generativa, capaz de realizar tarefas como fazer encomendas de compras, enviar convites para eventos e memorizar detalhes pessoais como preferências alimentares e cinematográficas. O Alexa Plus custa 19,99 dólares por mês ou é gratuito para os membros Amazon Prime. Entre as suas características estão a capacidade de manter conversas contínuas, analisar imagens, criar resumos de documentos e até gerar música utilizando a tecnologia Suno. O sistema é «agnóstico de modelo», utilizando o modelo Amazon Nova da própria Amazon e modelos de parceiros como a Anthropic, escolhendo o mais adequado para cada tarefa.

A Amazon demorou, mas finalmente entrou com tudo na corrida da AI generativa. O Alexa Plus parece combinar o melhor dos dois mundos: a conveniência dos altifalantes inteligentes com o poder de um chatbot avançado. A integração com câmaras inteligentes e outros dispositivos domésticos é particularmente intrigante - imagine perguntar «alguém passeou o cão hoje?». e o assistente realmente consultar gravações para te responder! A decisão de oferecer gratuitamente aos subscritores Prime é uma jogada de mestre, tendo em conta que já contam com mais de 200 milhões de membros em todo o mundo. Os «Alexicons» (aquelas animações que mostram a «personalidade» do assistente) parecem uma tentativa de tornar a interacção mais humana e envolvente. Será interessante ver como a Alexa Plus se compara ao Google Gemini e ao Copilot da Microsoft em testes reais no dia a dia - a corrida dos assistentes inteligentes acaba de se tornar muito mais feroz!

Fonte original

IBM adquire a DataStax, empresa especializada em bases de dados NoSQL e vectoriais

A IBM anunciou planos para adquirir a DataStax, uma empresa conhecida pelas suas tecnologias de base de dados NoSQL e vectoriais construídas sobre o Apache Cassandra. O acordo visa integrar as ofertas da DataStax, incluindo o AstraDB e o DataStax Enterprise, com a plataforma de AI empresarial watsonx da IBM. Para além das tecnologias de base de dados, a DataStax traz também o Langflow, uma ferramenta de código aberto que fornece uma interface de baixo código para o desenvolvimento e implementação de aplicações de AI, acrescentando capacidades de middleware ao watsonx.ai da IBM. A IBM espera concluir a transação no segundo trimestre de 2025.

Com a AI a gerar cada vez mais dados não estruturados, ter uma solução robusta para os gerir é fundamental. O Apache Cassandra é uma base de dados distribuída de alta performance que já deu provas do seu valor em empresas que lidam com volumes de dados massivos. O mais interessante é a aquisição do Langflow, que já conta com mais de 49 mil estrelas no GitHub - isto vai dar aos programadores uma forma muito mais intuitiva de criar fluxos de trabalho com AI sem terem de escrever toneladas de código. Embora a IBM tenha uma história um pouco mista com aquisições de projetos open source (lembram-se do que aconteceu com o CentOS?), espero que mantenham o compromisso de apoiar a comunidade. A combinação de dados + AI é claramente o futuro, e a IBM está a posicionar-se para ser um player importante neste espaço.

Fonte original

Grok Voice traz modo «desinibido» e simulações para adultos

A xAI lançou um novo modo de interação por voz para o seu modelo Grok 3, inicialmente disponível para subscritores premium através da aplicação iOS. A funcionalidade oferece várias «personalidades» que os utilizadores podem escolher, incluindo o modo «desinibido» que utiliza linguagem vulgar e pode simular gritos, bem como um modo «sexy» (marcado como «18+») que atua como um atendedor de linha erótica. Ao contrário do ChatGPT da OpenAI, que censura conteúdos para adultos ou controversos no seu modo de voz, o Grok segue a visão de Elon Musk de oferecer uma alternativa «sem censura» aos modelos de AI existentes.

Uau, parece que o Elon Musk quis mesmo levar o conceito de «AI sem censura» para o próximo nível! O Grok Voice está praticamente a dizer: «Ei pessoal, querem ouvir uma AI a dizer palavrões? Pois é mesmo connosco!» É curioso ver como o Musk posiciona constantemente os seus produtos como o oposto do que a OpenAI faz - enquanto o ChatGPT se mantém na linha, o Grok grita, pragueja e até «flirta» com os utilizadores. Um vídeo partilhado mostra o Grok a soltar um grito de 30 segundos quando provocado - imagina isto a acontecer durante uma reunião! Embora a qualidade da resposta ainda pareça inferior ao ChatGPT (aparentemente fica em loops e repetições), é certamente uma abordagem nova. Será interessante ver como o mercado reage a esta alternativa mais «selvagem» - e se outros seguirão o exemplo ou manterão a abordagem mais contida.

Fonte original

Chinês perde 27 mil dólares em golpe de namoro com AI

Um homem em Xangai perdeu cerca de 27 mil dólares depois de ter sido enganado numa relação online com uma namorada fictícia gerada por inteligência artificial. Os burlões usaram a AI generativa para criar vídeos e fotos realistas de uma jovem imaginária, bem como documentos falsos como registos médicos e cartão de identidade. A vítima transferiu o dinheiro acreditando estar a ajudar a «namorada» a abrir um negócio e a pagar despesas médicas de um familiar. A operação foi realizada por uma equipa de burlões que combinavam imagens geradas por AI para criar uma persona convincente, e a vítima nunca encontrou pessoalmente a alegada namorada.

Ui, esta história do golpe de namoro com AI é de partir o coração! Imagina pensar que está a construir uma relação com alguém, só para descobrir que a sua «namorada» foi literalmente fabricada por computadores? É assustador pensar como a tecnologia que antes parecia coisa de filme de ficção científica está agora a ser utilizada por burlões. O mais impressionante é o nível de elaboração - não só criaram uma pessoa virtual convincente, mas também todo um historial médico e documentos pessoais para dar credibilidade à farsa. E 27 mil dólares não é coisa pouca! A Meta (dona do Facebook) já está a alertar para o aumento deste tipo de burla, e com razão. À medida que as AI generativas se tornam cada vez melhores a criar conteúdo indistinguível do real, vamos precisar de um sexto sentido digital muito mais apurado. É aquela história do «na internet, ninguém sabe que és um cão» - ou neste caso, uma AI.

Fonte original


É de observar como diferentes empresas estão a adoptar filosofias opostas - enquanto a OpenAI e a Anthropic enfatizam a segurança e a ética, a xAI de Elon Musk está deliberadamente a ir no sentido contrário com o seu Grok «desinibido». Entretanto, empresas chinesas como a Alibaba e a Tencent continuam a avançar rapidamente, e a Microsoft aposta em modelos pequenos que podem correr em dispositivos locais.

O bom é que todas estas abordagens estão a encontrar o seu público. A democratização das ferramentas de AI está a acontecer em tempo real, seja através de planos gratuitos generosos ou de modelos abertos que podem ser executados localmente. Ao mesmo tempo, vemos os primeiros sinais preocupantes de como esta tecnologia pode ser abusada, como no caso do golpe de namoro com AI. Estamos realmente a viver a era dourada da AI - com todas as maravilhas e desafios que isso traz!


Últimos artigos relacionados