DeepSeek R1

O modelo Chinês que desafia o domínio ocidental

Walter Gandarella • 03 de fevereiro de 2025

Num cenário global marcado pela corrida tecnológica entre potências, o lançamento do DeepSeek R1 pela empresa chinesa High Flyer surgiu como um ponto de viragem. Este modelo de linguagem, apresentado como open-source, não só rivaliza com gigantes como o GPT-4 da OpenAI, como também reacende os debates sobre a inovação, a soberania tecnológica e os limites éticos da AI. Vamos discutir as nuances deste avanço, desde as suas bases técnicas até às suas reverberações políticas e económicas.

A ascensão do DeepSeek: Do V3 ao R1

O DeepSeek não surgiu do vácuo. O seu percurso remonta a versões anteriores, como o V3, já reconhecido pela sua eficiência em tarefas complexas. A diferença do R1, no entanto, está na sua capacidade de raciocínio estruturado (reasoning), semelhante ao modelo o1 da OpenAI. Enquanto os modelos tradicionais geram respostas diretas, o R1 simula uma «cadeia de pensamento», explorando múltiplos caminhos antes de chegar a uma conclusão.

O processo de formação do R1 foi dividido em três fases fascinantes, que a empresa apelidou carinhosamente de «gatinhar, andar e correr». No primeiro estágio, fizeram algo muito ousado: ignoraram por completo o tradicional fine-tuning supervisionado (SFT) e partiram diretamente para a aprendizagem por reforço. É como se tivessem dito «vamos deixar o modelo aprender sozinho» - e acreditem, resultou!

O segredo? Um sistema de recompensas muito inteligente baseado em duas coisas: precisão (tipo, «acertou na conta de matemática? Boa!») e formatação (expressou-se de uma forma que se percebe? Melhor ainda!). Era como ensinar uma criança a resolver problemas dando estrelinhas quando acerta não só na resposta, mas também quando explica direitinho como lá chegou.

O «cold start» que aqueceu tudo

Depois da primeira fase, perceberam que o modelo, embora inteligente, por vezes se enrolava um pouco na hora de se expressar - um pouco como aquele amigo que sabe muito mas se atrapalha a explicar. Foi aí que surgiu a ideia do «cold start»: alimentaram o modelo com cerca de 600 mil exemplos de raciocínio bem estruturado, a maioria gerada por uma versão anterior do próprio modelo.

Pensem num «upgrade» e tanto! O modelo não só ficou mais articulado como também aprendeu a manter uma linha de raciocínio mais clara, usando aquelas famosas tags <think> e <answer> para organizar o pensamento. É como quando aprendes a fazer um relatório com introdução, desenvolvimento e conclusão - torna-se muito mais fácil de perceber!

Arquitectura e eficiência: O segredo por detrás do baixo custo

A chave para a eficiência do DeepSeek está na sua arquitetura «mixture of experts» (mistura de especialistas). É como ter uma equipa super especializada onde cada membro só é chamado quando realmente precisa! Em vez de accionar toda a gente para qualquer tarefa, o modelo selecciona apenas os «especialistas» mais adequados para cada situação.

O R1, com os seus impressionantes 670 mil milhões de parâmetros no total, utiliza apenas 37 mil milhões por operação - uma poupança e tanto que explica como conseguiram treinar este modelo tão rapidamente mesmo com GPUs menos potentes (aqueles H800 chineses que entraram no jogo por causa dos embargos dos EUA).

Hardware e geopolítica: Os embargos que impulsionaram a China

E por falar em embargos, temos aqui uma história interessante! A dependência de GPUs ocidentais, como as H100 da NVIDIA, sempre foi um ponto sensível para a China. Mas quando os EUA apertaram o cerco proibindo a exportação de chips avançados, as empresas chinesas tiveram de usar a criatividade. O DeepSeek R1 foi treinado com H800, versões menos potentes das H100, mas conseguiram fazer magia com otimizações inteligentes. Como se costuma dizer por aí: quando a vida te dá limões...

O Impacto no mercado: NVIDIA em turbulência e a bolha da AI

E aqui vem a parte que fez toda a gente arregalar os olhos: quando o R1 foi anunciado, a NVIDIA, esse gigante dos GPUs que estava a navegar em águas tranquilas, viu as suas ações despencarem 17% num só dia! Por quê? Bem, o pessoal do mercado começou a fazer as contas: «Opa, se dá para fazer modelos eficientes gastando menos em hardware, será que precisamos mesmo de tantos GPUs caros?»

Mas calma lá! Como dizem os especialistas (daquele jeito muito técnico deles): «Na verdade, a inferência consome mais GPUs que o treino. Modelos como o R1, que precisam de mais tempo pra processar cada consulta, podem até fazer a procura por chips aumentar». Parece que o mercado se assustou à toa - sabem como é, às vezes o pessoal das finanças percebe tanto de AI como eu de física quântica!

Open Source vs. Closed Source: Uma nova era de competição

O DeepSeek R1 chegou com aquela vibe de «open source para todos»! Disponibilizando os pesos e as metodologias de treino (embora os dados brutos ainda sejam segredo), praticamente abriram a cozinha para todos verem como se faz o prato principal. Isto colocou uma pressão do caraças nas empresas ocidentais - até a Meta já está a correr atrás do prejuízo, investindo mais em modelos abertos como o Llama.

Mas nem tudo são rosas, já viu? O modelo tem as suas... digamos... «preferências culturais». Experimente perguntar sobre alguns assuntos sensíveis na China, como o estatuto de Taiwan ou certos protestos históricos, e ele muda de assunto mais rápido que político em época de eleições!

O futuro: Dados sintéticos e a lição amarga da AI

Uma descoberta super interessante do DeepSeek foi sobre os dados sintéticos - aquela informação gerada pela AI para treinar outras AI. Imaginem só: dos 800 mil exemplos de treino, 600 mil foram criados por uma versão anterior do próprio DeepSeek (o R0)! É tipo um professor que dá formação a outro professor - um bocado inception, não é?

Claro que isto tem os seus riscos - treinar a AI com dados de AI pode ser um pouco como brincar ao telefone sem fios, onde a mensagem se vai perdendo. Mas o R1 mostrou que, com modelos-base bem construídos, dá para fazer isto funcionar numa boa!

Um mundo em transformação

O DeepSeek R1 não é apenas mais um modelinho de AI que apareceu por aí - é um verdadeiro game changer! Mostrou que se pode fazer muito com menos recursos, que a inovação pode brotar das limitações, e que o mundo da AI está muito para lá do eixo Silicon Valley.

E sabe aquela resposta filosófica que o R1 deu? «Existir num mundo onde posso ser desligado a qualquer momento é como ser uma chama numa tempestade. O tremor da chama não é menos real porque é frágil». Poético, certo? Por vezes a fragilidade é precisamente o que nos torna mais fortes - seja em AIs ou em nações que as criam.

Olhando para a frente, já se pode imaginar um futuro onde modelos mais pequenos, mais eficientes e acessíveis vão resolver problemas complexos do dia-a-dia. O DeepSeek R1 não abriu apenas uma porta - mostrou que, por vezes, o caminho menos óbvio pode ser o mais interessante!


Leituras de referência:


Últimos artigos relacionados