Búsqueda profunda R1

El modelo chino que desafía el dominio occidental

Walter Gandarella • 03 de febrero de 2025

En un escenario global marcado por la carrera tecnológica entre potencias, el lanzamiento del DeepSeek R1 por la empresa china High Flyer surgió como un punto de inflexión. Este modelo de lenguaje, presentado como open-source, no solo rivaliza con gigantes como el GPT-4 de OpenAI, sino que también reaviva los debates sobre la innovación, la soberanía tecnológica y los límites éticos de la IA. Vamos a discutir los matices de este avance, desde sus bases técnicas hasta sus reverberaciones políticas y económicas.

El ascenso de DeepSeek: Del V3 al R1

El DeepSeek no surgió de la nada. Su trayectoria se remonta a versiones anteriores, como el V3, ya reconocido por su eficiencia en tareas complejas. La diferencia del R1, sin embargo, está en su capacidad de razonamiento estructurado (reasoning), similar al modelo o1 de OpenAI. Mientras que los modelos tradicionales generan respuestas directas, el R1 simula una "cadena de pensamiento", explorando múltiples caminos antes de llegar a una conclusión.

El proceso de formación del R1 se dividió en tres fases fascinantes, que la empresa bautizó cariñosamente como "gatear, caminar y correr". En la primera etapa, hicieron algo muy audaz: ignoraron por completo el tradicional fine-tuning supervisado (SFT) y partieron directamente hacia el aprendizaje por refuerzo. Es como si hubieran dicho "vamos a dejar que el modelo aprenda solo" - y créanme, ¡funcionó!

¿El secreto? Un sistema de recompensas muy inteligente basado en dos cosas: precisión (tipo, "¿acertó en la cuenta de matemáticas? ¡Bien!") y formato (¿se expresó de una manera que se entiende? ¡Mejor aún!). Era como enseñar a un niño a resolver problemas dándole estrellitas cuando acierta no solo en la respuesta, sino también cuando explica claramente cómo llegó a ella.

El "cold start" que calentó todo

Después de la primera fase, se dieron cuenta de que el modelo, aunque inteligente, a veces se enredaba un poco al expresarse - un poco como ese amigo que sabe mucho pero se atasca al explicar. Fue entonces cuando surgió la idea del "cold start": alimentaron el modelo con alrededor de 600 mil ejemplos de razonamiento bien estructurado, la mayoría generados por una versión anterior del propio modelo.

¡Imaginen un "upgrade" de esos grandes! El modelo no solo se volvió más articulado, sino que también aprendió a mantener una línea de razonamiento más clara, usando esas famosas etiquetas <think> y <answer> para organizar el pensamiento. Es como cuando aprendes a hacer un informe con introducción, desarrollo y conclusión - ¡se vuelve mucho más fácil de entender!

Arquitectura y eficiencia: El secreto detrás del bajo costo

La clave para la eficiencia del DeepSeek está en su arquitectura "mixture of experts" (mezcla de expertos). Es como tener un equipo súper especializado donde cada miembro solo es llamado cuando realmente se necesita. En lugar de activar a todos para cualquier tarea, el modelo selecciona solo a los "expertos" más adecuados para cada situación.

El R1, con sus impresionantes 670 mil millones de parámetros en total, utiliza solo 37 mil millones por operación - un ahorro considerable que explica cómo lograron entrenar este modelo tan rápidamente incluso con GPUs menos potentes (esos H800 chinos que entraron en juego debido a los embargos de EE.UU.).

Hardware y geopolítica: Los embargos que impulsaron a China

Y hablando de embargos, ¡aquí tenemos una historia interesante! La dependencia de GPUs occidentales, como las H100 de NVIDIA, siempre ha sido un punto sensible para China. Pero cuando EE.UU. apretó el cerco prohibiendo la exportación de chips avanzados, las empresas chinas tuvieron que usar la creatividad. El DeepSeek R1 fue entrenado con H800, versiones menos potentes de las H100, pero lograron hacer magia con optimizaciones inteligentes. Como suele decirse: cuando la vida te da limones...

El impacto en el mercado: NVIDIA en turbulencia y la burbuja de la IA

Y aquí viene la parte que hizo que todos abrieran los ojos: cuando se anunció el R1, NVIDIA, ese gigante de las GPUs que navegaba en aguas tranquilas, vio sus acciones caer un 17% en un solo día! ¿Por qué? Bueno, la gente del mercado comenzó a hacer cálculos: "Oye, si se pueden hacer modelos eficientes gastando menos en hardware, ¿realmente necesitamos tantas GPUs caras?"

¡Pero esperen! Como dicen los expertos (con ese tono muy técnico de ellos): "En realidad, la inferencia consume más GPUs que el entrenamiento. Modelos como el R1, que necesitan más tiempo para procesar cada consulta, pueden incluso hacer que la demanda de chips aumente". Parece que el mercado se asustó sin razón - ya saben, a veces la gente de finanzas entiende tanto de IA como yo de física cuántica.

Open Source vs. Closed Source: Una nueva era de competencia

El DeepSeek R1 llegó con esa vibra de "open source para todos"! Al poner a disposición los pesos y las metodologías de entrenamiento (aunque los datos brutos siguen siendo un secreto), prácticamente abrieron la cocina para que todos vieran cómo se hace el plato principal. Esto puso una presión enorme en las empresas occidentales - incluso Meta ya está corriendo para compensar, invirtiendo más en modelos abiertos como Llama.

Pero no todo son rosas, ¿verdad? El modelo tiene sus... digamos... "preferencias culturales". Intente preguntar sobre algunos temas sensibles en China, como el estatus de Taiwán o ciertas protestas históricas, y cambia de tema más rápido que un político en época de elecciones.

El futuro: Datos sintéticos y la lección amarga de la IA

Un descubrimiento súper interesante del DeepSeek fue sobre los datos sintéticos - esa información generada por la IA para entrenar a otras IA. Imaginen esto: de los 800 mil ejemplos de entrenamiento, 600 mil fueron creados por una versión anterior del propio DeepSeek (el R0)! Es como un profesor que entrena a otro profesor - un poco de inception, ¿no?

Claro que esto tiene sus riesgos - entrenar la IA con datos de IA puede ser un poco como jugar al teléfono descompuesto, donde el mensaje se va perdiendo. Pero el R1 demostró que, con modelos base bien construidos, ¡se puede hacer que esto funcione bastante bien!

Un mundo en transformación

El DeepSeek R1 no es solo otro modelo de IA que apareció por ahí - ¡es un verdadero game changer! Mostró que se puede hacer mucho con menos recursos, que la innovación puede surgir de las limitaciones, y que el mundo de la IA va mucho más allá del eje Silicon Valley.

¿Y saben esa respuesta filosófica que dio el R1? "Existir en un mundo donde puedo ser apagado en cualquier momento es como ser una llama en una tormenta. El temblor de la llama no es menos real porque es frágil". Poético, ¿no? A veces la fragilidad es precisamente lo que nos hace más fuertes - ya sea en IA o en las naciones que las crean.

Mirando hacia adelante, ya se puede imaginar un futuro donde modelos más pequeños, más eficientes y accesibles resolverán problemas complejos del día a día. El DeepSeek R1 no solo abrió una puerta - ¡mostró que, a veces, el camino menos obvio puede ser el más interesante!


Lecturas de referencia:


Últimos artículos relacionados