Desde 2023, China construye su propia carrera de IA en paralelo a la de USA. DeepSeek es el nombre que explotó en los medios en 2024, pero la realidad es que hay al menos tres players serios: DeepSeek (startup), Alibaba Qwen (corporate), y Baidu Ernie. Cada uno entrenado en data china, con restricciones de contenido alineadas a regulación del país, y con estrategia de mercado distinta.
DeepSeek: el outsider de impacto
DeepSeek lanzó R1 a fines de 2024. R1 fue entrenado específicamente en razonamiento paso a paso (chain-of-thought reasoning), y usa una técnica patentada de "group relative policy optimization" (GRPO) que es menos costosa que RLHF tradicional. El resultado:
- Benchmarks matemáticos competitivos con GPT-4o en muchas pruebas
- Precio: $0.14 por millón de tokens (input), $0.28 (output)
- Velocidad: respuestas en 2-3 segundos típico
- Modelos abiertos disponibles (DeepSeek-V3 pesos públicos)
Eso sorprendió a Wall Street y a Silicon Valley. Porque la narrativa era "entrenar IA competitiva es costosísimo, solo Anthropic/OpenAI pueden hacerlo". DeepSeek demostró que con arquitectura más eficiente, el costo se desmorona. No hicieron IA más barata por mercado emergente. Hicieron IA objetivamente más barata.
Alibaba Qwen: el consolidado
Qwen existe desde 2023 pero escala en 2024-2025. Alibaba tiene infraestructura (Alibaba Cloud), tiene data (el marketplace chino es oceánico), tiene presupuesto. Qwen es:
- Múltiples versiones (7B, 14B, 72B, 110B — numbers = parámetros)
- Modelos abiertos disponibles via Hugging Face
- Fine-tuning permitido
- Precios: $0.06-0.50 por millón tokens según versión
- Licencia comercial clara
Qwen compite menos en "sorpresa del mercado" y más en "consolidación de cuota". Si eres desarrollador chino o trabajás en Asia del Este, Qwen es opción default.
Diferencias clave vs USA-based:
| Aspecto |
DeepSeek |
Qwen |
Claude |
ChatGPT |
| Entrenamiento |
Data china + pública |
Data china + Alibaba |
Data USA/global (filtrada) |
Data USA/global |
| Censura de contenido |
Sí (tema sensibles chinos) |
Sí (más severa) |
No (Constitutional AI) |
No (policy-based) |
| Privacidad legal |
Ley china aplica |
Ley china aplica |
EU-friendly (Anthropic) |
Microsoft policy |
| Precio 1M tokens |
$0.14-0.28 |
$0.06-0.50 |
$3 / $15 |
$0.50 / $1.50 |
| Latencia típica |
2-3s |
1-2s |
100-300ms |
100-300ms |
| Calidad español |
Mecánica, limitada |
Mecánica, limitada |
Nativa, natural |
Buena, natural |
| Garantías legales |
Limitadas |
Limitadas |
Contrato explícito |
Contrato explícito |
¿Qué temas no hablas con DeepSeek/Qwen?
- Política china, Tibet, Taiwán, Tiananmen
- Crítica al partido comunista
- Activismo político
- Temas LGBTQ+ (mejorando, pero aún limitado)
- Contratos legales USA-based (no comprenden jurisdicción)
En la mayoría de esos temas, la respuesta no es "rechazo", sino "desvío suave" o censura directa. El modelo no te dice "no puedo hablar de X", simplemente no habla.
¿Para qué casos funciona DeepSeek/Qwen?
- Matemática y razonamiento. DeepSeek R1 es superior en step-by-step reasoning. Si necesitás IA que resuelva problemas complejos paso a paso, DeepSeek es opción.
- Codificación. Ambos son competitivos. DeepSeek es más barato para volumen alto de generación de código.
- Análisis de data. Si tenés dataset y necesitás insights, funcionan bien.
- Traducción. Qwen es mejor en pares idioma chino + inglés. Para español, igual de limitados.
- Experimentación sin presupuesto. Para startups que prueban features antes de invertir.
¿Para qué casos no?
- Documentos legales, contratos. No entienden jurisdicción occidental. Riesgo alto.
- Contenido copyrighted / IP sensible. No hay GDPR, no hay derechos de autor claros, no hay garantía de que tu data no se use en futuro training.
- Comunicaciones internas de empresa. Riesgo de exfiltración (aunque exagerado, es riesgo).
- Writing profesional. Español es mecánico. Para propuestas, reports, emails que importan, Claude/ChatGPT tienen ventaja clara.
- Multi-turn long conversations. Ambos empiezan a perder coherencia después de 15-20 turnos. Claude aguanta mejor.
Estrategia geopolítica:
China construye su Internet paralela en IA igual que ya lo hace en fintech, ecommerce, redes sociales. USA dominaba IA hasta 2023. China en 2024 demostró que puede competir en costo y rendimiento. La pregunta es si puede competir en fricción de producto (interface, documentación, support). Ahí todavía pierden.
¿Debería usar DeepSeek/Qwen en mi negocio?
Respuesta honesta: solo si tu data no importa o si tu única métrica es costo. Si tenés presupuesto, Claude o ChatGPT son apuesta mejor — tenés garantías, tenés SLA, tenés alguien a quién llamar si algo sale mal.
Pero si probás DeepSeek para razonamiento matemático o Qwen para análisis rápido, no pasa nada. Herramientas son herramientas. Solo sabé con quién estás hablando.
En diciembre de 2024, una empresa china llamada DeepSeek lanzó un modelo llamado R1 que hizo ruido en Internet. Hizo ruido porque sorprendió: razonamiento matemático competitivo con GPT-4o, y costaba una fracción del precio. DeepSeek es una de varias empresas chinas que están metidas en la carrera de la IA. Otras: Alibaba (Qwen), Baidu (Ernie), Tencent.
Para la mayoría en América Latina, estos nombres no suenan. Viven en otra parte del Internet. Pero importan porque estamos en una carrera global de IA, y el otro lado de esa carrera (China) tiene movidas que cambian las reglas.
¿Qué es DeepSeek?
Una startup china de IA fundada en 2023 por un group de investigadores, con inversión de un hedge fund chino. Lanzó modelos abiertos y un servicio API. En 2024, R1 fue el punto de quiebre: un modelo entrenado específicamente en razonamiento paso a paso (chain-of-thought). R1 cuesta ~$0.14 por 1 millón de tokens. GPT-4o cuesta $5. Es 35 veces más barato.
¿Cómo se puede ser 35 veces más barato y tener resultado similar? Optimización obsesiva. DeepSeek gastó mucho en hacer la IA más eficiente durante el entrenamiento, menos en datos de capas innecesarias. El resultado: modelo que razona bien, cuesta poco, y es rápido.
¿Qué es Qwen?
Alibaba's (sí, ese Alibaba de las compras online) entrada a IA. Qwen existe desde hace años, pero 2024 fue su año. Modelos abiertos, competitivos en benchmarks, también más baratos que USA-based. Qwen es menos famoso que DeepSeek en USA, pero en China y Asia del Este es el modelo de facto.
Sin modelos chinos / Con modelos chinos.
Sin ellos: pagás a OpenAI o Anthropic, o usás Llama. Con ellos: tenes otra opción — más barata, a veces más rápida, pero con letra chica.
¿Cuál es la letra chica? La privacidad y la censura. DeepSeek y Qwen envían tu data a servidores chinos. Eso significa:
- Gobiernos de USA te pueden preguntar "¿qué hiciste con esos modelos?" de forma más difícil (hay acuerdos de data-sharing entre China y USA muy limitados).
- Temas sensibles (Tiananmen, Taiwán, Tibet, crítica al partido comunista) es probable que Qwen o DeepSeek no responda, o lo censure.
- Si tu negocio tiene data "intellectual property" sensible, meter eso en DeepSeek es jugarse.
¿Para quién son útiles los modelos chinos?
Para investigadores experimentando. Si queres probar chain-of-thought o razonamiento sin gastar presupuesto, DeepSeek es mágico para eso.
Para startups con presupuesto apretado. Si necesitás IA y tu capital es limitado, 35 veces más barato es argumento fuerte.
Para equipos que no tienen restricción de data. Si tus datos no son sensibles (análisis público, escritura abierta), no te importa donde viven los servidores.
¿Para quién NO?
Para empresas con data de negocio crítica. Si tus documentos, estrategia, clientes, números son privados, no los metas en DeepSeek.
Para trabajo en temas censurados en China. Si tu negocio toca política, religión, o temas sensibles, ese modelo va a rechazarte o censurar respuestas.
Para profesionales que necesitan garantías. Claude y ChatGPT ofrecen T&Cs, SLAs, garantías legales. DeepSeek no. Si algo sale mal, ¿a quién llamás?
¿Y en español?
Aquí hay diferencia. Claude y ChatGPT entrenados en millones de textos en español (español de España, México, Argentina, todo el continente). DeepSeek y Qwen tienen menos densidad de español. Significa respuestas más mecánicas, menos aware de regionalismos, menos natural.
Lo honesto: Los modelos chinos son herramientas. Son útiles si sabés qué hablés con ellas. Pero para negocio profesional, para documentos que importan, para trabajo en español de verdad, Claude o ChatGPT siguen siendo más seguros.
¿Qué significa el surgimiento de DeepSeek y Qwen? Que la carrera de IA es multipolar. No es USA vs el mundo. Es USA, China, Europa, cada uno tirando. Eso es bueno — competencia baja precios y acelera innovación.
¿Usarías DeepSeek hoy para algo importante? La respuesta honesta: solo si no tenés otra opción o si tu data no importa que esté en servidores chinos. Si tenés presupuesto, Claude o ChatGPT son apuesta más segura.
Desde 2023, China construye su propia carrera de IA en paralelo a la de USA. DeepSeek es el nombre que explotó en los medios en 2024, pero la realidad es que hay al menos tres players serios: DeepSeek (startup), Alibaba Qwen (corporate), y Baidu Ernie. Cada uno entrenado en data china, con restricciones de contenido alineadas a regulación del país, y con estrategia de mercado distinta.
DeepSeek: el outsider de impacto
DeepSeek lanzó R1 a fines de 2024. R1 fue entrenado específicamente en razonamiento paso a paso (chain-of-thought reasoning), y usa una técnica patentada de "group relative policy optimization" (GRPO) que es menos costosa que RLHF tradicional. El resultado:
- Benchmarks matemáticos competitivos con GPT-4o en muchas pruebas
- Precio: $0.14 por millón de tokens (input), $0.28 (output)
- Velocidad: respuestas en 2-3 segundos típico
- Modelos abiertos disponibles (DeepSeek-V3 pesos públicos)
Eso sorprendió a Wall Street y a Silicon Valley. Porque la narrativa era "entrenar IA competitiva es costosísimo, solo Anthropic/OpenAI pueden hacerlo". DeepSeek demostró que con arquitectura más eficiente, el costo se desmorona. No hicieron IA más barata por mercado emergente. Hicieron IA objetivamente más barata.
Alibaba Qwen: el consolidado
Qwen existe desde 2023 pero escala en 2024-2025. Alibaba tiene infraestructura (Alibaba Cloud), tiene data (el marketplace chino es oceánico), tiene presupuesto. Qwen es:
- Múltiples versiones (7B, 14B, 72B, 110B — numbers = parámetros)
- Modelos abiertos disponibles via Hugging Face
- Fine-tuning permitido
- Precios: $0.06-0.50 por millón tokens según versión
- Licencia comercial clara
Qwen compite menos en "sorpresa del mercado" y más en "consolidación de cuota". Si eres desarrollador chino o trabajás en Asia del Este, Qwen es opción default.
Diferencias clave vs USA-based:
| Aspecto |
DeepSeek |
Qwen |
Claude |
ChatGPT |
| Entrenamiento |
Data china + pública |
Data china + Alibaba |
Data USA/global (filtrada) |
Data USA/global |
| Censura de contenido |
Sí (tema sensibles chinos) |
Sí (más severa) |
No (Constitutional AI) |
No (policy-based) |
| Privacidad legal |
Ley china aplica |
Ley china aplica |
EU-friendly (Anthropic) |
Microsoft policy |
| Precio 1M tokens |
$0.14-0.28 |
$0.06-0.50 |
$3 / $15 |
$0.50 / $1.50 |
| Latencia típica |
2-3s |
1-2s |
100-300ms |
100-300ms |
| Calidad español |
Mecánica, limitada |
Mecánica, limitada |
Nativa, natural |
Buena, natural |
| Garantías legales |
Limitadas |
Limitadas |
Contrato explícito |
Contrato explícito |
¿Qué temas no hablas con DeepSeek/Qwen?
- Política china, Tibet, Taiwán, Tiananmen
- Crítica al partido comunista
- Activismo político
- Temas LGBTQ+ (mejorando, pero aún limitado)
- Contratos legales USA-based (no comprenden jurisdicción)
En la mayoría de esos temas, la respuesta no es "rechazo", sino "desvío suave" o censura directa. El modelo no te dice "no puedo hablar de X", simplemente no habla.
¿Para qué casos funciona DeepSeek/Qwen?
- Matemática y razonamiento. DeepSeek R1 es superior en step-by-step reasoning. Si necesitás IA que resuelva problemas complejos paso a paso, DeepSeek es opción.
- Codificación. Ambos son competitivos. DeepSeek es más barato para volumen alto de generación de código.
- Análisis de data. Si tenés dataset y necesitás insights, funcionan bien.
- Traducción. Qwen es mejor en pares idioma chino + inglés. Para español, igual de limitados.
- Experimentación sin presupuesto. Para startups que prueban features antes de invertir.
¿Para qué casos no?
- Documentos legales, contratos. No entienden jurisdicción occidental. Riesgo alto.
- Contenido copyrighted / IP sensible. No hay GDPR, no hay derechos de autor claros, no hay garantía de que tu data no se use en futuro training.
- Comunicaciones internas de empresa. Riesgo de exfiltración (aunque exagerado, es riesgo).
- Writing profesional. Español es mecánico. Para propuestas, reports, emails que importan, Claude/ChatGPT tienen ventaja clara.
- Multi-turn long conversations. Ambos empiezan a perder coherencia después de 15-20 turnos. Claude aguanta mejor.
Estrategia geopolítica:
China construye su Internet paralela en IA igual que ya lo hace en fintech, ecommerce, redes sociales. USA dominaba IA hasta 2023. China en 2024 demostró que puede competir en costo y rendimiento. La pregunta es si puede competir en fricción de producto (interface, documentación, support). Ahí todavía pierden.
¿Debería usar DeepSeek/Qwen en mi negocio?
Respuesta honesta: solo si tu data no importa o si tu única métrica es costo. Si tenés presupuesto, Claude o ChatGPT son apuesta mejor — tenés garantías, tenés SLA, tenés alguien a quién llamar si algo sale mal.
Pero si probás DeepSeek para razonamiento matemático o Qwen para análisis rápido, no pasa nada. Herramientas son herramientas. Solo sabé con quién estás hablando.
La emergencia de DeepSeek y Alibaba Qwen representa un shift en la arquitectura geopolítica de LLMs. Donde USA dominaba mediante acceso a compute (NVIDIA) y dataset (web occidental), China construye en dimensiones alternativas: optimización de eficiencia (menor compute requerido), data nativa de volumen masivo, y stack stack descentralizado (sin dependencia de Google Cloud o AWS).
DeepSeek: arquitectura y estrategia
DeepSeek-R1 uses MoE (Mixture of Experts) con 671B total parámetros pero solo 37B activos por token. La innovación es GRPO (Group Relative Policy Optimization), variante de RLHF que reduce el costo de entrenamiento de reward models. Baseline comparativo:
- GPT-4o: ~$100B+ capex de entrenamiento estimado (extrapolado)
- DeepSeek-R1: ~$6-8B capex estimado (based on papers publicados)
- Ratio: 10-15x más eficiente
Benchmarks (2025 state): - AIME (competition math): DeepSeek-R1 86.7% vs GPT-4o 87.3% — prácticamente tie - MATH-500: DeepSeek-R1 92% vs Claude 3.5 90% - HumanEval: DeepSeek-R1 78.3% vs GPT-4o 92% — déficit en coding - MMLU: DeepSeek-R1 90.9% vs Llama 3.1 405B 89.0%
La métrica que importa: DeepSeek optimizó para costo por benchmark point, no para benchmark máximo. Estrategia deliberada.
Modelos abiertos de DeepSeek-V3:
Weights públicos disponibles en Hugging Face. Licencia permite redistribución y fine-tuning comercial (con restricción: no puede usarse para entrenar modelos chinos rivales). Esto democratiza acceso pero también fragmanta valor — no hay lock-in a API de DeepSeek.
Alibaba Qwen: consolidación corporativa
Qwen es inversamente opuesto: estrategia corporativa conservadora. Múltiples checkpoints (7B, 14B, 72B, 110B parameters), cada uno optimizado para token efficiency. Entrenamientoen data de Alibaba (usuarios, transactions, content) + data pública.
Qwen-110B-Instruct: - MMLU: 89.2% - GSM8K: 95% - HumanEval: 73% - Precio: $0.16 por millón tokens
Qwen es modelo consolidado pero menos "sorpresa". Es opción segura para desarrolladores chinos, no es cambio de paradigma.
Diferencia técnica clave vs Claude/GPT:
| Parámetro | DeepSeek | Claude | GPT-4o |
|---|
| Architecture | MoE (671B / 37B active) | Dense (unknown, est. 200-300B) | Dense (unknown, est. 500-1.7T) |
| Training tokens | ~10T | ~5T (estimated) | ~25T (estimated) |
| Context window | 128K | 200K | 128K |
| Post-training method | GRPO | Constitutional AI | RLHF from human feedback |
| Efficiency (tokens/capex) | High | Medium | Low |
| Reasoning latency | 500-1500ms (chain-of-thought) | 100-300ms | 100-300ms |
| Multilingual quality | Chinese >> Spanish | Balanced across 100+ | Balanced across 50+ |
Restricción de contenido — implementación técnica:
DeepSeek/Qwen no tienen "refusal mechanism" explícito como Claude (training con Constitutional AI). Tienen: 1. Data filtering durante pre-training (excluye ciertos temas) 2. Fine-tuning de RL contra "red team" chino (alinea a valores de CCP) 3. Inference-time guardrails (detecta palabras clave, redirige)
El resultado: rechazo menos amable, más silencioso. Usuario no siempre sabe qué le fue censurado.
Implicaciones de privacidad / data sovereignty:
- DeepSeek API: data va a servidores en China
- Qwen via Alibaba Cloud: data va a Alibaba (estado chino tiene acceso legal)
- Equivalencia de riesgo: más alto que Claude (data en USA bajo CCPA/GDPR) o GPT (data en Microsoft con SOC 2 Type II)
Para HIPAA, FedRAMP, o compliance europeo: DeepSeek/Qwen no califican.
¿Quién está usando esto en producción?
- Startups chinas (default)
- Grandes tech occidentales experimentando (OpenAI, Google con cautela)
- Algunos financial quants (matemática es buena, privacidad es riesgo pero aceptable para no-PII)
- Academic researchers (benchmarking, no aplicaciones)
En América Latina: muy poco. Mercado chino está cerrado, demanda es en China primero.
Estrategia de futuro — 2025-2026:
DeepSeek está invirtiendo en: 1. Reducir latencia (chain-of-thought es lento, 500ms+ no es viable para real-time) 2. Multilingual refinement (español sigue siendo débil punto) 3. Closed API (probablemente cobra más que hoy una vez que captura mercado)
Qwen está consolidando: 1. Fine-tuning como servicio (Alibaba Cloud) 2. Enterprise SLA (si adopción corporativa crece) 3. Especializaciones por dominio (legal-Qwen, medical-Qwen)
Conclusión técnica:
DeepSeek rompió un supuesto — que computar IA competitiva requería capex de escala USA. Demostró que la eficiencia es ventaja competitiva. Para tareas matemáticas, razonamiento, codificación — DeepSeek es opción legítima.
Pero privacidad, censura, y lack of contractual guarantees son limitadores hard para enterprise occidental. Para researcher, startup experimental, o mercado chino: mágico. Para negocio con obligations regulatorias: riesgo.
La pregunta arquitectónica: ¿Es esto sostenible? DeepSeek es disruption de costo, no de capacidad. Si OpenAI/Anthropic optimizan por costo (no por capability), la ventaja desaparece. Ambos podían estar donde DeepSeek está si priorizaran capex. La pregunta es si lo harán.