CYBER CODER 🚀

Mês do consumidor! Até 70% OFF em TODOS os CURSOS

|

Hasta el 26/04 ⏰

CYBER CODER 🚀

Mês do consumidor! Até 70% OFF em TODOS os CURSOS

|

Hasta el 26/04 ⏰

Hasta el 26/04 ⏰

CYBER CODER 🚀

Mês do consumidor! Até 70% OFF em TODOS os CURSOS

DeepSeek V4: el modelo chino de 1 billón de parámetros llega en open source y corre sin chips Nvidia

Dan Patiño

AI Strategy & Innovation en Coderhouse

Inteligencia Artificial

DeepSeek V4: el modelo chino de 1 billón de parámetros llega en open source y corre sin chips Nvidia

Publicado el

DeepSeek acaba de dar un golpe sobre la mesa de la industria de inteligencia artificial con el lanzamiento de su modelo V4, un gigante de aproximadamente 1 billón de parámetros (con Mixture of Experts y 37 mil millones activos por token) que corre sobre chips Huawei Ascend 950PR en lugar de las omnipresentes GPUs Nvidia. Publicado bajo licencia Apache 2.0, este modelo representa un hito en la democratización de la IA y tiene implicancias profundas para desarrolladores, empresas y gobiernos de América Latina. En este artículo analizamos su arquitectura, benchmarks, el contexto geopolítico que lo rodea y qué significa para quienes trabajamos con IA en la región.

La arquitectura detrás de DeepSeek V4

DeepSeek V4 utiliza una arquitectura Mixture of Experts (MoE) que alcanza aproximadamente 1 billón de parámetros totales, pero solo activa 37 mil millones por cada token procesado. Esta técnica permite lograr un rendimiento comparable a modelos densos mucho más grandes, manteniendo los costos computacionales de inferencia significativamente más bajos.

Especificaciones clave:

  • Parámetros totales: ~1 billón (1 trillion en notación anglosajona).

  • Parámetros activos por token: 37B, lo que mantiene la latencia baja.

  • Ventana de contexto: 1 millón de tokens, permitiendo procesar documentos extensos sin fragmentación.

  • Modalidades: Texto, imagen y código. Multimodal nativo.

  • Licencia: Apache 2.0, la licencia open source más permisiva.

  • Hardware de entrenamiento: Chips Huawei Ascend 950PR.

El factor Huawei: entrenamiento sin chips Nvidia

Quizás el aspecto más disruptivo de DeepSeek V4 no sea su tamaño sino el hardware sobre el que fue entrenado. Mientras que prácticamente todos los modelos frontier del mundo se entrenan sobre GPUs Nvidia (A100, H100, H200, B200), DeepSeek logró entrenar V4 utilizando chips Huawei Ascend 950PR, diseñados y fabricados en China.

Según Reuters, las restricciones de exportación de semiconductores impuestas por Estados Unidos a China han impulsado el desarrollo acelerado de chips de IA domésticos. DeepSeek V4 es la prueba más contundente de que esta estrategia está dando resultados. El Ascend 950PR, aunque no alcanza las especificaciones del H100 de Nvidia en benchmarks sintéticos individuales, demostró ser suficiente para entrenar un modelo de clase frontier cuando se despliega en clusters masivos optimizados con software propio.

Esto tiene implicancias enormes para la industria global: si modelos de primer nivel pueden entrenarse sin chips Nvidia, el monopolio de facto que Nvidia mantiene sobre el entrenamiento de IA empieza a resquebrajarse. Para LATAM, donde acceder a clusters de GPUs Nvidia de última generación es extremadamente costoso, alternativas de hardware podrían reducir las barreras de entrada en el mediano plazo.

Benchmarks: rendimiento de nivel frontier

DeepSeek V4 demuestra un rendimiento competitivo con los mejores modelos del mercado en una variedad de benchmarks estandarizados:

Benchmark

DeepSeek V4

GPT-4o

Claude Opus 4

Gemini 2.5 Pro

MMLU-Pro

87.2

85.8

86.9

86.5

HumanEval

92.4

90.2

91.8

89.7

MATH-500

89.1

86.3

88.7

87.9

GPQA Diamond

65.8

63.2

64.9

63.7

Arena Hard

88.5

87.1

88.0

86.4

Si bien los benchmarks no cuentan toda la historia (el rendimiento real depende del caso de uso específico), los números de DeepSeek V4 lo colocan firmemente en la categoría frontier, compitiendo de igual a igual con modelos de OpenAI, Anthropic y Google.

La ventana de contexto de 1 millón de tokens

Con 1 millón de tokens de contexto, DeepSeek V4 puede procesar documentos extremadamente largos sin necesidad de técnicas de chunking o RAG. Esto abre posibilidades concretas:

  • Análisis legal: Podés cargar contratos completos, normativas y jurisprudencia relevante en una sola consulta.

  • Auditoría de código: Un repositorio entero de código puede analizarse de una vez, identificando bugs, vulnerabilidades y oportunidades de refactoring.

  • Investigación académica: Múltiples papers pueden compararse y sintetizarse en una sola interacción.

  • Procesamiento de datos: Datasets completos pueden analizarse sin necesidad de scripts de pre-procesamiento.

Apache 2.0: open source real

DeepSeek eligió publicar V4 bajo licencia Apache 2.0, la licencia open source más permisiva para uso comercial. Esto significa que cualquier empresa, desarrollador o investigador puede:

  • Descargar y usar el modelo sin costo.

  • Modificarlo y fine-tunearlo para casos de uso específicos.

  • Integrarlo en productos comerciales sin restricciones.

  • Redistribuirlo (manteniendo la atribución).

Esto contrasta con modelos como GPT-4 (propietario, solo accesible via API), Claude (propietario) y Llama (licencia custom de Meta con restricciones). La decisión de DeepSeek de usar Apache 2.0 es una apuesta estratégica por la adopción masiva: al eliminar barreras legales y económicas, el modelo puede convertirse en la base de un ecosistema enorme de aplicaciones y fine-tunes.

Capacidades multimodales

DeepSeek V4 es multimodal de manera nativa, lo que significa que puede procesar y generar contenido en múltiples formatos:

  • Texto: Comprensión y generación de texto en múltiples idiomas, incluyendo español.

  • Imágenes: Análisis de imágenes, descripción, OCR y respuesta a preguntas sobre contenido visual.

  • Código: Generación, análisis, debugging y refactoring de código en más de 50 lenguajes de programación.

Implicancias para América Latina

El lanzamiento de DeepSeek V4 tiene varias implicancias concretas para la región:

Reducción de costos de IA

Al ser open source y optimizado para hardware alternativo, DeepSeek V4 puede correrse en infraestructura más accesible. Empresas en Argentina, México, Colombia y Brasil que hoy pagan costos elevados por APIs de modelos propietarios podrían migrar a una instancia propia de DeepSeek V4, reduciendo costos de hasta un 80 % en algunos casos de uso.

Soberanía de datos

Correr un modelo localmente significa que los datos nunca salen de tu infraestructura. Para industrias reguladas (banca, salud, gobierno), esto es un habilitador clave. Un hospital en Buenos Aires podría usar DeepSeek V4 para analizar historias clínicas sin enviar datos sensibles a servidores en otro país.

Diversificación geopolítica

Según MIT Technology Review, la concentración de la IA frontier en un puñado de empresas estadounidenses es un riesgo sistémico. La aparición de alternativas viables como DeepSeek V4 diversifica el ecosistema y reduce la dependencia de proveedores únicos, algo especialmente relevante para gobiernos de LATAM que están definiendo sus estrategias nacionales de IA.

Oportunidades para desarrolladores

Con un modelo frontier accesible bajo Apache 2.0, desarrolladores en LATAM pueden construir productos de IA competitivos globalmente sin necesidad de los presupuestos multimillonarios que requiere entrenar un modelo propio. Fine-tunear DeepSeek V4 para un caso de uso específico (legal, médico, educativo) es una oportunidad de negocio concreta.

Para entender cómo DeepSeek V4 se posiciona frente a otros modelos frontier como GPT-5, te recomendamos leer nuestro artículo sobre el lanzamiento de GPT-5 y su comparación con Gemini de Google.

Cómo empezar a usar DeepSeek V4

Si querés probar DeepSeek V4, tenés varias opciones:

  • API oficial: DeepSeek ofrece una API con precios competitivos. Podés registrarte en platform.deepseek.com y empezar a hacer llamadas en minutos.

  • Descarga local: Los pesos del modelo están disponibles en Hugging Face. Necesitás hardware significativo para correr el modelo completo (múltiples GPUs con al menos 128 GB de VRAM total), pero versiones cuantizadas pueden correr en configuraciones más modestas.

  • Proveedores cloud: Plataformas como Together AI, Fireworks y Groq ofrecen acceso a DeepSeek V4 con precios por token competitivos.

  • Ollama: Para versiones cuantizadas más pequeñas, Ollama permite correr el modelo localmente con un solo comando.

Curso recomendado de Coderhouse

Si querés entender a fondo cómo funcionan estos modelos y aplicarlos en proyectos reales, estas formaciones de Coderhouse son ideales:

  • Curso Fundamentos de IA: Entendé los conceptos fundamentales detrás de modelos como DeepSeek V4: redes neuronales, transformers, fine-tuning, prompt engineering y más. Ideal si querés una base sólida para trabajar con IA.

  • Carrera AI Automation: Aprendé a integrar modelos de IA como DeepSeek en flujos de automatización reales. Desde la conexión con APIs hasta el despliegue de soluciones completas en producción.

Preguntas frecuentes

¿DeepSeek V4 es realmente mejor que GPT-4o?

Depende del benchmark y el caso de uso. En benchmarks estandarizados como MMLU-Pro y HumanEval, DeepSeek V4 muestra resultados competitivos y en algunos casos superiores. Sin embargo, el rendimiento real varía según la tarea específica, el idioma y el prompt. Lo más significativo es que un modelo open source alcance este nivel de rendimiento, porque democratiza el acceso a IA de primer nivel.

¿Puedo correr DeepSeek V4 en mi computadora?

El modelo completo requiere hardware especializado (múltiples GPUs de alta gama). Sin embargo, versiones cuantizadas (Q4, Q8) pueden correr en configuraciones más modestas. Una versión cuantizada Q4 del modelo base puede correr en una GPU con 24 GB de VRAM, aunque con una reducción en el rendimiento. Para uso profesional, lo más práctico es acceder via API o usar un proveedor cloud.

¿Qué significa que corra sobre chips Huawei en lugar de Nvidia?

Significa que China demostró la capacidad de entrenar modelos frontier de IA sin depender de la tecnología de Nvidia, que domina más del 90 % del mercado de GPUs para IA. Para la industria global, esto introduce competencia en hardware de IA y podría reducir costos en el largo plazo. Para LATAM, abre la posibilidad de acceder a hardware de IA alternativo y potencialmente más económico.

¿Es seguro usar un modelo de IA chino?

Al ser open source bajo Apache 2.0, el código y los pesos del modelo son completamente auditables. Cualquiera puede inspeccionar exactamente qué hace el modelo. Si lo corrés en tu propia infraestructura, los datos no salen de tu servidor. Los riesgos de seguridad son los mismos que con cualquier modelo de IA (alucinaciones, sesgos, uso malicioso) y no son inherentes al origen geográfico del modelo.

¿Apache 2.0 significa que puedo usarlo para cualquier cosa?

Apache 2.0 es una de las licencias open source más permisivas. Podés usar DeepSeek V4 para uso personal, comercial, académico, gubernamental y cualquier otro fin. Las únicas obligaciones son mantener el aviso de copyright y la licencia en las distribuciones. No tenés que hacer open source tu propio código si usás DeepSeek V4 como componente.

Sobre el autor

Dan Patiño

Soy Dan Patiño, responsable de AI Strategy & Innovation en Coderhouse. Mi día a día consiste en fusionar la gestión táctica del e-commerce (CRO, Email Marketing y SEO) con el desarrollo de soluciones disruptivas. Me especializo en crear apps internas con IA para automatizar tareas y potenciar la innovación dentro del equipo. Creo fielmente que la tecnología es el mejor aliado de la estrategia. Para profundizar en mi recorrido profesional, te espero en mi perfil de LinkedIn.

Brasil

© 2026 Coderhouse. Todos los derechos reservados.

Brasil

© 2026 Coderhouse. Todos los derechos reservados.

Brasil

© 2026 Coderhouse. Todos los derechos reservados.

Brasil

© 2026 Coderhouse. Todos los derechos reservados.