
Dan Patiño
AI Strategy & Innovation en Coderhouse
Programación y Desarrollo Web
Google lanza Gemma 4 con licencia Apache 2.0: qué cambia para los developers que trabajan con IA open source
Publicado el
El 2 de abril de 2026, Google lanzó Gemma 4 con licencia Apache 2.0, y el ecosistema open source de IA lo notó de inmediato. No es solo un upgrade de modelo: el cambio de licencia significa que ahora podés usar Gemma 4 en proyectos comerciales, modificarlo, redistribuirlo y deployarlo sin las restricciones que imponía la licencia anterior. Para developers en LATAM que buscan modelos locales sin costo de API, esto abre opciones concretas que antes simplemente no existían.
Qué cambiaba con la licencia anterior de Gemma
Las versiones anteriores de Gemma (1 y 2) tenían una licencia personalizada de Google que restringía significativamente su uso práctico:
El uso en productos comerciales requería aprobación explícita de Google.
La redistribución y modificación del modelo estaban limitadas.
El fine-tuning para crear modelos derivados con fines comerciales estaba restringido.
Esto hacía que Gemma fuera atractivo para investigación académica, pero problemático para startups o empresas que necesitan claridad legal en producción. Muchos equipos optaban por Llama de Meta o Mistral precisamente para evitar esa ambigüedad.
Según The Verge, Google tomó esta decisión en respuesta directa a la presión de la comunidad de developers, que comparaba desfavorablemente las condiciones de Gemma con la licencia de Llama 4 de Meta.
Qué permite Apache 2.0 que antes estaba restringido
Apache 2.0 es una de las licencias open source más permisivas y mejor establecidas en la industria del software. Con este cambio, los developers pueden:
Usar Gemma 4 en producción comercial sin pedir permiso a Google ni firmar acuerdos adicionales.
Hacer fine-tuning y distribuir el modelo ajustado con fines comerciales — incluyendo vender ese modelo ajustado a terceros.
Integrar Gemma 4 en productos y servicios propios sin restricciones de redistribución.
Modificar el código fuente del modelo y compartir esas modificaciones con la comunidad.
La única obligación de Apache 2.0 es mantener el aviso de copyright original en las distribuciones — nada que impida su uso práctico en producción o en proyectos comerciales.
Comparativa práctica: Gemma 4 vs Llama 4 vs Mistral
Modelo | Licencia | Uso comercial | Fine-tuning | Tamaños disponibles |
|---|---|---|---|---|
Gemma 4 | Apache 2.0 | ✅ Sí, sin límites | ✅ Sí | 2B, 9B, 27B |
Llama 4 | Meta Community | ✅ Con condiciones de escala | ✅ Sí | Varios tamaños |
Mistral 7B | Apache 2.0 | ✅ Sí | ✅ Sí | 7B |
Para proyectos comerciales sin restricciones, Gemma 4 y Mistral son actualmente las opciones más limpias en términos legales. Llama 4 de Meta impone límites según el volumen de usuarios activos mensuales — un factor que puede complicar el escalado de productos.
Cómo empezar con Gemma 4 en tu proyecto
Hay tres rutas principales para empezar a trabajar con Gemma 4, dependiendo de tu caso de uso:
Desde Hugging Face: Disponible en huggingface.co/google/gemma para descarga y uso local. La opción más flexible para fine-tuning y experimentación.
Desde Google AI Studio: Interfaz no-code para explorar el modelo antes de integrarlo. Ideal para evaluar si Gemma 4 se adapta a tu caso de uso antes de invertir en infraestructura.
Con Ollama (local, sin GPU cloud): Comando
ollama run gemma3— ideal para prototipos en LATAM sin pagar por tokens de API. Una laptop con 16 GB de RAM es suficiente para los modelos de 2B y 9B.
Para developers en LATAM, la opción local elimina el costo por token y la latencia de red, lo que lo hace ideal para proyectos educativos, prototipos y aplicaciones con datos sensibles que no podés enviar a una API externa.
Por qué este cambio importa especialmente para LATAM
En la región, el costo por token de las APIs de OpenAI o Anthropic puede ser un factor limitante para startups o proyectos con alto volumen de inferencia. Gemma 4 con Apache 2.0 ofrece una alternativa real:
Costo cero de inferencia si se deploya localmente o en infraestructura propia.
Sin dependencia de conectividad — relevante en contextos con conectividad intermitente o en aplicaciones offline-first.
Datos que no salen del servidor — un requisito crítico para proyectos en salud, finanzas o gobierno.
Personalización total — podés fine-tunear el modelo con datos propios sin pagar por fine-tuning gestionado.
Según datos de TechCrunch, el uso de modelos open source en aplicaciones de producción en LATAM creció un 180 % durante 2026, impulsado principalmente por el costo de las APIs propietarias y los requisitos de privacidad de datos del sector financiero y gubernamental.
Cursos recomendados de Coderhouse
Para developers que quieren integrar modelos open source como Gemma 4 en aplicaciones reales, Coderhouse tiene opciones para todos los niveles:
El Curso de AI Engineering cubre exactamente la integración de LLMs en aplicaciones, desde fine-tuning hasta deployments en producción — las habilidades clave para trabajar con Gemma 4.
El Curso de Introducción a la Inteligencia Artificial es el punto de entrada ideal si estás empezando y querés entender qué son los modelos open source, cómo se diferencian y cuándo conviene cada uno.
La Carrera de Desarrollo Full Stack te da la base de programación y arquitectura necesaria para deployar y escalar aplicaciones con modelos de IA integrados.
Preguntas frecuentes
¿Gemma 4 es mejor que Llama 4?
Depende del caso de uso. En benchmarks de razonamiento, Llama 4 tiene variantes más grandes y potentes. Pero para proyectos que necesitan claridad legal y uso comercial sin restricciones de escala, Gemma 4 con Apache 2.0 es más conveniente. Para la mayoría de los casos de uso prácticos en LATAM, la diferencia de desempeño entre ambos es marginal comparada con la diferencia en flexibilidad de licencia.
¿Se puede correr Gemma 4 sin GPU?
Sí. Las versiones más pequeñas (2B) corren en CPU con rendimiento aceptable para prototipos y aplicaciones de bajo volumen. El modelo de 9B requiere al menos 8 GB de RAM dedicada. Para producción con buena velocidad de inferencia, se recomienda una GPU con 8 GB de VRAM o más.
¿Qué diferencia hay entre Gemma 4 y Gemini?
Gemini es el modelo propietario de Google, accesible solo por API de pago y sin posibilidad de descarga o modificación. Gemma es la familia open source de Google — más pequeña, descargable y modificable — que Google publica para la comunidad developer. Son complementarios, no rivales directos.
¿Apache 2.0 significa que Google perdió el control del modelo?
No exactamente. Google mantiene el copyright sobre Gemma 4 y puede seguir desarrollando versiones propietarias o restringidas. Apache 2.0 solo regula lo que pueden hacer los usuarios con el modelo publicado — y lo que pueden hacer es prácticamente todo, dentro del límite de mantener el aviso de copyright original.
¿Puedo usar Gemma 4 para entrenar otro modelo y venderlo?
Sí. Apache 2.0 permite hacer fine-tuning, crear modelos derivados y comercializarlos. Es una de las licencias más permisivas precisamente en ese punto. La única condición es incluir el aviso de copyright original de Google en la distribución del modelo derivado.

Sobre el autor
Soy Dan Patiño, responsable de AI Strategy & Innovation en Coderhouse. Mi día a día consiste en fusionar la gestión táctica del e-commerce (CRO, Email Marketing y SEO) con el desarrollo de soluciones disruptivas. Me especializo en crear apps internas con IA para automatizar tareas y potenciar la innovación dentro del equipo. Creo fielmente que la tecnología es el mejor aliado de la estrategia. Para profundizar en mi recorrido profesional, te espero en mi perfil de LinkedIn.
