Google ha movido ficha con fuerza en la guerra de la IA abierta. El 2 de abril de 2026 lanzó Gemma 4, la cuarta generación de su familia de modelos open-weight, con un resultado sorprendente: el modelo de 31B parámetros supera a rivales de 400B+ en benchmarks como AIME 2026 Matemáticas (89,2%) y LiveCodeBench (80%). Además, la licencia Apache 2.0 permite uso comercial libre, algo que hasta ahora los modelos open-weight no ofrecían con esa claridad. Con Meta abandonando el camino open source con Muse Spark, Google se posiciona como el nuevo referente de la IA abierta. Te contamos todo.
¿Qué es Gemma 4?
Gemma 4 es la nueva familia de modelos open-weight de Google DeepMind, construida con la misma investigación y tecnología que Gemini 3, el modelo propietario frontier de Google. La diferencia es que Gemma 4 se puede descargar, modificar y ejecutar libremente bajo licencia Apache 2.0.
Lanzada el 2 de abril de 2026, Gemma 4 llega en un momento clave: Meta acaba de abandonar su filosofía open source con Muse Spark, dejando un hueco que Google se ha apresurado a ocupar. La estrategia es evidente: convertirse en el estándar de la comunidad open source de IA.
Google enfatiza que Gemma 4 ofrece "el mayor nivel de inteligencia por parámetro jamás visto". Y los números le dan la razón.
Los 4 modelos de la familia Gemma 4
Google ha liberado cuatro versiones de Gemma 4, cubriendo desde dispositivos móviles hasta servidores potentes:
| Modelo | Parámetros | Arquitectura | Hardware requerido |
|---|---|---|---|
| Gemma 4 E2B | Effective 2B | Dense | Móvil / Raspberry Pi |
| Gemma 4 E4B | Effective 4B | Dense | Portátil / GPU consumer |
| Gemma 4 26B MoE | 26B | Mixture of Experts | GPU gama alta (24 GB VRAM) |
| Gemma 4 31B | 31B | Dense | Workstation (2x RTX 4090 o 1x H100) |
¿Qué significa "Effective" (E2B, E4B)?
Google introduce una nomenclatura nueva: los modelos E2B y E4B tienen más parámetros totales que 2B y 4B, pero gracias a técnicas de sparsity y quantization consumen memoria y cómputo equivalente a un modelo denso de 2B o 4B. Es decir, rendimiento superior con los mismos recursos.
Ranking open source mundial
En el Arena AI text leaderboard (el benchmark más respetado para modelos abiertos):
- Gemma 4 31B: #3 mundial entre modelos abiertos
- Gemma 4 26B MoE: #6 mundial entre modelos abiertos
Benchmarks: el 31B que supera al 400B
Aquí viene lo impresionante. Gemma 4 31B no solo iguala, sino que supera a modelos mucho más grandes:
AIME 2026 Mathematics (sin herramientas)
| Modelo | Parámetros | AIME 2026 |
|---|---|---|
| Gemma 4 31B | 31B | 🥇 89,2% |
| Llama 4 (flagship) | ~400B | 88,3% |
| DeepSeek V4 | ~671B | 42,5% |
| GPT (base sin tools) | ~1.8T | 37,5% |
Un modelo de 31B superando a uno de 400B en matemáticas. Esto no se había visto antes en open source.
LiveCodeBench v6 (programación)
| Modelo | LiveCodeBench v6 |
|---|---|
| Gemma 4 31B | 🥇 80,0% |
| Llama 4 | 77,1% |
Licencia Apache 2.0: la ventaja comercial
Uno de los cambios más importantes respecto a Gemma 3 es la licencia Apache 2.0. Esto significa:
- Uso comercial libre: Puedes usar Gemma 4 en productos de pago sin pagar royalties a Google
- Modificación permitida: Puedes ajustar, fine-tunear y redistribuir
- Sin cláusulas agresivas: A diferencia de la licencia Llama (que imponía restricciones a empresas con más de 700M usuarios), Apache 2.0 es totalmente permisiva
- Sovranía digital: Puedes desplegarlo on-premises o en tu propia nube sin depender de Google
Esto es la mayor ventaja estratégica de Gemma 4 frente a Llama. Muchas empresas europeas, sanitarias o gubernamentales que no podían usar Llama por las cláusulas de Meta ahora pueden usar Gemma 4 sin problemas legales.
Gemma 4 vs Llama 4 vs DeepSeek V4
| Aspecto | Gemma 4 31B | Llama 4 Maverick | DeepSeek V4 |
|---|---|---|---|
| Parámetros | 31B | ~400B | ~671B |
| Licencia | Apache 2.0 ✅ | Llama Community (restrictiva) | MIT ✅ |
| Uso comercial | Libre total | Limitado por cláusulas | Libre |
| AIME 2026 | 89,2% 🥇 | 88,3% | 42,5% |
| LiveCodeBench v6 | 80% 🥇 | 77,1% | - |
| Hardware mínimo | 2x RTX 4090 | 8x A100 / H100 | 8x A100 |
| Multimodal | Sí (texto + imagen) | Sí | Solo texto |
| Contexto | 128K tokens | 128K tokens | 128K tokens |
| Agentic capabilities | Optimizado | Medio | Básico |
Gemma 4 es claramente el ganador actual en la batalla de los modelos open-weight, especialmente si valoras eficiencia computacional y licencia comercial libre.
Cómo ejecutar Gemma 4 localmente
Una de las ventajas de Gemma 4 es que se puede ejecutar en hardware de consumidor. Aquí las opciones más prácticas:
Opción 1: Ollama (la más sencilla)
Ollama soporta Gemma 4 desde el día 1. Si ya tienes Ollama instalado (mira nuestra guía de Ollama para IA local):
ollama pull gemma4:4b
ollama run gemma4:4b
Para el modelo 31B (requiere GPU potente):
ollama pull gemma4:31b
Opción 2: LM Studio
Interfaz gráfica amigable. Busca "Gemma 4" en el catálogo y descarga la versión adecuada. Recomendado para usuarios menos técnicos.
Opción 3: Hugging Face Transformers
Para desarrolladores que quieren integrar en Python:
pip install transformers
# Descargar desde huggingface.co/google/gemma-4-31b
Opción 4: Google AI Studio
Si solo quieres probarlo sin instalar nada, aistudio.google.com tiene Gemma 4 disponible para pruebas gratuitas online.
Requisitos de hardware por modelo
| Modelo | VRAM (FP16) | VRAM (4-bit quantized) | Hardware sugerido |
|---|---|---|---|
| Gemma 4 E2B | 5 GB | 2 GB | Cualquier GPU moderna |
| Gemma 4 E4B | 10 GB | 4 GB | RTX 3060 / 4060 |
| Gemma 4 26B MoE | 52 GB | 18 GB | RTX 4090 (24 GB) |
| Gemma 4 31B | 62 GB | 22 GB | 2x RTX 4090 o 1x H100 |
Casos de uso ideales
¿Cuándo tiene sentido usar Gemma 4 en lugar de APIs comerciales como Claude o GPT?
1. Datos sensibles / regulación
Sanidad, banca, legal, administración pública. Gemma 4 on-premises garantiza que los datos nunca salen de tu infraestructura.
2. Volumen alto + presupuesto limitado
Si procesas millones de consultas al día, pagar APIs comerciales se hace prohibitivo. Gemma 4 en tu propio hardware tiene coste marginal cero (solo electricidad y depreciación).
3. Fine-tuning específico
Puedes entrenar Gemma 4 con tus datos propios para casos muy específicos (chatbot de atención al cliente con tu tono de marca, asistente legal especializado, etc.).
4. Desarrollo offline
Barcos, aviación, zonas remotas, entornos sin internet fiable. Gemma 4 funciona 100% offline.
5. Aprendizaje e investigación
Universidades y estudiantes pueden usar, modificar y experimentar sin limitaciones ni costes. Perfecto para proyectos académicos.
Si te interesa el panorama completo de modelos IA actuales (incluyendo los frontier cerrados), consulta nuestra comparativa de modelos IA abril 2026 y el reciente análisis de Claude Opus 4.7.
Preguntas Frecuentes
¿Gemma 4 es completamente gratis?
Sí. La licencia Apache 2.0 permite uso comercial, modificación y redistribución sin pagar royalties. Solo pagas tu propia infraestructura de cómputo.
¿Es mejor que Llama 4 Maverick?
En la mayoría de benchmarks, sí. Gemma 4 31B supera a Llama 4 Maverick (~400B) en AIME Matemáticas (89,2% vs 88,3%) y LiveCodeBench (80% vs 77,1%), usando una fracción de los parámetros.
¿Puedo ejecutar Gemma 4 en mi PC normal?
Depende del modelo. E2B y E4B se ejecutan en portátiles con GPU modesta. 26B MoE y 31B requieren GPU de gama alta (RTX 4090) o incluso múltiples GPUs. Las versiones cuantizadas a 4 bits reducen mucho los requisitos.
¿Gemma 4 es multimodal?
Sí, soporta texto + imágenes en todas las variantes. Para audio y vídeo nativo, necesitarás Gemini 3 Pro (el modelo propietario de Google).
¿Es compatible con Ollama?
Sí, Ollama soporta todos los modelos Gemma 4 desde el primer día. Basta con ollama pull gemma4:X donde X es el tamaño (2b, 4b, 26b, 31b).
¿Gemma 4 es mejor que Gemini 3 Pro?
No, Gemini 3 Pro sigue siendo superior en la mayoría de benchmarks globales. La diferencia es que Gemini es propietario y de pago (solo vía API), mientras que Gemma 4 es libre y ejecutable localmente. Eligen uno u otro según tu caso de uso.
Comentarios
Inicia sesion para dejar un comentario
Acceder