Gemma 4 de Google, modelos de IA abiertos con visión, audio y una memoria al alcance
Google acaba de dar un gran paso en el mundo de la inteligencia artificial abierta. La compañía anunció oficialmente Gemma 4, la nueva generación de su familia de modelos abiertos inspirados en Gemini.
De acuerdo con Google, los modelos abiertos pueden y deben competir en capacidad con los cerrados, y esa potencia debe estar al alcance de cualquiera con una buena computadora o incluso un dispositivo más modesto.
Lo más interesante del anuncio es que Gemma 4 no es solo texto, ahora es multimodal. Puede recibir y procesar texto, imágenes y audio de forma nativa, y algunas versiones incluso manejan video. Esto significa que puedes subir una foto, un fragmento de audio o una combinación de ambos y pedirle que lo analice, responda o cree contenido a partir de eso.
Otra mejora clave es la ventana de contexto. Los modelos más pequeños, pensados para dispositivos móviles y IoT, llegan hasta 128K tokens, mientras que los medianos (como el de 31B parámetros) soportan hasta 256K tokens.
A nivel técnico, eso es muchísima información que la IA puede recordar al mismo tiempo. Para que te hagas una idea, podrías subir varios documentos largos, un libro entero o horas de conversación y que Gemma 4 mantenga el hilo sin perderse.
Gemma 4 viene en varios tamaños pensados para diferentes usos:
- Versiones ligeras (E2B y E4B) ideales para correr en dispositivos con recursos limitados como laptops, celulares y IoT.
- Modelos más grandes (31B y 26B) para tareas más exigentes donde se necesita mayor capacidad de razonamiento.
Al ser modelos abiertos, todo estará bajo licencia Apache 2.0, lo que significa que desarrolladores, investigadores y empresas pueden usarlo, modificarlo y desplegarlo libremente sin pagar licencias caras.
Un gran avance para la IA abierta
Durante mucho tiempo los modelos más potentes estaban cerrados o solo disponibles a través de APIs pagas, pero Gemma busca democratizar la IA. Puedes correrlo localmente sin depender de internet ni de servidores de Google, es más eficiente en consumo de recursos que muchos modelos cerrados.
Esto abre la puerta a innovaciones locales, desde asistentes personales en tu teléfono hasta herramientas especializadas en salud, educación o negocios en Latinoamérica.
Para el usuario normal esto se traduce en chatbots más inteligentes que entienden fotos y voz, herramientas de productividad que analizan documentos largos sin olvidar detalles, y la posibilidad de crear aplicaciones de IA sin tener que pagar suscripciones mensuales altas.
Google enfatiza que Gemma 4 mantiene un fuerte enfoque en IA responsable, con mejoras en seguridad y reducción de sesgos, algo que siempre ha sido prioridad en su familia de modelos abiertos.
Los diferentes modelos ya están disponibles en plataformas como Hugging Face y en el sitio oficial de Google AI for Developers. Si eres desarrollador, puedes descargarlo y empezar a experimentar hoy mismo, mientras que los usuarios móviles tienen disponible la app de Google AI Edge Gallery en la Play Store y App Store, donde pueden descargar los modelos de manera local y disfrutar de estos modelos de manera local.
Relacionados