Google ha anunciado que Gemini 2.5 Flash-Lite, su modelo más rápido y económico de la familia Gemini 2.5, ya está disponible de forma estable para producción. Diseñado para maximizar la inteligencia por dólar, este modelo ofrece capacidades de razonamiento nativas que pueden activarse según las necesidades del usuario.
Características destacadas
- Velocidad superior: menor latencia que versiones anteriores como 2.0 Flash-Lite y 2.0 Flash
- Costo ultra bajo: $0.10 por millón de tokens de entrada y $0.40 por millón de tokens de salida
- Calidad mejorada: rendimiento superior en benchmarks de codificación, matemáticas, ciencia y comprensión multimodal
- Contexto amplio: ventana de contexto de hasta 1 millón de tokens
- Herramientas integradas: compatibilidad con Grounding con Google Search, ejecución de código y contexto por URL
Casos de uso reales
- Satlyt: plataforma de computación espacial descentralizada que ha reducido la latencia en 45% y el consumo energético en 30%
- HeyGen: generación de avatares y traducción de videos a más de 180 idiomas
- DocsHound: convierte demos en documentación extrayendo miles de capturas de pantalla con baja latencia
- Evertune: análisis rápido de cómo las marcas son representadas en modelos de IA
Cómo empezar
Puedes comenzar a usarlo especificando "gemini-2.5-flash-lite"
en tu código. Si usabas la versión preliminar, simplemente cambia al nombre definitivo antes del 25 de agosto, cuando se eliminará el alias.
Disponible en Google AI Studio y Vertex AI para comenzar a construir con él.