Frontier AI. In Your Hands.

Mistral Small 3.1 - El último LLM compacto que combina rendimiento y versatilidad

En marzo de 2025, Mistral anunció su nuevo LLM de código abierto (Modelo de Lenguaje Local) Mistral Small 3.1. A pesar de su nombre 'compacto', este modelo ha llamado la atención como un modelo compacto de alto rendimiento que considera tanto el rendimiento como la versatilidad. En este artículo, discutiremos la estructura de Mistral Small 3.1, su aplicabilidad y su comparación con modelos competidores.


🔍 Resumen básico

Elemento Contenido
Nombre del modelo Mistral Small 3.1
Número de parámetros Alrededor de 24 mil millones (24B)
Licencia Apache 2.0 (uso comercial permitido)
Fecha de lanzamiento Marzo de 2025
Plataformas soportadas Hugging Face, Ollama, Vertex AI, AWS, Google Cloud, entre otros
Formato de entrada Texto e imagen (soporte multimodal)
Longitud máxima del contexto 128,000 tokens

A pesar de ser llamado "ligero", Mistral Small 3.1 requiere un poder de cálculo suficiente para ser clasificado como IA de alto rendimiento y versatilidad.


⚙️ Características y fortalezas técnicas

1. Código abierto & libre uso comercial

  • Gracias a la licencia Apache 2.0, las empresas y desarrolladores pueden integrarlo libremente en servicios comerciales.
  • Fácil de utilizar en plataformas como Hugging Face y Ollama.

2. Soporte para entrada multimodal

  • No solo maneja texto, sino que también puede procesar entradas de imagen, lo que le permite ser aplicado en chatbots, herramientas de análisis y bots de atención al cliente.

3. Ventana de contexto de hasta 128K

  • Puede manejar documentos largos o el historial de conversaciones de manera efectiva, siendo ventajoso para análisis complejos, generación de explicaciones largas y mantenimiento del contexto de codificación.

4. Requisitos bajos de entorno de ejecución

  • Se puede ejecutar en una RTX 4090 o en máquinas Mac M2/M3 con 32GB de RAM.
  • Sin embargo, no es un modelo que se pueda considerar completamente ligero, y la RTX 4090 es un equipo bastante costoso.

5. Posibilidad de implementación local y en la nube

  • Apoya la ejecución local para desarrolladores individuales y la implementación en la nube para empresas.
  • Interconectado con ecosistemas en la nube como Google Vertex AI, AWS Bedrock y Azure AI Foundry.

6. Fortalezas en campos de STEM y programación

  • Presenta alta precisión y exactitud en el tratamiento de matemáticas, ciencias y lenguajes de programación.

📊 Comparación de rendimiento y benchmarking

Mistral Small 3.1 compite en diversas métricas con Gemma 2B, GPT-4o Mini, Claude 3 Sonnet, Command R, entre otros. En particular, destaca en la categoría de modelos compactos con un rendimiento superior.

Puntuaciones clave de benchmarking (Indicadores comparativos: MMLU / GSM8K / HumanEval, etc.)

Modelo MMLU (%) GSM8K (%) HumanEval (%) Nivel de rendimiento promedio
GPT-4o Mini Alrededor del 81 88 74 Alto
Claude 3 Sonnet Alrededor del 84 90 77 Máximo
Mistral Small 3.1 Alrededor del 79 86 72 Alto
Phi-3 Mini Alrededor del 73 80 65 Medio-alto
Gemma 2B Alrededor del 68 75 58 Medio-bajo

⚠️ Las cifras son referencias basadas en benchmarks públicos y pueden variar según el entorno de inferencia.

Mistral Small 3.1 muestra fortalezas excepcionales especialmente en áreas de STEM (matemáticas, programación, ciencia, etc.), siendo adecuada para aplicaciones que requieren un alto soporte de longitud de tokens y mantenimiento del contexto.


Conclusiones finales

Mistral Small 3.1 es: - Un modelo de alto rendimiento que puede ejecutarse en GPU de gama media. - Capaz de manejar texto + imágenes de manera multimodal. - Soporta un contexto largo de 128K. - Un LLM versátil de código abierto que se puede usar libremente.

Si estás buscando un modelo de IA compacto aplicable al trabajo, Mistral Small 3.1 es una opción muy poderosa.