Frontier AI. In Your Hands.

Mistral Small 3.1 - новейшая компактная LLM с высокой производительностью и универсальностью

В марте 2025 года компания Mistral представила новую открытую LLM (Local Language Model) под названием Mistral Small 3.1. Несмотря на название "компактный", эта модель привлекает внимание как высокопроизводительная компактная модель, учитывающая как производительность, так и универсальность. В этой статье мы рассмотрим структуру Mistral Small 3.1, её функциональность и сравнение с конкурентами.


🔍 Основной обзор

Параметр Содержание
Название модели Mistral Small 3.1
Количество параметров Около 24 миллиардов (24B)
Лицензия Apache 2.0 (возможность коммерческого использования)
Дата выхода Март 2025 года
Поддерживаемые платформы Hugging Face, Ollama, Vertex AI, AWS, Google Cloud и др.
Формат ввода Текст и изображение (поддержка мультимодальности)
Максимальная длина контекста 128,000 токенов

Mistral Small 3.1, хоть и называется "легким", требует вычислительных мощностей, достаточных для классификации как высокопроизводительного универсального AI.


⚙️ Особенности и технические преимущества

1. Открытое программное обеспечение и свободное коммерческое использование

  • Благодаря лицензии Apache 2.0 компании и разработчики могут интегрировать его в свои коммерческие сервисы без ограничений.
  • Легко доступно через Hugging Face и Ollama.

2. Поддержка мультимодальных вводов

  • Обработка не только текста, но и вводов изображений, что позволяет применять его в чат-ботах, аналитических инструментах, службах поддержки и т.д.

3. Максимальное окно контекста 128K

  • Хорошо справляется с длинными документами и историей бесед, что удобно для сложного анализа, создания длинных описаний и понимания контекста кода.

4. Относительно низкие требования к среде исполнения

  • Может работать на одной RTX 4090 или Mac M2/M3 с 32GB RAM.
  • Конечно, это не совсем легкая модель, и RTX 4090 - это очень дорогостоящее оборудование.

5. Возможность локального и облачного развертывания

  • Поддерживает локальное выполнение для индивидуальных разработчиков и облачное развертывание для предприятий.
  • Интегрируется с облачными экосистемами, такими как Google Vertex AI, AWS Bedrock, Azure AI Foundry и др.

6. Сильные стороны в области STEM и программирования

  • Показывает высокую точность и аккуратность в обработке математики, науки и языков программирования.

📊 Производительность и сравнение бенчмарков

Mistral Small 3.1 конкурирует с такими моделями, как Gemma 2B, GPT-4o Mini, Claude 3 Sonnet, Command R в различных бенчмарках. Особенно в категории компактных моделей она демонстрирует высокие результаты.

Основные бенчмарковые оценки (сравнительные показатели: MMLU / GSM8K / HumanEval и т.д.)

Модель MMLU (%) GSM8K (%) HumanEval (%) Средний уровень производительности
GPT-4o Mini Около 81 88 74 Высокий
Claude 3 Sonnet Около 84 90 77 Очень высокий
Mistral Small 3.1 Около 79 86 72 Высокий
Phi-3 Mini Около 73 80 65 Повыше среднего
Gemma 2B Около 68 75 58 Ниже среднего

⚠️ Цифры являются рекомендательными на основе открытых бенчмарков и могут меняться в зависимости от условий вывода.

Mistral Small 3.1 особенно выделяется в STEM области (математика, программирование, наука и т.д.), благодаря поддержке длинных токенов, что делает его подходящим для приложений, требующих сохранения контекста.


Заключение

Mistral Small 3.1: - высокопроизводительная модель, которая может работать даже на среднем GPU - обрабатывает мультимодальные вводы текст + изображение - поддерживает длинный контекст в 128K - универсальная LLM с открытым исходным кодом для свободного использования.

Если вы ищете компактную AI модель для практического применения, Mistral Small 3.1 станет очень мощным вариантом.