Frontier AI. In Your Hands.

Mistral Small 3.1 - 兼具性能與通用性的最新小型 LLM

2025年3月,Mistral 發布了全新的開源 LLM(Local Language Model)Mistral Small 3.1。儘管這個模型被稱為「小型」,但實際上卻被視為一款兼具性能與通用性的重磅小型模型。本文將探討 Mistral Small 3.1 的結構、利用價值及其與競爭模型的比較。


🔍 基本概要

項目 內容
模型名稱 Mistral Small 3.1
參數數量 約 240 億個 (24B)
授權 Apache 2.0 (商業使用可)
發佈日期 2025年3月
支持平台 Hugging Face、Ollama、Vertex AI、AWS、Google Cloud 等
輸入格式 文本及圖片(支持多模態)
最大上下文長度 128,000 令牌

Mistral Small 3.1 雖然被稱為「輕量」,但實際上需要與高性能通用 AI相匹配的運算能力。


⚙️ 特點及技術優勢

1. 開源及商業使用自由

  • 得益於 Apache 2.0 授權,企業及開發者可以自由地將其整合到商業服務中。
  • 可輕鬆地在 Hugging Face 和 Ollama 等平台上使用。

2. 支持多模態輸入

  • 能夠處理不僅限於文本輸入的圖片,可應用於聊天機器人、分析工具、客服機器人等。

3. 最大128K上下文窗口

  • 能夠很好處理長文檔或對話歷史,對複雜分析、長篇說明生成及編碼上下文保持有利。

4. 相對較低的執行環境需求

  • 可在單個RTX 4090或32GB RAM的Mac M2/M3機器上運行。
  • 當然,這並不是一個絕對輕量的模型,RTX 4090的價格非常昂貴。

5. 支持本地與雲端部署

  • 支持個人開發者的本地執行以及企業的雲端部署。
  • 與 Google Vertex AI、AWS Bedrock、Azure AI Foundry 等雲生態系統集成。

6. 在 STEM 和代碼領域中具有優勢

  • 在數學、科學和編程語言處理上顯示出高精度和準確度。

📊 性能及基準比較

Mistral Small 3.1 在各種基準測試中與Gemma 2BGPT-4o MiniClaude 3 SonnetCommand R等競爭。特別是在小型模型類別中記錄了領先性能。

主要基準得分(比較指標:MMLU / GSM8K / HumanEval等)

模型 MMLU (%) GSM8K (%) HumanEval (%) 平均性能水平
GPT-4o Mini 約 81 88 74
Claude 3 Sonnet 約 84 90 77 最上
Mistral Small 3.1 約 79 86 72
Phi-3 Mini 約 73 80 65 中上
Gemma 2B 約 68 75 58 中下

⚠️ 數據是基於公開基準的參考值,可能會根據推理環境有所不同。

Mistral Small 3.1 在STEM 領域(數學、編程、科學等)展現出強勁的表現,支持較長的令牌長度,適合需要上下文維持的應用。


結語

Mistral Small 3.1 是: - 可在中端 GPU 上運行的高性能模型, - 支持文本 + 圖片的多模態處理, - 支持 128K 的長上下文, - 作為開源可自由使用的通用 LLM

如果你正在尋找可以實際應用的小型 AI 模型,Mistral Small 3.1 將會是非常強大的選擇。