要旨
フランスの AI 企業 Mistral AI が、2026年3月16日に新モデル「 Mistral Small 4 」を発表しました。これまで別々だった会話・推論・画像理解・コーディング支援の4つの能力をひとつのモデルに統合した意欲作で、 Apache 2.0 ライセンスによる完全オープンソースとして公開されています。処理速度や効率性も前世代から大きく向上しており、開発者から企業ユーザーまで幅広い用途に対応しています。
4つの能力をひとつに統合
これまで Mistral AI は、目的に応じて複数のモデルを使い分ける必要がありました。会話には Mistral Small、深い推論には Magistral、画像の理解には Pixtral、コーディング支援には Devstral と、それぞれ別々のモデルが存在していました。
Mistral Small 4 はこれら4つの役割を1つのモデルに集約しています。用途に合わせてモデルを切り替える手間がなくなり、ひとつの環境でチャット、文書解析、プログラム作成、複雑な問題の推論まで対応できるようになりました。
技術的な仕組み:「専門家の集団」で効率化
Mistral Small 4 は「 Mixture of Experts ( MoE )」と呼ばれる仕組みを採用しています。これは、全体で 128 の「専門家(エキスパート)」を用意しておき、ひとつの問いに対しては最適な 4つだけを動かすという設計です。
総パラメータ数は 1190億( 119B )と大規模ですが、実際に動くのはトークンあたり 60億( 6B )程度に留まり、大きなモデルの知識を保ちながら処理コストを抑えられるのが特長です。また、最大 256,000 トークンという長い文脈に対応しており、長文の文書解析にも適しています。
「推論の深さ」を自由に調整できる
Mistral Small 4 には reasoning_effort と呼ばれるパラメータが設けられており、回答の深さをリクエストごとに切り替えられます。
reasoning_effort="none":日常的な問いに素早く返答する軽量モードですreasoning_effort="high":数学や研究など複雑な問題に対し、段階的に論理を展開する深い推論モードです
処理速度の面では、前世代の Mistral Small 3 と比べて応答時間が最大 40 %短縮、スループット(単位時間あたりの処理件数)は最大 3倍に向上しています。ベンチマーク評価では、同規模の GPT-OSS 120B を複数の指標で上回りつつ、出力文字数は 20 %以上少ないという効率の高さも示されています。
利用できる場所と動作環境
Mistral Small 4 は以下の場所から利用・入手できます。
- Mistral API および AI Studio:ブラウザや API 経由ですぐに試せます
- Hugging Face:モデルデータをダウンロードして自環境に展開できます
- NVIDIA NIM:NVIDIA のインフラ上でコンテナとして最適化されたかたちで提供されています
また、 vLLM・llama.cpp・SGLang・Transformers など主要な推論フレームワークへの対応も確認されています。自前の環境にセルフホストする場合、最低でも NVIDIA HGX H100 が 4枚必要となるため、個人利用よりは企業や研究機関向けの規模感となっています。
おわりに
Mistral Small 4 の登場で、これまで用途ごとに複数の AI を使い分けていた手間が大幅に軽減されます。ひとつのモデルで会話・文書理解・画像解析・コード生成・深い推論をまかなえるため、業務効率化を検討している企業にとっても導入のハードルが下がります。また、 Apache 2.0 ライセンスでの完全公開により、自社データに合わせたカスタマイズや社内への閉じた形での導入もしやすくなっています。 AI ツールの「多用途化・効率化」という流れをよく体現したモデルといえます。
※ ここに掲載されている情報は、発表日現在の情報です。最新の情報と異なる場合がございますので、あらかじめご了承ください。
出典: Mistral AI

コメント