Now, we’re introducing Phi-4-reasoning, Phi-4-reasoning-plus, and Phi-4-mini-reasoning—pushing what’s possible with AI.
One year of Phi: Small language models making big leaps in AI | Microsoft Azure Blog
https://azure.microsoft.com/en-us/blog/one-year-of-phi-small-language-models-making-big-leaps-in-ai/
思考時間: 5 秒
以下、Microsoft Azure Blog の記事「One year of Phi: Small language models making big leaps in AI」を日本語に翻訳・要約しました。
概要
2025年4月30日、Microsoft は小規模言語モデル(SLM: Small Language Models)の新たなラインナップとして、Phi-4-reasoning, Phi-4-reasoning-plus, Phi-4-mini-reasoning の3モデルを発表しました。これは、2024年4月にリリースされた Phi-3 以来の大きなアップデートであり、SLM が「小さくても強力」に進化したことを示すものです (Azure)。
Azure AI Foundry での展開
これらのモデルはすべて Azure AI Foundry(および Hugging Face)を通じて公開されます。ユーザーはニーズに合わせてモデルを選び、チューニングやカスタマイズを行うことで、低レイテンシかつ高い推論性能を享受できます (Azure)。
推論特化モデル(Reasoning Models)
- 推論時スケーリング を活用し、マルチステップの分解処理や自己内省(internal reflection)を行うことで、複雑なタスクにも対応
- 従来は大規模モデルのみが得意としていた 数学的推論 や 科学的問題解決 を、小規模モデルで実現
- 蒸留(distillation)や強化学習(RL)、高品質データによる訓練によって、サイズと性能のバランスを最適化 (Azure)
Phi-4-reasoning / Phi-4-reasoning-plus
モデル名 | パラメータ数 | 訓練手法 | 特徴 |
---|---|---|---|
Phi-4-reasoning | 140億 | Supervised Fine-Tuning (SFT) | OpenAI o3-mini の推論デモを基に細心のデータキュレーションを実施 (Azure) |
Phi-4-reasoning-plus | 140億 | SFT + Reinforcement Learning (RL) | Phi-4-reasoning より 1.5× 多くのトークンを用いて高精度を追求 (Azure) |
- ベンチマーク性能
- 多くの推論タスクで OpenAI o1-mini や DeepSeek-R1-Distill-Llama-70B を上回る
- USA 数学オリンピック予選(AIME 2025)で 6710 億パラメータの DeepSeek-R1 を上回る成績を達成 (Azure)
Phi-4-mini-reasoning
- 3.8 億パラメータ のコンパクトモデル
- DeepSeek-R1 生成の合成データを用いてファインチューニング
- 教育用アプリケーションや組み込みデバイス向け、エッジ/モバイル環境での低レイテンシ推論に最適化
- 中学レベルから Ph.D. レベルまで、100 万問以上の多様な数学問題で学習し、OpenAI o1-mini と同等以上の性能を実現 (Azure)
実際の活用例
- Windows 11 Copilot+ PC
- NPU(AI 加速ユニット)対応の Phi Silica variant をプリロードし、非常に高速かつ省電力で稼働
- 「Click to Do」などのテキストインテリジェンス機能や、Outlook のオフライン要約機能などに組み込み済み (Azure)
- 開発者向け API
- Phi-4-reasoning および Phi-4-mini-reasoning は近日中に Copilot+ PC の NPU 上でも動作可能
- Azure AI Foundry 経由で REST API として利用でき、既存アプリに組み込みやすい
安全性と責任ある AI
- Microsoft の Responsible AI 原則(説明責任、透明性、公平性、信頼性・安全性、プライバシー・セキュリティ、包摂性)に則り開発
- SFT、DPO(Direct Preference Optimization)、RLHF を組み合わせた安全性ポストトレーニング
- モデルカードによる詳細な使用ガイドライン・リスク情報を提供 (Azure)
まとめ
Phi ファミリーはリリースから一年で急速に進化を遂げ、小規模ながら大規模モデルに匹敵する推論能力を実現しました。今後はエッジデバイスやローカル環境での AI 活用がさらに広がると期待されます。ぜひ Azure AI Foundry 上で最新モデルをお試しください。
参考情報
- 元記事: “One year of Phi: Small language models making big leaps in AI” (Published Apr 30, 2025) (Azure)
- Azure AI Foundry: https://ai.azure.com (Azure)
- Technical report(Phi-4-reasoning): https://aka.ms (Azure)
コメントを残す