- Mu は、NPU を搭載した Windows 11 デバイス上でローカルに実行できるように最適化された、Microsoft の新しい小さな言語モデルです。
- 最初の統合は Windows 11 構成エージェントで行われ、自然言語を使用した調整が可能になります。
- Mu は効率性と速度に優れており、100 億 330 万のパラメータにより XNUMX 秒あたり XNUMX トークン以上を達成します。
- Dual LayerNorm、RoPE、GQA などのイノベーションが組み込まれており、高度なプロセスと高品質の教育データを使用してトレーニングされています。
の到着 Mu、最新の小さな言語モデルを発表した Microsoftは、人工知能をユーザーのデバイスに直接組み込むという現在のトレンドにおいて、重要な一歩を踏み出したことを示しています。 クラウドへの依存を減らす そしてその潜在能力を活用する ニューラルプロセッシングユニット(NPU)、Muは Copilot+ PC ランニング Windows 11当初は、 設定アプリ 単純な自然言語を使用してシステムパラメータへのアクセスと変更を容易にします。
この進歩により、外部サーバーにクエリを送信する代わりに、 処理と応答はデバイス自体で生成されるプライバシー、俊敏性、効率性の向上を実現します。現時点では、 このロールアウトは、Copilot+ コンピューターを持つ Windows Insider Program 参加者を対象としています。ただし、このテクノロジは、将来のアップデートでさらに多くのユーザーや機能に拡張されることが期待されています。
Mu とは何でしょうか? また、Mu が優れている点は何でしょうか?
Mu あります 小さな言語モデル (SLM(英語の単語による) 330億XNUMX万のパラメータで訓練されたコンパクトなサイズはパフォーマンスを犠牲にするものではなく、マイクロソフトによれば、次のようなはるかに大きなモデルに非常に近い数値を実現しています。 フィップ3.5ミニこのバランスは、次のような技術を含む厳格なトレーニングプロセスのおかげで達成されました。 デュアルレイヤーノルム, 回転位置埋め込み (RoPE) y グループクエリアテンション (GQA) 特にリソースが限られているデバイスにおいて、効率性と精度を実現します。
このモデルは、 エンコーダ・デコーダアーキテクチャ トランスフォーマー型であり、ユーザー入力を処理し、それをシステム内のアクションに変換することができます。この構造のおかげで、Muは 入力処理と出力処理を分離する、 何 レイテンシとメモリ消費を削減スムーズで待ち時間のないユーザー エクスペリエンスを確保するための重要なポイントを説明します。
公式テストとデータでは、Muは 100秒あたりXNUMXトークン以上に対応する500ミリ秒以内に応答を返すこれらの数値により、設定の変更や日常的な言語での長く多様なクエリの解釈など、事実上瞬時のインタラクションが可能になります。これらのモデルの仕組みについて詳しく知りたい方は、こちらをご覧ください。 PC上の言語モデルの比較.
構成エージェントへの統合と実用的な機能
ムーの最初の着陸は Windows 11 構成エージェント、ユーザーが 必要なことを入力または発声するだけでシステムパラメータを調整できます例えば、 「ダークモードを有効にするにはどうすればいいですか?」 o 「明るさをあげたい」 Mu がその指示をシステム内の対応する技術的アクションに変換できるようにします。
マイクロソフトはAIが 数万の異なるコンテキストとクエリ実に10万個以上が利用されています。 3,6万のトレーニングサンプル 言語の変更やWi-Fiネットワークの管理といった最も一般的なリクエストから、より複雑なタスクまで、あらゆるニーズに対応します。質問が短すぎたり曖昧だったりする場合は、システムが 従来の検索機能ただし、指示が明確かつ詳細な場合、Mu は自動的に動作したり、ユーザーを段階的にガイドしたりします。
新世代のハードウェアに適応したテクノロジーと最適化
La Mu最適化 開発において最も慎重に検討された点の一つです。マイクロソフトは、次のようなシリコンパートナーと協力してきました。 AMD、インテル、クアルコムCopilot+ PCに搭載されている新しいNPUの特性に合わせて調整するこの共同研究により、 トレーニング後の定量化技術は、モデルの重みとアクティベーションを 8 ビットと 16 ビットの整数に変換し、メモリの消費量を削減して、モデル全体を再トレーニングする必要性を回避します。
Muのトレーニングプロセスは、高性能環境で実行され、 NVIDIA A100 GPU 中で Azure機械学習データセットには 数千億の教育トークン そして、次のような技術 ファイモデルからの蒸留 知識を伝達し、特定のタスクに合わせてモデルを微調整するために、LoRA(Low-Range Adaptation)技術が活用されています。その結果、現代のウェアラブルハードウェアのリソースと制限に独自に適合した、小型で機敏なモデルが実現しました。 PCをローカルAIハブにする システムの機能を拡張します。
現在の課題、可用性、将来の見通し
ムーが直面する最大の課題の一つは 曖昧な、または非常に短い質問の解釈これは自然言語ベースのシステムでよく見られる問題です。これを解決するには、 マイクロソフトはハイブリッドロジックを実装した短いクエリでは従来の検索結果がトリガーされますが、より詳細な指示では AI 介入がトリガーされ、ユーザーをガイドしたり、自動アクションを実行したりします。
今のところ、 Mu は英語版のみで提供され、Insider チャネルを通じて Copilot+ デバイスでのみ利用できます。ただし、今後数か月以内に、AMD および Intel プロセッサを搭載したデバイスを含む、より多くの言語や他のデバイスに拡張される予定です。 プライバシーとセキュリティ 処理のローカルな性質を考慮すると、それらはまた、基本的な役割を果たします。
Muの導入は、マイクロソフトが、 ローカルAIと効率的な言語モデル さらに多くのアプリケーションやオペレーティング システムの側面で、パフォーマンスやプライバシーを犠牲にすることなく、エクスペリエンスとアクセシビリティが向上します。