·

(LLM Gen) Microsoft Build 2025 | Day 2 Keynote

完全に出遅れましたが…
NotebookLM さんにサマライズしていただきました。

https://notebooklm.google.com/notebook/3fc8106b-1eda-488b-a001-7b1c3c3b8cfd/audio

Microsoft Build 2025 | Day 2 Keynote
Microsoft Developer

提供された情報に基づき、Microsoft Build 2025 Day 2 Keynoteからの抜粋について、項目ごとに日本語でまとめたサマリーを以下に示します。

Microsoft Build Day 2 Keynote サマリー

このキーノートでは、AI エージェントの新時代における開発者への支援、新しいツール、プラットフォーム、そしてそれを支えるインフラストラクチャに焦点を当てています。

  1. Day 2 の開始と概要
    • Microsoft Build Day 1 が成功裏に終了し、Day 2 が始まりました。
    • 本日のキーノートには Scott Guthrie、Charles Amano、Jay Periq などが登壇しました。
    • すべてのコンテンツはオンデマンドで後日利用可能になります。
    • デジタル会場ではキーノート後にインタビューやデモが行われます。
    • 会場では音声解説、補助リスニングデバイス、ASL通訳、クローズドキャプションが利用可能で、オンラインでも提供されます。
    • フィーチャーパートナーとして ARM、Docker、Elastic、UiPath などが紹介され、会場のハブやデジタル会場のディレクトリで情報を得ることができます。
  2. AI エージェントの新時代
    • Day 1 で多くの内容がカバーされましたが、特に AI エージェントの時代に突入したことが大きな成果の一つです。
    • システムが推論し、連携するなどの大きなブレークスルーが起きています。
    • AI は開発者と共に働き、定型的な作業を取り除き、創造性に焦点を戻すのに役立ちます。
    • 今後数年間でエージェントは大量に作成され、IT やアプリケーションの新しい構成要素となり、その規模は驚異的です(IDC予測:2028年までに13億エージェント)。
  3. 開発者ツールとしての GitHub Copilot
    • Copilot は、開発者が新しいアプリケーションに慣れるのに役立ちます。
    • 新しいメンバーがチームに参加した際に、README ファイルの作成やセットアップ手順の提供などを Copilot が代行できます。
    • Copilot はプルリクエストの作成作業を開始することもできます。
    • Next-edit suggestions により、コードの一部を変更すると Copilot が他の部分の更新を積極的に提案します。
    • Agent Mode を使用すると、issue の詳細取得(GitHubから)、デザイン資産の取得(Figmaリンクから)、組織のベストプラクティス(copilot instructions ファイル)の考慮などを Copilot が行います。
    • コミットメッセージを自動で完成させることができます。
    • コードレビュー中にアーキテクチャ図(mermaid.js)の追加などを Copilot に依頼できます。
    • 技術的負債の解消、例えば Java 8 からのアップグレードのような困難なタスクにも Copilot を活用できます。
    • プロジェクトを分析し、変更計画を立て、Java ファイルなどを処理してアップグレードのためのコード変更セットを生成します。
    • この移行機能は Java だけでなく .NET でも利用可能で、プランニング、実行、サマライズのフェーズを経ます。
    • また、メインフレームの COBOL コードのモダナイゼーションも支援する予定です(年内提供予定)。
    • Ford は GitHub Copilot を使用して Rabbit MQ から Azure Service Bus への移行を 3倍高速に達成しました。
    • エージェントモードは、Spotify 連携を持つ仮想ゲストブックのような複雑な機能の実装も可能にします。
    • Copilot は issue から実装までの迅速な移行を助け、開発者を遅くする作業を処理し、よりインパクトの高い作業に集中できるようにします。
    • これらの機能は、自身のアプリケーションでも使用できるモデルによって強化されています。
    • GitHub モデルと Azure AI Foundry を使用して、独自のエージェントアプリケーションを構築できます。
    • Copilot は RAMP 社で月間約3万時間の定型作業を削減し、Café Pacific 社では開発者の時間節約と生産性向上に貢献しています。
    • GitHub Copilot 拡張機能のオープンソース化が Day 1 に発表されました。
    • OpenAI (CodeX agent) および Anthropic (Claude code) と GitHub プラットフォームへの統合を進めています。
    • GitHub は、すべてのエージェントを組織化する層となり、ソフトウェアライフサイクル全体のインテリジェンスをオーケストレーションするプラットフォームになります。
  4. Azure AI Foundry – AI アプリとエージェントのためのプラットフォーム
    • Foundry は AI アプリおよびエージェントのファクトリーです。
    • AI 駆動型製品の構築には、新しいインフラシステム、サービス、ツールが必要です。
    • これは、50年前に Microsoft がソフトウェアファクトリーを目指したビジョンと同様のアプローチです。
    • Foundry は、すべての AI アプリケーションとエージェントのための フルスタックプラットフォーム です。
    • Ignite で昨年発表され、7万人以上の組織が現在使用しています。
    • 内部でも M365 や Copilot Studio で活用されています。
    • Foundry の主要な領域として、モデル、エージェント、知識/データがあります。
  5. Foundry のモデルとエージェント機能
    • モデル:
      • モデル選択を支援する新しいリーダーボード
      • HuggingFace との統合により、カタログの1900モデルに加え、1万1000モデル以上が利用可能。
      • OpenAI の最新モデルへの同時アクセス
      • プロンプトに対して最適なモデルをリアルタイムで選択するモデルルーター
      • MCP を使用した Azure API Management Service との連携により、エンタープライズ内の API にエージェントや AI アプリケーション経由でアクセス可能。
      • GitHub VS Code との連携。
      • モデルのカスタマイズ、独自のデータ持ち込み機能。
      • 大きなモデルを小さなモデルに分割し、コストとパフォーマンスを最適化する**蒸留(Distillation)**機能。
      • Indiana Pacers は Foundry を使用してアリーナ内のリアルタイムキャプションシステムを構築し、エラー率を約1%に削減しました。
      • Manis は Foundry を活用し、AI エージェントを動力源とする「自己駆動型デジタルオペレーター」を構築しています。
    • エージェント:
      • エンタープライズ規模でエージェントを作成、展開、監視するAgent Service
      • エージェント構築の開始テンプレートを提供するAgent Catalog
      • Fabric、Data Bricks、SharePoint からエージェントにデータを取り込むAgent Knowledge
      • MCP や A2A などのフレームワークをサポートし、1万4000以上のサービスにアクセスできるAgent Tools
      • 複雑なワークフローや意思決定の自動化を可能にするマルチエージェントワークフローフレームワーク。
      • Foundry Agent Service ポータルでシングルエージェント(RSVP Agent)を構築するデモが行われました。
      • エージェントは設定に基づき、ツールコール(ファイル検索、カレンダーイベント作成API)を行います。
      • VS Code の Azure AI Foundry 拡張機能により、モデル、エージェント、スレッド(エージェントの各ステップを表示)を確認できます。
      • スレッドデータは Cosmos DB や Microsoft Fabric、Azure Data Bricks に保存できます。
      • Foundry Agent Service SDK を使用してエージェントを構築し、様々なツール(外部API、MCPサーバー、他のエージェント)をアタッチできます。
      • CrewAI、LangChain、または複数のエージェント(Agent-to-Agent プロトコル)など、様々な種類のエージェントを使用できます。
      • 複数のエージェントが連携して動作するマルチエージェントアプリケーション(Build events event planner)のデモが行われました。
  6. エージェントの評価とセキュリティ
    • Azure AI Evaluation SDK を CI/CD パイプライン(GitHub Actions)に統合し、エージェントの高品質を保証します。
    • GitHub Models を使用して評価のサマリーを生成し、DevOps 体験を向上させます。
    • Foundry は信頼とセキュリティを最初から組み込むことを中核原則としています。
    • Microsoft のセキュリティ製品(Entra, Purview, Defender)と連携し、エージェント構築時にセキュリティを確保します。
    • AI レッドチーミングエージェントを使用して、出荷前にシステムを攻撃に対してテストできます。
    • ガードレール(コンテンツフィルター、Prom Shield)を有効にして、ジェイルブレイクの試みなどから保護できます。
    • Foundry はエージェント、データ、モデルのガードレールを提供します。
    • Defender で新しい脅威を監視し、Prom Shield がブロックした試みを確認できます。
    • Entra を使用してエージェント ID を追跡・管理し、侵害された可能性のあるエージェントのリソースアクセスを削除できます。
    • Foundry と Microsoft Security により、リスクの特定と測定、適切なコントロールの設置、ポストプロダクションでの継続的な監視が可能になります。
    • Heineken は Foundry を使用してチャットボットを保護し、Accenture は Foundry により全体的な効率が30%向上、コストが20%削減、AI アプリケーション構築時間が50%削減されました。
    • 責任ある AI は Gen AI に不可欠です。
    • これらのセキュリティ機能は Copilot、Studio、Foundry 全体にわたり、「デフォルトで安全」であることを目指しています。
    • Entra と Purview は、従来のアプリやユーザーと同様に AI ワークフローも保護し、既存のセキュリティモデルが引き続き機能します。エージェント、人、アプリに対するセキュリティモデルは統一されています。
  7. クラウドからエッジへの拡張
    • Foundry はクラウドからエッジまで拡張可能です。
    • Windows AI Foundry は、Azure AI Foundry と Windows Copilot Runtime を基盤として、AI の力をクライアントにもたらします。
    • これは、Windows 上で AI モデルを一貫したシステムで実行、カスタマイズ、構築するためのものです。
    • モデルカタログ、独自のデータでカスタマイズするツール、自然言語・ビジョン用の API、ハードウェアに依存しない実行サポートを提供します。
    • AI Toolkit 拡張機能や主要なリポジトリから、Windows 向けに最適化されたモデル(CPU, GPU, NPU 用)にアクセスできます。
    • 小型言語モデル(SLM)は、ローカルデバイス上で複雑なタスクを解決し、コンテキスト理解を持つインテリジェントエージェントを強化できるようになりました。
    • Microsoft の Phi モデルは進化し、Phi-3 Reasoning ファミリーは GPT-4o に匹敵する体験をエッジで実現できるほどコンパクトでスマートです。
    • Foundry Local は、Model as a Service の体験を提供し、Windows ハードウェア向けに最適化された高品質モデルにアクセス・実行できます。
    • コマンドラインからモデルを実行したり、アプリケーションに統合したりできます。
    • Windows MCP Registry も示唆されました。
    • モデルのカスタマイズには、LoRA を使用した Parameter Efficient Fine-tuning と、Semantic Search と Vector Indexing を使用した Retrieval Augmented Generation (RAG) の2つのアプローチがあります。
    • LoRA は、Azure 環境でファインチューニングを行い、クライアントに軽量アダプターとして展開します。
    • AI Toolkit for VS Code は、データ準備からジョブ投入まで統合されています。
    • RAG は、ドキュメントなどをベクトルストアに変換し、モデルが参照できるようにします。
    • Windows ネイティブのビデオ編集アプリ Filora は、Windows Semantic Search および Knowledge Retrieval API を使用し、ローカルで RAG を実行するデモが示されました。
    • Windows ML は、カスタムモデル展開のための統一実行レイヤーであり、ハードウェアマッピングなどを簡素化します。これは AMD, Intel, Nvidia, Qualcomm などのシリコンパートナーのブレークスルーによって可能になっています。
    • Powder や Photoleap/CapCut といったパートナーは、Windows ML によってモデル統合が高速化・コスト削減されたことを報告しています。
  8. Microsoft 365、Copilot、Power Platform、Teams におけるエージェント
    • Copilot は、すべてのエージェントを見つけて使用するための一つの場所となります。
    • Copilot は、検索、チャット、エージェント、ノートブック、ページを含む5-in-One エクスペリエンスを提供します。
    • Researcher Agent は、ドキュメント、会議、ファイル、仕様書、アーキテクチャ図、GitHub/Azure DevOps と連携し、内部データも参照して情報収集や比較を行います。
    • Copilot 内に何百ものエージェントが利用可能なAgent Store があります。
    • MCP (Model Context Protocol) はエージェントがバックエンドシステムと連携するための新しいプロトコルです。Dynamics 365 の MCP サーバーが公開されています。
    • Google の A2A (Agent-to-Agent) プロトコルもサポートします。お客様や開発者にとって重要なオープンプロトコルをすべてサポートする予定です。
    • Adobe, SAP, ServiceNow などの重要なエンタープライズアプリケーションが Copilot 内で AI 体験と共に利用可能になります。
    • エージェントはチームとして組織化され、人々や他のエージェントと連携して働く新しい方法が必要です。
    • Copilot Studio は、エージェントを簡単に作成するためのツールです。
    • 23万人以上の組織が Copilot Studio を使用しています。
    • モデル、コネクター、オーケストレーター、可観測性、診断などを包括的に提供します。
    • Copilot Studio は、1500以上のコネクター、MCP、独自のプロンプト(Foundry でファインチューニングされたモデルも利用可)、コンピューター使用(ソフトウェアを人と同じように使用)機能をサポートします。
    • Copilot Studio はマルチエージェントオーケストレーションをサポートし、他の Copilot Studio エージェント、Fabric や Foundry のエージェントなど、様々なエージェントをチームとして連携させることができます。
    • CSX のインシデント対応デモでは、Copilot Studio で構築されたエージェントチーム(検査エージェント、クルー管理エージェント、経路可用性エージェント)が連携して対応する様子が示されました。
    • Power Apps は、人々が使用するフォアグラウンドアプリケーションと、バックグラウンドで働くエージェントを組み合わせた新しいタイプのアプリケーション体験を構築できます。
    • Power Apps はフルスタック体験(UI開発、ミドルウェア、コネクター、データプラットフォーム)を提供します。
    • 再構築された Power Apps は「エージェントファースト」の世界観に基づき、ビジネス課題からアプリ構築を開始する「ビルド・ア・プラン」機能を提供します。
    • requirements agent, process agent, data agent, solution architect agent といったデジタルチームのエージェントが、要求定義、プロセス設計、データモデル生成、技術要素の推奨をサポートします。
    • 計画からアプリ(例: 安全インシデント追跡アプリ)を数秒で生成し、計画のコンテキストやエージェントとの連携を含めることができます。
    • Microsoft Teams は、同僚やエージェントと連携するためのコラボレーションスペースです。
    • 毎日3億2000万人以上が Teams を使用しており、数億のエージェントも Teams 内に表示されるようになります。
    • チャット、チャンネル、会議、通話など、様々な場面でエージェントと容易に連携できます。
    • Teams AI Library は、エージェントを Teams に統合するための SDK です。
    • このライブラリは、認証、会話の複雑さ、AI モデルとの統合など、多くの定型作業を処理します。
    • Teams AI Library は、A2A プロトコルや MCP のサポートを最小限のコードで実現します。
    • デモでは、エージェントが Teams チャットに情報共有したり、会議でファシリテーターエージェントやスタンドアップエージェントが使用される様子が示されました。スタンドアップエージェントは A2A プロトコルを使用して他のエージェントと通信し、MCP を使用して列車スケジュールにアクセスします。
  9. 未来への探求(Microsoft Research との連携)
    • 新しい製品ではなく、将来ツールやプラットフォームに組み込む可能性を探る研究開発の成果が紹介されました。
    • Project Amaly: MSR との連携。データサイエンティストのワークフロー(データ取得、分析、モデル構築、コード生成)を支援するエージェント/モデルの可能性を探求します。推論とコード生成に異なるモデルを使用し、自己修正も行えます。
    • Graph RAG: MSR との連携。テキストのチャンクをベクトル化して検索する代わりに、LLM を使用してエンティティと関係性を抽出し、グラフを構築します。他の LLM がこのグラフをクエリできます。
    • SQL Server チームのコードベース(1400万ノード、2400万エッジの大きなグラフ)に適用し、エラーログから問題を特定し、コードの修正を提案するデモが示されました。
    • 古いゲーム(Castle Wolfenstein 3D)のコードに適用し、Graph RAG インデックスとコーディングエージェントを使用して、「ジャンプ」機能を追加するデモが示されました。
  10. Azure AI インフラストラクチャ
    • Microsoft は、クラウドおよび次世代 AI ワークロード向けに、最低コスト、最高スケールのインフラを提供します。
    • 世界中に70以上の Azure リージョンがあり、データセンター容量を劇的に拡大しています。
    • 多くの容量は AI 向けに最適化されており、新しい AI データセンターは最先端の AI スーパーコンピュータ(Nvidia GB200s)を運用します。
    • Microsoft は Nvidia GB200s のサーバーラック、ラック、データセンターを初めてオンラインにしたクラウドプロバイダーです。
    • これらの AI システムは電力密度が高いため、液冷を使用しています。
    • 新しい Microsoft データセンター設計では、ゼロ廃水の冷却方法を使用します。
    • 一つの AI データセンター内には、世界を4.5周できるほどのネットワークファイバーケーブルが敷設されています。
    • AI Wide Area Network (AI WAN) は、世界中の複数の Azure リージョンを組み合わせ、分散型トレーニングのために一つの巨大な AI スーパーコンピュータとして機能させます。帯域幅は最大400テラバイトです。
    • AI リージョンには、エクサバイト級のストレージと数百万の CPU コアが併置されています。
    • Azure ストレージは、シングル Blob Storage アカウントで毎秒200万以上の読み書き操作をサポートする高性能を提供します。
    • Azure Boost は IO アクセラレーターおよび管理システムであり、サーバー仮想化プロセスをカスタムシリコンにオフロードし、ストレージとネットワークパフォーマンスを高速化します。VM あたり毎秒40万以上のネットワーク接続などを実現します。すべての新しい Azure サーバーに標準搭載されています。
    • Azure Cobalt は業界をリードする ARM 64 CPU であり、価格パフォーマンスに優れています。
    • 一つの新しい AI データセンターは、今日の最速スーパーコンピュータの10倍の性能を持つと推定されます。
    • AI モデルの価格は指数関数的に低下しており、例えば GPT-4 の価格は2年間で93%下落しました。
    • Chat GPT は、Azure GPU VM、Cosmos DB、Azure Kubernetes Service (AKS)、Azure Postgress、Azure Storage など、Azure のサービスを完全に利用して構築されており、歴史上最も速く成長したアプリです。
  11. AI を支えるコア Azure サービスの詳細
    • Azure Cosmos DB:
      • Chat GPT のパタバイト級データ、数兆のトランザクション、巨大な成長を支えるデータベース。
      • グローバル分散型マルチモデルデータベースサービスで、ターンキースケールアウト、ミリ秒単位の低遅延、稼働時間保証を提供。
      • データは世界中の任意の Azure リージョンに自動レプリケーション可能で、低遅延でユーザーにデータを近づけます。
      • セッション間でコンテキストを維持し、5億ユーザーに自然な体験を提供。
      • ストレージとパフォーマンススループットを弾力的にスケールでき、停止時間はゼロ。使用量に応じて支払い。
      • 5ナインの可用性を実現。
    • Azure Kubernetes Service (AKS):
      • Chat GPT のアプリケーション層(世界中で1000万以上のコンピューティングコア)を少数のエンジニアで管理できるようにスケール。
      • クラウドネイティブアプリケーション向けの高度にスケーラブルな Kubernetes サービス。
      • 完全に管理されたサービスで、自動デプロイメント、自己修復、自動パッチ適用、セキュリティガードレールを内蔵。
      • シングルクラスターまたは AKS Fleet Manager を使用して、任意の数の AKS クラスターを管理可能。
      • Microsoft はオープンソース CNCF プロジェクトへの最大のクラウド貢献者です。

これらの技術とプラットフォームは、開発者が AI の力を活用し、新しい時代のエージェントアプリケーションを構築できるよう支援することを目的としています。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です