Microsoftの深夜増幅の動き:GPT-4、DALL· E 3. GPTは無料で使用でき、大規模モデル用の自社開発AIチップ

出典: Heart of the Machine

画像ソース: Unbounded AIによって生成

今朝の早い時間に、Microsoftは最新のIgniteカンファレンスを開催し、CEOのSatya Nadellaが、幅広いアプリケーション、生産性、およびセキュリティをカバーする100を超える製品とテクノロジーのリリースとアップデートを紹介しました。

Microsoft Ignite は、開発者と IT プロフェッショナル向けの同社の年次カンファレンスであり、ジェネレーティブ AI のすべてが今年最大のヒット作であることは間違いありません。 当然のことながら、このカンファレンスでは、Bing チャット、専用 AI チップ、Windows、Microsoft 365、Azure などの企業からの最新の開発が見られました。

このカンファレンスでは、Nvidiaの創業者であるJensen Huang氏も招待され、MicrosoftはAMDとNvidiaの最新プロセッサをAzureクラウドサービスに組み込む予定です。

会議のハイライトは何ですか、引き続き下を向いてみましょう。

Bing チャットが「副操縦士」に名称変更、GPT-4、DALL・E 3、GPT は無料で使用できます

カンファレンスで、MicrosoftはBing ChatとBing Chat Enterpriseをすべて「Copilot」に改名すると発表した。

ブランド変更の動きは、Copilotが、ユーザーが最初にBingに移動しなくてもアクセスできる、より自己完結型のエクスペリエンスになりつつあることを意味します。 Copilotの無料版は引き続きBingとWindowsでアクセスできますが、「copilot.microsoft.com」と呼ばれる専用ドメイン名も設定されます。

それ以前は、マイクロソフト社内には「Copilot」ブランドを共有する製品が十数個ありましたが、かつては混乱を招いていました。 ブランドアイデンティティは2021年にGitHub Copilotから始まり、今年MicrosoftはDynamics 365 Copilot、Copilot in Windows、Microsoft Security Copilot、Microsoft 365 Copilotをローンチしており、どのビジネスにも独自の「Copilot」があるようです。

このCopilotマトリクスにさらに2つのメンバーが追加された理由について、Microsoftは、コンシューマーとエンタープライズの両方の顧客向けに統一されたCopilotエクスペリエンスを作成したかったと説明しました。

そのため、Bing ChatはMicrosoftの6番目の「Copilot」になりましたが、最も用途の広いCopilotとしても理解できます。

今後、Bingはそのサポートの一部になります。 さらに、CopilotはGPT-4やDALL・E3などの最新のOpenAIモデルに基づいており、統一されたエクスペリエンスでテキストと画像の生成機能を提供します。

しかし、Bing ChatがBing自体に多くの収益をもたらさない可能性もあるため、Microsoftは検索エンジンから製品を取り除こうとしています。

Microsoftは自社の検索エンジンでAI製品を立ち上げることに多大な努力を払っており、Googleから市場シェアを奪う方法と見なしているため、現時点では売却は興味深いものです。 例えば、今年初め、MicrosoftのCEOであるNadellaは「Googleを検索における800ポンドのゴリラ」と呼んだが、Microsoftはそれを「ダンス」にするだろう。

しかしその後、GoogleはMicrosoftのように生成AI製品を検索結果に統合することを急いでいませんでした。 これまでのところ、この「変更なし」は悪い影響はありません:StatCounterによると、Bingチャットの発売からほぼ10か月後、Googleの検索エンジンは依然として91%以上の市場シェアを持っています。

マイクロソフトは、12月1日から、Bing、Edge、およびWindowsでCopilotを使用しているお客様は、Microsoft Entra IDでサインインするときに商用データ保護機能を利用できるようになると具体的に述べています。 Copilot はユーザーの応答を保存せず、Microsoft が直接アクセスすることも、基になるモデルのトレーニングにも使用されません。

此外,微软还推出了另外一些「Copilot」:Microsoft Copilot Studio、Copilot for Azure、Copilot for Service 和 Copilot in Dynamics 365 Guides。

その中で、MicrosoftのCopilot Studio製品は、MicrosoftがリリースしたAIアプリケーションをサードパーティのデータに接続するためのツールを提供し、企業がカスタムCopilotを作成したり、カスタムChatGPT AIチャットボットを統合したりできる新しいプラットフォームであるOpenAIのGPTに対してベンチマークされています。 この製品は、既存の Copilot for Microsoft 365 サブスクライバー向けのベータ版です。

Web ベースの Copilot Studio を使用すると、企業は、事前構築済みのコネクタまたはデータ ストレージ用の独自の構築済みコネクタを使用して、Copilot for Microsoft 365 と Copilot for Service に CRM、エンタープライズ リソース管理システム、およびその他のデータベース内のデータへのアクセスを提供できます。

「OpenAIとMicrosoftの戦略的パートナーシップの一環として、OpenAIのサービスをMicrosoftの既存のエコシステムにシームレスに簡単に統合できます」と、MicrosoftのバイスプレジデントであるJared Spataro氏は述べています。

LLMトレーニングと推論のための最初の5nm AIチップ

Bing Chatの名前をCopilotに変更することに加えて、視聴者によって広く開発されてきたMicrosoftの自社開発チップは、ついにその本当の色を明らかにしました。

Microsoftは、クラウドインフラストラクチャ用に設計された2つのハイエンドカスタムチップ、Azure Maia 100 AIチップとCobalt 100 CPUをリリースしました。 どちらのチップもMicrosoftによって社内で構築され、パフォーマンス、電力、コストを最適化するためにクラウドサーバースタック全体が大幅に刷新されており、2024年に利用可能になる予定です。

GPT 3.5 Turbo や GPT-4 などの大規模言語モデルのトレーニングや推論など、クラウド AI ワークロードを実行および最適化するために設計された、明るい青色の星にちなんで名付けられた、Microsoft 初の社内 AI アクセラレータのカスタム ラインの最初の製品である Maia 100 から始めましょう。

Maia 100 は、OpenAI のすべてのワークロードを強化する部分を含む、Microsoft Azure 上の最大の AI ワークロードを強化します。 Microsoftは、Maiaの設計およびテスト段階でOpenAIと協力してきたと述べています。

具体的な仕様に関しては、Maia 100はTSMCの5nmプロセス技術を使用しており、1,050億個のトランジスタを搭載しており、AMD MI300 AI GPUチップの1,530億個のトランジスタよりも約30%少ないだけです。 Maia 100は、ハードウェアとソフトウェアの共同設計のために、最大8ビット(MXデータ型)のデータタイプの実装を初めてサポートします。 これにより、モデルのトレーニングと推論の時間が短縮されます。

* *NadellaはMaia 100のサーバーラックと冷却システムを示しています

青色の顔料にちなんで名付けられたCobalt 100は、Arm Neoverse CSS設計に基づいて構築された128コアチップで、Microsoft向けにカスタムビルドされています。 Cobalt 100は、Microsoft Azure上の汎用クラウドサービスを強化するように設計されています。 このチップに関して、Microsoftは高性能を保証するだけでなく、電源管理にも特別な注意を払っています。 同時に、このチップは、各コアと各仮想マシンのパフォーマンスと消費電力を意図的に制御するように設計されています。

Microsoftは現在、Microsoft TeamsやSQL ServerなどのワークロードでCobalt 100をテストしており、来年にはさまざまなワークロードを処理するための仮想マシンを顧客に提供する予定です。 Microsoft Azureで現在使用されているArmサーバーと比較すると、Cobalt 100はパフォーマンスが大幅に向上しています。

Microsoftの初期テストでは、Cobalt 100は、コモディティArmサーバーを使用している現在のデータセンターよりも40%のパフォーマンス向上を実現することが示されています。 ただし、Microsoftは完全なシステム仕様やベンチマークを開示していません。

* *Microsoft Azure Cobalt システムオンチップをテストするためのプローブステーション

ただし、Microsoftは、Maia 100とCobalt 100の両方が自己消費を優先し、独自のAzureクラウドサービスをサポートするとも述べています。

Phi-2 モデルの発行 (Azure AI Service で利用可能)

Microsoftは、27億個のパラメータを持つ新しいPhi-2モデルは、Phi-1-5と比較して推論力とセキュリティ対策が大幅に向上したと発表しましたが、それでも業界の他のTransformerと比較すると比較的小さいです。

Phi-2はより堅牢で、数学的推論が50%増加しており、それだけでなく、他のタスクの推論の改善も非常に大きく、微調整が容易です。 Azure AI Service で利用できるようになりました。

今年の 6 月、Microsoft は “Textbooks Are All You Need” というタイトルの論文で、わずか 7B トークンの「教科書品質」データを使用して 1.3B パラメーター モデル (phi-1) をトレーニングしました。 phi-1は、データセットとモデルサイズの点で競合モデルよりも桁違いに小さいにもかかわらず、Human’s pass@1で50.6%、MBPPで55.5%の精度を達成しています。 Phi-1は、高品質の「スモールデータ」が優れたモデルパフォーマンスにつながることを証明しています。

そして、今年9月には、高品質な「スモールデータ」の可能性をさらに検証した論文「Textbooks Are All You Need II: phi-1.5 technical report」が発表されました。 この論文では、QA Q&A やコードなどのシナリオに適した 13 億個のパラメーターを持つ Phi-1.5 を提案します。

今日まで、Phi-2は正式にリリースされており、Microsoftのモデルの更新と反復は依然として非常に高速であることがわかります。

Phi-2 が Azure AI Services で利用できることは既に説明しました。 それだけでなく、OpenAIの音声認識モデルWhisper-Large-V3。 さまざまなマルチモーダルタスクを実行できるSalesforceのBLIPシリーズ、OpenAIのCLIPシリーズモデル、MetaのCode LlamaとSAM、Abu Dhabi Institute of Technology Innovation(TII)が開発した大規模なオープンソース言語モデルであるFalcon、Stability AIのStable Diffusionなどの新しいモデルがすべて含まれています。

参考リンク:

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし