ChatGPTを開発するOpenAIに早い時期から投資していたMicrosoftは、長期的な戦略として大規模言語モデル(LLM)のトレーニング用に設計したチップの開発を2019年から内部で進めていた。それが早ければ、2024年にも投入される。シリコンバレーでビジネスとテクノロジーに関する独自の報道を提供しているThe Informationが報じた。独自チップでNVIDIAへの依存を解消し、開発中のチップが予測通りのパフォーマンスを発揮すれば、チップあたりの処理コストを最大3分の1まで削減できるという。

MicrosoftはAIを用いた次世代のコンピューティングにおけるファースト・ムーバー・アドバンテージを狙ってOpenAIと提携し、LLMのトレーニングやサービス構築に莫大な資金を投入している。しかし、ChatGPTのような対話型AIの運用にはコストがかかる。調査会社SemiAnalysisのチーフアナリストは、1日約70万ドル、クエリ1回あたり0.36セントと分析している。その原因の1つがNVIDIAへの依存だ。昨年11月にMicrosoftはNVIDIAと次世代スーパーコンピューターを構築するための複数年の提携で合意したが、AI開発ブームにおいてGPUサーバーの不足が深刻化している。調査会社TrendForceの試算では、ChatGPTの動作に30,000台ものNVIDIAのA100 GPUが必要になる。Microsoftは将来的に、Bing、Microsoft 365、GitHubを含む全てのアプリケーションでLLMを使用しようとしており、NVIDIA依存が計画の障害になる可能性がある。

The Informationによると、Microsoftが開発するチップは「Athena」というコードネームで呼ばれ、OpenAIに最初に投資した2019年に開発プロジェクトがスタートした。昨年末のChatGPTのリリースをきっかけとした生成AIへの関心の高まりから開発体制を強化しており、早ければ2024年にMicrosoft内とOpenAIで利用できるようにする可能性がある。製造はTSMCに委託し、安定した量産が可能な5nmプロセスを採用する予定だという。

Azureの顧客に提供するかについては、顧客が独自にLLMをトレーニングする需要について不透明であることから議論の段階にとどまっている。独自のLLM向けチップの開発が成功しても、MicrosoftにNVIDIAと競合する考えはなく、「将来的にNVIDIAとより良い条件で交渉できる可能性が広がる」とThe Informationは指摘している。