TrendForceによると、クラウドサービスプロバイダ(CSP)各社(Microsoft、Google、Meta、AWSなど)は2024年にAI学習サーバインフラの整備を進めた後、2025年にはエッジAIに積極的に進出する可能性があるという。
このエッジAIへの進出には、より小規模な大規模言語モデル(LLM)の開発と、製造、金融、ヘルスケア、ビジネスなど、さまざまな分野でAIアプリケーションを促進するためのエッジAIサーバのセットアップが含まれる。さらに、AI PCはAIサーバと同様のアーキテクチャを有し、手元でのAI演算計算能力を活用した小規模なLLMおよび生成AIアプリケーションの実行機能を提供することになるため、小規模なトレーニングや推論アプリケーション用のクラウドAIインフラとエッジAI間の最終的な橋渡しとして機能することが期待されている。
最近のAI PC向けチップセットの動きとしては、6月初旬に台湾で開催されたCOMPUTEX 2024で発表されたIntelの「Lunar Lake(開発コード名)」とAMDの「Ryzen AI 300(開発コード名:Strix Point)」があり、どちらもAI PCに要求される性能を満たしている。これらのSoCを搭載したAI PCはそれぞれ今年中にリリースされると予想されている。
また、Qualcomm Snapdragon X Eliteを搭載する形でCopilot+ PCを発表したASUSやAcerなどのPCブランド各社も、COMPUTEX期間中にLunar LakeとStrix Pointを搭載したPCを発表したほか、MSIはLunar LakeとStrix Pointを投資対したモデルを展示した。これらの次世代AI PCの価格は1399ドルから1899ドルが予定されている。
TrendForceでは、AI PCアプリは2025年に成熟し、複雑なタスクの処理、ユーザーエクスペリエンスの向上、生産性の向上が可能になると予測しており、よりスマートで効率的なPCを求める消費者の需要の高まりもあり、AIノートPCの普及率は20.4%へと増加し、それに伴い搭載されるDRAM容量も大幅に増加する見込みとしている。
その結果、ノートPCに対するDRAMの搭載平均容量は2023年は10.5GBであったものが、2024年には前年比12%増の11.8GBに増加すると予測。2025年には、AIノートPCの普及率が前年の1%から20.4%に上昇するのに併せて、必要とする容量も16GB以上となることから、全体の平均搭載容量も0.8GB増(前年比7%増)となると予想している。
さらに、AIノートPCの台頭に伴い、より電力効率に優れた高周波数のメモリ需要が高まるとも指摘しており、そのシナリオのよると、LPDDRはDDRよりも明らかに電力対性能比で有利なことから、DDRからの置き換えが進むことが期待されるほか、スケーラビリティを優先するDDRおよびSO-DIMMソリューションの場合、メモリモジュールの新規格である「LPCAMM(Compression Attached Memory Module)」への切り替えも選択肢に入ってくるともしている。