Tenstorrentの日本法人であるテンストレント・ジャパンは3月28日、オンライン形式で日本法人設立に関する記者説明会を開催。国内におけるビジネスや同社の製品動向などについて説明を行った。
日本に初の海外法人を設立したTenstorrent
テンストレント・ジャパンの設立については既報の通りであるが、実は設立そのものは今年1月18日だったとの事(Photo01)。ただ設立の後も色々やるべきことが累積しており、発表が2か月ほど遅れてしまった、との事だった。
その日本法人であるが、同社は他のRISC-Vベンダーと異なり、MCU向けなどのソリューションは一切提供せず、エンタープライズやクラウド、HPC、車載といったハイエンドマーケットをターゲットとする(Photo02)。
これについては「(MCUなどのマーケットは)すでに多数の競合が参入しており、競争が激しい分野であり、敢えてそこは外してハイエンド向けにフォーカスする」という説明であった。ちなみに日本法人のトップはこの3人になるとの事である(Photo03)。
日本法人は同社としては初の海外法人であり、今後他の国でも現地法人が出来る場合は、似たような構成になるものと思われる。
2製品がすでに出荷済み
さて同社はすでに「Grayskull」と「Wormhole」という2つの製品に関して、シリコンの出荷を開始している訳だが(Photo04)、これに続く「Black Hole」は昨年アナウンスがあったものの、「Quasar/Grendel」は今回初めての発表である。
Black HoleはWormholeの後継というかプロセスを微細化し、「Ascalon D5コア」とさらにはSiFiveの「X280」まで搭載するという構成だ。さて、これに続くものとして、4nmで製造される推論向けのQuasarと、3nmでChiplet構成となるGrendel(こちらは学習向け)がどちらも2024年に投入される、としている。
余談だが、このGrendelというのはこれ全体ではなく、AI Chipletの名前の可能性もある。というのは、後述するHPC向けではCPU Chipletが「Aegis」、AI Chipletが「Grendel」として記載されているためだ。
さてAIチップの方だが、基本は同社の開発した「Tensix」と呼ばれるコアが基本である。このTensixの詳細は明らかになってないのだが、以前の説明では5つのSingle Issue RISCコア(これは制御用)と4TOPSの性能を持つNN(Neural Network)用のConpute Engineが組み合わされたもので、これを複数集積した構成になるとしている(Photo06)。
今回発表になったのは、このTensixコアの中の5つのRISCコアもRISC-Vとの事だろうか。これは正直ちょっと意外だった(Tensixコアそのものの設計はJim Keller氏がTenstorrentに参加する前に終わっている)。ちなみにTenstorrentのAI性能は非常に高いとされるが、それは(恐らくソフトウェアで)Sparseにうまく対応しており、この結果としてメモリ利用効率も高い(Photo07)事が挙げられる。
またソフトウェアフレームワークでは、TT-Metalという、Tensixコアに近いところまでAPIを公開している事も特徴とされる(Photo08)。
先にも書いたようにGrayskullはすでに量産をスタートしており、3種類のPCIeカードの形で提供される。Wormholeの方は、Single/Dual Chipのカードが存在するのは間違いなさそうだが、まだGalaxy Nebula Serverが存在するのかどうかは不明である(Photo10)。
ただ、小規模なPoC向けサーバーはすでに存在するようだ(Photo11)。
IPの提供メインもChipletの設計サポートまでも視野にいれるRISC-V
次にRISC-Vについて。Tenstorrent自身はあくまでもRISC-VのIPを提供するのがメインであるが、場合によってはChipletの設計までサポートする事も視野に入れているとする(Photo12)。
まずそのコアであるが、「Ascalon」と呼ばれる、最大8命令デコード/11命令発行のSuper Scalar/Out-of-Orderコア(Photo13)がメインである。
面白いのは、最初にこのハイエンド(Ascalon D6)を開発、これのサブセットとして2~6命令デコードのコアを用意した(Photo14)との事だ。
このAscalonを複数集積した「Cluster」(Photo15)や、そのClusterをさらに集積した大規模Cluster(Photo16)なども示された。
実際この128core Clusterの場合、もう少し具体的な構成(Photo17)も紹介されている。
またここからは「技術的に可能」のレベルであるが、大規模なAIプロセッサ(Photo18)や、さらに大規模なシステム(Photo19)も可能とされる。
同社は単にプロセッサだけでなく、様々なChipletを提供する事もビジネス的に視野に入れており、これを組み合わせる事で大規模システムでも構築可能、という事だろう(Photo20)。
もう1つ同社が狙っているのが自動車向けである。といってもAutomotive ECUとかではなく、自動運転を狙う方向である(Photo21)。
もともとTeslaのAutopilotとかFSDは、単に車内に自動運転用のソフトウェアを入れて終わりではなく、その運転データを常時吸い上げ、それを基により良い自動運転のアルゴリズムを開発するというフィードバックが形成されており、この目的で今年からTeslaは自社開発のDojoと呼ばれるスーパーコンピュータを稼働させている(従来はNVIDIA A100ベースのシステムが使われていたが、Dojoはこれの30倍高速だそうだ)。同じようなシステムを自動車会社が提供したいと思った際に、これを容易に構築するための環境を同社は提供する、という訳だ(Photo22)。
すでにこれに向けたPoC用のボードも存在する(Photo23)との事で、色々水面下ではすでに活発に活動していることが明らかになった説明会であった。