2018年7月31日、都内にて「AI活用の“キモ”はインフラにあり! 最新動向から事例まで、AI導入の勘所を学ぶ勝負の夏!!」と題した、人工知能の導入に不可欠なインフラの構築をテーマにしたセミナーが開催された。このなかで、自動翻訳サービスにAIを活用しているロゼッタのディープラーニング基盤構築の事例が紹介された。
ディープラーニングの活用で自動翻訳の精度が劇的に向上
あらゆる業種・業界においてAI(人工知能)の利用が本格化してきた現代において、AIの発展を支える技術であるディープラーニング(深層学習)の活用はビジネスを成功させるために必須といえる。そのため、多くの企業はディープラーニングを活用するためのITインフラ基盤構築に取り組んでいる。「AIの導入に不可欠なインフラの構築」をテーマにさまざまな講演が行われた本セミナーでは、早期からAIによる自動翻訳を研究し、ディープラーニングを利用した産業分野向けの自動翻訳サービスを提供している株式会社ロゼッタ 開発本部の木村 浩康氏により、ディープラーニング基盤の導入事例が紹介された。
ロゼッタは、「我が国を言語的ハンディキャップの呪縛から解放する」を企業ミッションに掲げ、語学能力不足による機会損失や語学能力向上に費やされるコストなどの問題を解決するため、AIを利用した超高精度自動翻訳の開発に取り組んでいる企業だ。2004年より自動翻訳の開発を開始しており、法人向けの自動翻訳サービスを数多く提供。2017年11月27日には、AIを利用しプロ翻訳者並みとなる最大95%の翻訳精度を実現した自動翻訳サービス「T-4OOver.2」をリリースしている。同社の自動翻訳サービスは法人向けに特化しており、医薬・法務・金融・機械・ITなどの産業分野における英語←→日本語の翻訳において最大精度を発揮。医薬・化学・食品・機械・電気・精密機器・鉄鋼・金属・非金属・繊維といった幅広い分野の企業2,000社以上が同社のサービスを導入しているという。
本セミナーで登壇した木村氏は、OSI参照モデルにおけるL1からL7のネットワーク技術の標準化活動・実装に携わり、NFVやSDN研究といった仮想化技術の総務省国家プロジェクトにも参加した経歴の持ち主だ。2016年からはロゼッタでディープラーニングを利用した翻訳システムの研究開発に取り組んできた。講演では、木村氏が取り組んできたディープラーニングのシステム構築における知見が紹介された。
「ディープラーニングやAIというキーワードをよく聞くようになってきましたが、いざ導入しようとなると、『GPUがあればすぐにできるのだろうか?』『どのようなGPUを用意すればいいのか?』『その他必要なものがあるのか?』といった疑問が浮かんでくるはずです」 こうした疑問を深く考えずにディープラーニングのシステム構築を進めると、費用がいくらあっても足りなくなると木村氏。コストがかさむ要因として「GPUカード」「電気料金」「場所代」の3つをあげた。
ディープラーニングにおいては、CPUに比べると1コアあたりの計算能力は劣るものの、多数のコアで構成され並列計算に特化した作りとなっているGPUが重要な役割を果たす。実際、TensorFlow、Chainer、Torchといったディープラーニングに利用されるフレームワークはGPU向けにチューニングされている。90年代の3層程度の学習ではCPUで行うケースもあったが、より多層となった現在ではGPUを使わない学習はありえないと木村氏は語る。このように、ディープラーニング基盤にはGPUカードが必須となるが、最新のGPUカードを導入するとコストが高くなってしまう。学習のスループットを上げるために、型落ちのGPUを数多く導入するという選択もあったが、ロゼッタの選択は「最新のディープラーニング向けGPUカードを導入する」になったと木村氏は言う。 「ディープラーニングのシステムの構築・運用でもっともコストがかかるのは電気料金ですが、GPUが使用する電力は最新の製品でも型落ちの製品でもほとんど変わりません。その反面、性能的にはGPUの世代によって実質数倍の違いが出てきます」
ロゼッタでは、最新のGPUである「Tesla V100」(以下V100)と、V100を搭載できるDell EMCのGPU専用サーバー「PowerEdge C4130」の採用を決定した。ディープラーニングの分野は競争が激しく、最新のGPUカードは出荷とともに世界中で取り合いになるという。初期ロットを入手できないと数カ月納期となることもめずらしくなく、機会損失は非常に大きなものになる。ロゼッタのケースでは、Dell EMCがGPUベンダーと情報を共有し、早い段階で搭載するV100を確保、1カ月ほどの短期間でGPUサーバーの生産が完了したという。「数カ月を覚悟していたため、GPUサーバーの生産が早すぎてデータセンターのラック調達が間に合わないという事態に陥りました」と木村氏は当時を振り返る。
ディープラーニング基盤構築における課題とその解決方法
こうしてPowerEdge C4130+V100の組み合わせでディープラーニング基盤を構築したロゼッタ。従来利用していたMaxwell世代からV100のVolta世代へとGPUを切り替えることで、実質3倍程度の学習速度向上を実現したという。講演では、導入を進めていく過程で判明した数々の課題と、その解決方法についても解説された。電力問題を解決するために200V電源を採用し、データセンター側の電力を通常の6kVAから10kVAに拡張。さらに、ラックあたりの電力と系統を増やしたことによる排熱問題への対処についても説明された。GPUサーバーは排熱が激しく冷却のための空調費が高くなり、空調システムが古いデータセンターでは冷やしきれないといった問題も発生する。実際、これまでロゼッタが活用してきたディープラーニング基盤が設置されたデータセンターでは排熱によって扉が変形したという。
今回、GPUを冷やすことに特化したディープラーニング専用筐体のPowerEdge C4130を採用することで、同じ学習で20度以上低い温度になったと木村氏はその効果を語る。吸気口直下にGPUが並び一番涼しい空気があたる構造は、まさにディープラーニング専用機ならではの冷却効果を発揮する。高温状態が続くと、半導体の寿命が縮んだり、誤動作の確率が高くなったりといった問題も発生する。空調費の軽減などの効果を合わせれば、ディープラーニング専用に設計された同サーバーは、極めて有効な選択肢となるはずだ。
また、企業がディープラーニング基盤の構築を検討する場合、今回の講演で紹介されたオンプレミスのタイプだけではなく、パブリッククラウドに用意されたGPUインスタンスを利用するという方法も選択肢となる。パブリッククラウドには、必要なときに調達しやすく料金体系が柔軟、さまざまなサービスと容易に連携できるといったメリットがあり、ロゼッタでもGPUインスタンスを併用していたと木村氏は話す。今回は、日本リージョンにおけるGPUインスタンスの料金体系の高さや、海外リージョンを選択した場合の伝送遅延といった要因によりオンプレミスを選択した。伝送遅延が大きいとWeb APIとしてはもったりした応答となるため、ロゼッタのようにWebサービスで利用するのには問題があると木村氏。学習だけではなく、推論にGPUを使うようなケースでは、パブリッククラウドにおけるGPUインスタンスを選ぶのは難しいという結論に達したという。もちろん、今後利用料金が安くなってくればパブリッククラウドのGPUインスタンスも有効な選択肢になるはずと木村氏は期待を口にした。
このように、本セミナーではロゼッタがGPU専用PowerEdgeサーバーとV100の組み合わせでディープラーニング基盤を構築・運用した事例が紹介された。
「歴代のGPUを使ってきましたが、V100はディープラーニング向けとしては一番使い勝手がよい製品です。PowerEdge C4130はディープラーニング専用設計で、とにかくよく冷えます。『うっとりするくらい』いい機種です」と評して、木村氏は講演を締めくくった。ロゼッタでは、すでにC4130の後継機となるインテル(R) Xeon(R) スケーラブル・プロセッサーを搭載した「PowerEdge C4140」の導入も決定したという。ディープラーニング基盤の中核を成すGPUカードとGPU専用サーバーの進化に今後も注目したい。
最新のインテル(R) Xeon(R) スケーラブル・プロセッサー は、新しいエンタープライズ・アプリケーション、科学技術計算、通信、ストレージ、クラウド、ビッグデータ分析など、さまざまな用途に、性能、電力効率、仮想化、セキュリティーの面で大きなメリットを提供し、IT部門の課題解決を支援します。Intel、インテル、Intelロゴ、Xeon、Xeon Insideは、アメリカ合衆国および/またはその他の国におけるIntel Corporationまたはその子会社の商標です。
GPU専用サーバーDell EMC PowerEdge C4140の概要はこちら
[PR]提供:Dell EMC