グーグル・クラウド・ジャパンは10月24日、オフラインとオンラインのハイブリッドにより「Generative AI Summit Tokyo '24 Fall」を開催した。本稿では「Google の生成 AI がビジネスを次のステージへ。~活用事例と LLM 開発の今~」をテーマにした基調講演をお伝えする。
生成AIの活用フェーズごとに支援するGoogle Cloud
冒頭、Google Cloud テクノロジー部門 統括技術本部長の寳野雄太氏は「2024年に入ってから生成AIは“試す”から“使う”フェーズになっていると感じていると思います。何に使えるのか?というところから、特定用途のAIエージェントとして使うことで生成AIは実用化、そしてビジネスの価値につながります」と述べた。
続けて、同氏は「これまで企業において、さまざまなサンドボックスあるいはプレイグラウンド環境でチャットのアプリケーションとして試し、全従業員に開放しても使用している割合が1割以下だという話をよく聞きます。このような状況ではビジネスインパクトは出づらい」と話す。
寳野氏によると、生成AIの取り組みは「試す、慣れる」「活用する」「組み込む」のフェーズで汎用業務からコア業務に段階を引き上げていくことが望ましいという。同氏は「生成AIの価値を引き出すためには自社のコア業務や競争力のある領域で生産性を向上させるとともに、利益率を高めていく取り組みを進めていく必要があります。こうした領域では自社特有の業務になることから、自ら開発して日常業務に組み込むことで生成AIの可能性を発揮できます」とも語っている。
試す、慣れるフェーズで同社では生成AIの「Gemini 1.5 Pro/1.5 Flash」を提供しており、200万トークンを備えるとともに、同モデルを発表してからAI統合プラットフォーム「Vertex AI」でのGeminiの利用が36倍に増加したという。また、先日には会話型の生成AI「Gemini Live」が日本語に対応したことを発表している。
活用するのフェーズで同社は「Gemini for Google Workspace」と「Gemini Code Assist Enterprise」を提供。Gemini for Google Workspaceでは、Gmailのメール下書きやメールの要約、Google ドライブのファイル取得・要約を行う「サイドパネル」の日本語をα版で提供を開始している。
Gemini Code Assist Enterpriseでは、GithubやGitLabなどに格納されたコードレポジトリをコンテキストとして理解し、単一関数の生成補助からユーザーのコードを背景としたコード生成を行う。日本語に対応していることに加え、Google Cloud以外でも利用でき、サーバサイド、データ分析、データベースの移行に対応した開発者向けのサービスとなる。
そして、組み込むフェーズではVertex AIを提供している。寳野氏はAIエージェントの実装に必要な要素として「モデルを選び、モデルを使いこなし、エージェントとして仕上げる。この3工程で実用化が可能になります」と説く。
Vertex AIはModel Garden、Model Builder、Agent Builderで構成されている。Model Gardenは、GeminiのほかAnthropicno「Claude」などサードパーティのLLM(大規模言語モデル)を含め、150超のモデルを選択できるほか、Model Builderでモデルの拡張、管理、監視などモデルのライフサイクル管理を可能としている。Agent Builderは意味ベースの検索を提供する「Vertex AI Search」など、AIエージェントを素早く実用化するサービスを提供。
また、画像生成AI「Imagen」の最新版「Imagen 3」は画像生成だけでなく、画像編集に強みを持っている。例えば、商品の画像を変えずにEC向けに背景だけを変更するなど、実用的なユースケースが思い浮かぶ画像の生成ができ、著作権の補償付きで提供している。
生成AIの実用化に向けた課題
一方で、エンタープライズにおける生成AIの実用化に向けた課題もある。マッキンゼーの調査では、63%の組織が自社のAIのユースケースにおけるリスクとして「不正確な情報」を挙げているという。いわゆるハルシネーションだ。
これを防止するためのものとして寳野氏は2つのトレンドを示した。1つはロングコンテキストによる「解釈違い」の低減だ。これまでは、トークンに制限がある中でRAG(検索拡張生成)などのアプリケーション技術などに頼らざるを得なかったが、Geminiはトークン数が200万と大きいため、すべてのコンテキストをふまえて情報を取捨選択し、回答を生成することから、生成AIアプリケーションのあり方自体を変えるとのこと。
もう1つは、生成AIに「知識」を答えさせないこと。寳野氏は「ハルシネーションの原因の一部は生成AIが知識を持たないにもかかわらず、無理矢理に回答してしまうといった事象に起因します」と指摘。
そのため、Vertex AIでは「High Fidelity Mode」(高忠実度モード)として提供し、生成AIが持つ知識から回答せずに、与えられたドキュメントソースからのみ回答を行うことを可能としている。