AI技術の急速な発展により、日常生活やビジネスに大きな変化を体験した人も多いだろう。近年では生成AIや、その中心となるLLM(Large Language Models:大規模言語モデル)の発展が目覚ましい。TECH+でも、多くの活用事例や最新技術を紹介している。だがしかし、その仕組みや専門用語を理解するのは、意外と難しい。
そこで本連載では、生成AIやLLMに関連する用語について解説する。日々のビジネスや資格取得に向けた勉強、弊誌をはじめニュース記事を読む際の補足として活用してほしい。用語解説を担当するのは、ソフトバンク子会社で日本語に特化したLLMの開発を進めるSB Intuitionsのエンジニアリングチーム。
AI
Artificial Intelligence(人工知能)の略。明確な定義はないが、例えば、言葉を聞いて理解して話す、画像の状況を説明するなど、数式化が困難で人間にしかできないと考えられてきた特徴的な知的能力を、大規模なデータを用いた深層学習などによって近似した関数、またはその関数を含む計算処理やシステム全体を指す言葉として使われる場面が多い。
ただし、必ずしも人間の能力を模しているわけではなく、何か特定の目標を達成する能力の計算部分のことや、自律的に判断し行動することができる機械の制御部、またはそれらを含む計算処理やシステム全体などを表す言葉としても広く用いられる。(泉 健太)
参考
[1] Roberts, Daniel A., Sho Yaida, and Boris Hanin. The principles of deep learning theory. Vol. 46. Cambridge, MA, USA: Cambridge University Press, 2022.
[2] Project JMC Team. John McCarthy's Website. 11 Feb. 2012, http://jmc.stanford.edu/index.html. Accessed 27 Aug. 2024.
大規模言語モデル(LLM)
言語モデルとは、テキスト中の要素の出現確率の分布を予測する仕組みであり、テキストの生成などに応用できる。その中で、大規模言語モデルは巨大なニューラルネットワークが、膨大なテキストデータで訓練されている言語モデルである。最先端の大規模言語モデルは数千億の構成要素を持ち、多くのタスクを人間に匹敵する精度でこなせる。
大規模言語モデルの性能が飛躍的に向上した要因として、「Transformer」というニューラルネットワークの設計が、文中の要素間の関係を高い精度で捉えることが可能なこと、大量の計算機をまたぐ並列学習が可能でありモデルの大型化が実現したことが挙げられる。(新里 顕大)
補足
対話などのタスクに応用するには、大規模言語モデルを調整用のデータでさらに学習する必要がある。
生成AI
文章や画像、音声などのコンテンツを作成することができるAIで、一般的には大量のデータによって学習されている大規模モデルを指す。私たち人間が簡単な指示を与えるだけで自動でコンテンツを生成してくれるため、さまざまな場所や用途で利用されるようになった。
ただし、生成AIのうち一部は著作権に守られた文章や画像などを学習に利用していて、人間の指示によって生成されたコンテンツが著作権侵害を引き起こす可能性もあるため、注意して利用すべきである。なお「生成AI」は2022年のChatGPTの出現によって広く使われるようになった用語で、2023年の新語・流行語大賞のトップテンにも選ばれた。(黒澤 友哉)
参考
生成AIはじめの一歩~生成AIの入門的な使い方と注意点~
新語・流行語大賞(2023)年間大賞「アレ(A.R.E.)」阪神 岡田監督
ニューラルネットワーク
生物の脳の内部にある神経回路のこと。ニューロンと呼ばれる細胞が、あるニューロンから受け取ったシグナルに対し何らかの変換を施した後、異なるニューロンに伝播させるという内部構造をもち、学習の過程でその変換方法などを調整する。
人工知能の分野では、生物の脳の構造を模して作られた数理モデルを人工ニューラルネットワークと呼び、単にニューラルネットワークとも呼ぶ。数理モデルとしての概念自体は20世紀前半に現れたが、大規模化によりさまざまな分野で高い性能が達成できるようになったのは21世紀に入ってから。ChatGPTをはじめ多くの大規模言語モデルで用いられている「Transformer」もニューラルネットワークモデルの一つ。(黒澤 友哉)
ディープラーニング
多層のニューラルネットワークを用いて、データから与えられたタスクを解くための特徴やパターンを自動的に学習する技術。類似したネットワーク構造を繰り返して接続し多層化することより、予測精度などの性能が向上した。
学習過程では、パラメータを調整することでタスクに応じて設定した目的関数を最適化する。その際に計算する目的関数の微分値を自動的に計算する誤差逆伝播法というアルゴリズムの利用と、GPUのような高速なハードウェアの応用によって、ディープラーニングは2010年代以降著しい発展を見せている。画像認識や自然言語処理、音声認識などの分野でディープラーニングの応用が進んでおり、大規模言語モデルもその一例である。(新里 顕大)
泉 健太
SB Intuitions R&D本部 Foundation dev部 LLMコア構築チーム / LLMチューニングチーム
2022年3月東北大学工学部電気情報物理工学科卒業、2024年4月奈良先端科学技術大学院大学先端科学技術研究科情報科学領域修士課程修了。ソフトバンクに新卒入社した後、SB Intuitionsへ出向。現在はLLMに長文入力を行う手法や、既存の学習済みモデルをより大きなモデルの学習に使い回す手法の試行、マルチモーダル対話システムの開発などに従事。
新里 顕大
SB Intuitions Foundation dev部 LLMコア構築チーム
2022年京都大学工学部情報学科卒業、2024年京都大学情報学研究科修士課程修了。LINEヤフーに新卒入社した後、SB Intuitionsに転籍入社。専門は理論神経科学。社内では大規模言語モデルの構築を行うチームに所属し、学習データの構築基盤の開発などを担当。
黒澤 友哉
SB Intuitions R&D本部 Responsible AIチーム
2022年東京大学理学部情報科学科卒業、2024年東京大学大学院情報理工学系研究科修士課程修了。LINEヤフーに新卒入社した後、SB Intuitionsに転籍入社。専門は自然言語処理。社内では大規模モデルの安全性に関する研究を行うチームに所属しており、現在は自社製言語モデルの安全性を高めるプロジェクトを担当。