富士通は2月21日、総務省および経済産業省のガイドラインに基づいてAI(Artificial Intelligence:人工知能)システムの倫理上の影響を評価する方式を開発したことを発表した。さらに、信頼できるAIを社会に普及させることを目的として、同方式とAI倫理影響評価手順書、適用例のドラフト版をAIシステムの開発者や運用者向けに同日より無償公開する。
同社が今回開発した方式は、自然言語で書かれたAI倫理ガイドラインの記述内容を構造化して倫理要件を明確化する手順と、倫理要件を実際に利用するAIシステムに対応づける手順から構成される。同方式はガイドラインの記述に対する解釈の違いに起因する誤解の回避や、起こりうる倫理課題への事前の対処の手段として活用可能とのことだ。
国際的AIコンソーシアムである「Partnership on AI」はAIインシデントデータベースとして、AIの利用に関して世の中で発生した問題事例を紹介している。同社はこのデータベースに収められた事例を調べ、倫理上の課題がAIシステム内部のコンポーネントの間や、AIシステムとその関係者の間における情報のやりとりを指す「インタラクション」に対応づけられることを導き出したという。
そこでこの点に着目し、AI倫理ガイドラインの解釈を明確にして「インタラクション」との対応づけを可能とする「AI倫理モデル」を作成し、AIシステムにおいて考慮すべきガイドラインの項目を系統的に洗い出す独自の評価方式を開発したとのことだ。
同モデルは、AI倫理ガイドラインとさまざまなAIユースケースから考慮すべき倫理要件、すなわち「チェック項目」を導くツリー構造と、「チェック項目」と「インタラクション」の関連性を示す対応リストで構成される。
具体化には、ソフトウェア開発で用いられる要件定義手法を応用して、AI倫理ガイドラインに記された要件をツリー構造で段階的に構造化する。構造化したガイドライン上の要件をAIユースケースで発生している倫理上の課題と照らし合わせることで、ツリー構造の枝葉部分に詳細な要件として「チェック項目」を導く。
また、ここで導いた「チェック項目」がユースケース内に登場するどの「インタラクション」において発生しているのかを対応づけてリスト化するという。ここまでの「AI倫理モデル」の作成は人の手で行うものだが、特定のガイドラインに対して作成した「AI倫理モデル」はさまざまなAIシステムの評価に汎用的に使用できるとのことだ。
個別のAIシステムを評価する際には、ソフトウェア開発で用いられるモデリング手法に基づき、AIシステム内外のモジュールを図解した「AIシステム図」をAIシステム開発者や運用者が作成する。そこに現れる「インタラクション」の種類に応じて、事前に作成した「AI倫理モデル」に記載された「チェック項目」を機械的に抽出し、業界や業務の知識を有する評価者が影響評価の文章を作成することにより、ガイドラインに基づき系統的かつ網羅的な評価を実施可能としている。
なお、AIインシデントデータベースに登録されたグローバルな事例の中から、金融または人事分野を含む代表的な15事例を抽出して同方式を適用したところ、実際に発生した倫理的な問題をすべて事前にリスクとして把握できることを確認できたという。同社は今後、同方式の改善や普及に向けて、官公庁や民間企業、アカデミアからパートナーを募集し、2022年度中に正式版のリリースを目指す予定だ。