米ニューヨーク州にあるLevidow, Levidow & Oberman法律事務所のSteven Schwartz弁護士が、米人工知能研究所・Open AIが開発したAIチャットボット「ChatGPT」が出力した存在しない判例を引用した裁判資料を提出し、問題となっている。米メディア「The New York Times」や「Ars Technica」などが報じた。ネット上では「ちゃんと確かめないと…」「まだまだAIは人間には代わらない」などと話題となっている。

  • 米NY州の弁護士、「ChatGPT」製の虚偽判例を裁判資料として提出してしまう

    米弁護士が、AIチャットボット「ChatGPT」が出力した実在しない判例を、引用した裁判資料を提出し問題に。AIの活用は、十分に注意して行いましょう

ことの発端は、とある男性が、米ニューヨーク行きの飛行機内で配膳カートが膝に当たり負傷したとして、アビアンカ航空を訴えた訴訟。航空会社側は、訴訟を却下するよう求めたが、これにSchwartz弁護士が猛反対。この訴訟に関連する判例を引用した10ページにもおよぶ準備書面を、ニューヨークの連邦裁判所に提出した。

しかし航空会社側の弁護士や裁判官でさえも、準備書面で引用された6件の判例を見つけられなかったという。そこで、そこでSchwartz弁護士に確認したところ、「ChatGPT」を使用していたことが明らかとなった。「ChatGPT」が6件もの実在しない判例を出力してしまっていたのだ。

Schwartz弁護士は、「裁判所や航空会社を欺く意図はなかった」として、ChatGPTを利用したことがなく「その内容が虚偽である可能性には気づいていなかった」という。また、「ChatGPT」に判例が本物かどうかを確認したところ、「実在する」と回答が返ってきたとのこと。

また、「ChatGPT」に頼ったことを「大いに後悔しており、信頼性が完全に検証されるまで二度と頼らない」とコメントした。

ネット上では「事前にチェックもしないのか」「まだまだAIは人間には代わらないね。でも、実務家ならちゃんと確かめないと…」「嘘をつく機能は4.0でもなくなっていないのかな」「ほんとに使ったらこんなことになるという例」などの声が寄せられた。