米ニューヨーク州にあるLevidow, Levidow & Oberman法律事務所のSteven Schwartz弁護士が、米人工知能研究所・Open AIが開発したAIチャットボット「ChatGPT」が出力した存在しない判例を引用した裁判資料を提出し、問題となっている。米メディア「The New York Times」や「Ars Technica」などが報じた。ネット上では「ちゃんと確かめないと…」「まだまだAIは人間には代わらない」などと話題となっている。
ことの発端は、とある男性が、米ニューヨーク行きの飛行機内で配膳カートが膝に当たり負傷したとして、アビアンカ航空を訴えた訴訟。航空会社側は、訴訟を却下するよう求めたが、これにSchwartz弁護士が猛反対。この訴訟に関連する判例を引用した10ページにもおよぶ準備書面を、ニューヨークの連邦裁判所に提出した。
しかし航空会社側の弁護士や裁判官でさえも、準備書面で引用された6件の判例を見つけられなかったという。そこで、そこでSchwartz弁護士に確認したところ、「ChatGPT」を使用していたことが明らかとなった。「ChatGPT」が6件もの実在しない判例を出力してしまっていたのだ。
Schwartz弁護士は、「裁判所や航空会社を欺く意図はなかった」として、ChatGPTを利用したことがなく「その内容が虚偽である可能性には気づいていなかった」という。また、「ChatGPT」に判例が本物かどうかを確認したところ、「実在する」と回答が返ってきたとのこと。
また、「ChatGPT」に頼ったことを「大いに後悔しており、信頼性が完全に検証されるまで二度と頼らない」とコメントした。
ネット上では「事前にチェックもしないのか」「まだまだAIは人間には代わらないね。でも、実務家ならちゃんと確かめないと…」「嘘をつく機能は4.0でもなくなっていないのかな」「ほんとに使ったらこんなことになるという例」などの声が寄せられた。