2024年9月、中国科学院自動化研究所 脳認知インテリジェンス研究室や中国科学院大学などに所属する研究者らが「StressPrompt: Does Stress Impact Large Language Models and Human Performance Similarly?(ストレスプロンプト: ストレスは大規模言語モデルと人間のパフォーマンスに同様の影響を与えるか?)」という論文を発表しました。→過去の「柳谷智宣のChatGPTプロンプトクリエイティブラボ」の回はこちらを参照。
LLMは適度なストレス下で最適なパフォーマンスを発揮する
人間は受けるストレスによってパフォーマンスが大きく左右されますが、大規模言語モデル(LLM)で同じようなストレス反応が見られるかどうか、という研究です。まず、結論からお伝えすると、LLMも人間と同様に適度なストレス下で最適なパフォーマンスを発揮するという結果になりました。
これは、ストレスや覚醒レベルとパフォーマンスの関係を示した心理学の法則「ヤーキーズ・ダットソンの法則」と一致しており、LLMの表現が人間のストレス反応と似ていることが明らかになったそうです。ちょっと驚きの結果ですね。