AIがもたらす存続危機へのリスク軽減を優先課題とすべきという警告を「AIリスクに関する声明」として公表されている。“AIの父”Geoffrey Hinton(ジェフリー・ヒントン)氏、OpenAIのCEO、Sam Altman(サム・アルトマン)氏らが賛同を寄せている。
AIリスクに関する声明は「Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.」としてCenter for AI Safety(CAIS)が発表した1文。AIがもたらす絶滅のリスクを緩和することは、パンデミックや核戦争などの社会的規模のリスクと同じレベルで世界の優先課題であるべき、といった意味になる。