OpenAIは現地時間2023年4月5日、自社のAI(人工知能)に関するリスクを踏まえた責任表明を公式ブログで行った。AIの倫理性は以前から問題視されており、AIを扱う大手IT企業は内外に倫理委員会を設けて自社の姿勢を表明している。

Our approach to AI safety(同社公式ブログより)

OpenAIに対しては個人情報の扱いから一部の国々から使用禁止を表明し、社内情報の漏えいを未然に防ぐためにChatGPTの利用を禁止する企業も少なくない。OpenAIは「(ChatGPTの)利用を18歳以上、または保護者の承認を得た13以上に義務付けている。GPT-4はGPT-3.5と比較して、不正コンテンツに応答する可能性が82%低下した」と未成年の悪用抑制に取り組んでいると報告している。

肝心のプライバシーに関しては、「我々の大規模言語モデルは公開コンテンツに代表される幅広いテキストコーパスで訓練している。サービスや広告、人物情報は用いていない。ChatGPTは人々との会話で改善を重ねていく。ただし、パブリックに含まれている場合は可能な範囲でトレーニングデータセットから削除している」と自社の姿勢を表明した。AI利用に関してはMicrosoft AzureのAzure OpenAI Serviceのように、テナントに閉じた状態で利用できるサービスも次々と登場しており、企業が安全に利用できる範囲は少しずつ拡大しつつある。