Tripwireは6月13日(米国時間)、「ChatGPT and Data Privacy|Tripwire」において、DALL-E、BARD、ChatGPTなどのAI(Artificial Intelligence)がもたらす脅威について伝えた。AIが提供する偏った情報や改ざんされた情報によってもたらされるリスクや、プライバシーの観点からAIツールが深刻な懸念を引き起こす可能性が指摘されている。
ChatGPTは学術研究目的、マーケティングコミュニケーション、プログラミングコードの開発やレビューなど多岐にわたって活用されている。ユーザーは何気なく利用しているが、機密情報がAIツールに反映されて他のユーザーに共有されてしまう危険がある。文章の文法や文脈の間違い、コードの誤りなどが効率的に修正されるため、ユーザーは進んで機密情報をAIツールに提供していると述べられている。
また、AIツールは学習データに基づいて応答を生成するため、入力データの偏りやバイアスを返答に反映する可能性があることも指摘されている。得られるコンテンツはAIツールに学習させたデータの質や性質に大きく左右される。そのため、インターネット上にあふれるさまざまなフェイクや偏ったコンテンツに存在するバイアスが返答に反映されてしまう可能性がある。
ChatGPTのような優れた能力を持つAIツールは、数十億バイトのデータを使用して自己訓練している。その膨大なデータにより非常に詳細な回答を瞬時に生成可能になっているが、そのデータ収集の方法はデータプライバシーの観点から批判を受けている。
訓練に使用されるデータは公開されているものが使われているが、一部に個人情報が含まれている場合があり、データ保護規制が適用される可能性がある。また、ユーザーから提供されたデータがさらに訓練に使われるため、それらのデータが永続的に使われてしまう可能性も指摘されている。
ChatGPTなどのAIツールは、ユーザーの情報収集やコミュニケーションの方法を大きく変える可能性を秘めている一方で、潜在的なリスクやプライバシーへの影響に対する懸念も抱えている。国レベルでこの問題は議論されており、各国の取り組みとAI開発のためのガイダンスを提供する組織(NISTなど)との協力によるリスクへの対応およびプライバシー保護が期待されている。