ChatGPTは学習したデータに基づいて自然な文章を生成する。この技術に注目する経営者や技術者やユーザーは多い。そしてこの技術は将来、さまざまな分野において複雑な問題の調査をシンプルにこなし、人間にわかりやすく情報を与える方法として定着する可能性がある。
しかし、ChatGPTはよいことだけに使われるとは限らない。サイバー攻撃に悪用された場合には、これまで以上に大きな被害をもたらす危険性もある。ESETは2月20日(米国時間)、「Will ChatGPT start writing killer malware?|WeLiveSecurity」において、ChatGPT技術がサイバーセキュリティ攻撃にもたらすリスクについてその可能性を伝えた。
ESETはChatGPTがサイバーセキュリティ攻撃にもたらす可能性として次の点を指摘した。
フィッシング詐欺での活用 - ChaGPTはより多くのデータソースから情報を収集し、それらをシームレスにマッシュアップし、テキストを生成する。こうやって生成された文章は内容の真偽を判断することが難しく、ユーザーが誤ってリンクをクリックしてしまう確率が上昇する。これまではずさんな言語の間違いから真偽を判断することができたが、こうした技術は一般ユーザよりも対象の言語に精通する可能性があり、判断は困難なものになる可能性がある。サイバー攻撃においてフィッシングメールは依然としてもっとも有効なベクトルであり、ChatGPTの影響はきわめて大きくなることが予測される
身代金交渉の自動化 - ランサムウェアオペレーターが交渉上手であることは稀だと考えられるが、コミュニケーションにChatGPTが加わることで交渉が上手になる可能性がある。また、ChatGPTを活用することでサイバー攻撃者の身元や居場所を特定する情報がリークするといったミスも減ることが予測される
電話詐欺の巧妙化 - ChatGPTの自然言語処理はより自然なものになりつつある。詐欺師はこうした技術を利用して自分があたかもその地域の人間であり、被害者の利益を優先しているかのように振る舞うことが可能になるものとみられる
現在、ChatGPTはよく出来ているが、誤った内容の文章を生成したり完全なマルウェアを生成することはできないといった状況にある。しかし、この技術は発展途中の技術である点に注意が必要。今後の技術開発によってさらに適用範囲が広がる可能性があり、ChatGPTがもたらす影響はより広範囲に及ぶ危険性がある。