ChatGPTの登場からわずか3年。生成AIは生活やビジネスの場に深く入り込み、利便性とリスクは紙一重の状態が続いている。本稿では、AI時代に企業が直面する脅威と、企業イメージを失墜させる恐れのあるリスクに広報担当者がいかに立ち向かうべきかを解説する。
2022年にChatGPTが登場して以降、生成AIは企業活動に急速に浸透した。業務効率化の恩恵を享受する一方で、これまでになかった新種のリスクが次々と顕在化している。社員が無自覚に機密情報をAIに入力する、経営トップの偽動画が拡散される、プラットフォームのAIが勝手に不正確な企業や自治体情報を生成する─。従来のリスク管理の枠組みでは対処できない事態が、今まさに広報の現場を襲っている。
そこで、本稿では生成AIが生み出す4つの主要リスク領域を整理し、それぞれの象徴的な事件を振り返りながら、広報としてどう備え、いざという時にどう動くべきかを考える。
1 社内からの情報漏えい
サムスン電子は2023年4月、半導体部門の社員がChatGPTにソースコードや会議内容を入力して機密情報の流出が発覚したことから、社内利用を制限した。2023年段階でほかにもAppleやAmazon、米大手金融機関なども相次いで利用を制限した。
こうして生成AI利用による機密情報の漏えいリスクが顕在化した。
現在は、多くの企業で適正利用に向けてルール化を進めた上で生成AIの本格的な導入・活用が図られている段階だろう。目下の問題は、IT部門の承認や監督なしに、社員がAIツールを使用する「シャドーAI」が拡大していることだ。
たとえ組織としては禁止しても個人アカウントで隠れて使うという状況が生まれており、これにどう対応するかがテーマになっている。
【対策のポイント】
自社で設定したルールのアップデートが、生成AIの進化のスピードに追い付かないということは往々にして起こる。そこで、企業はネットワークトラフィックやデバイス利用のモニタリング、経費精算の分析などで可視化を試み、発見したAIツールのリスクレベルを分類してリスクを管理するといった自社内での対策を認識しておきたい。
社内の成功事例・失敗事例を共有し、安全なAI活用文化を醸成する。また、シャドーAIによる情報漏えいが発覚した場合には、透明性のある広報活動と顧客通知で信頼を...


