生成AIで増大するリスク 広報は「見えない脅威」にどう立ち向かうか

公開日:2025年12月02日

  • 鶴野充茂(社会構想大学院大学 客員教授)

ChatGPTの登場からわずか3年。生成AIは生活やビジネスの場に深く入り込み、利便性とリスクは紙一重の状態が続いている。本稿では、AI時代に企業が直面する脅威と、企業イメージを失墜させる恐れのあるリスクに広報担当者がいかに立ち向かうべきかを解説する。

2022年にChatGPTが登場して以降、生成AIは企業活動に急速に浸透した。業務効率化の恩恵を享受する一方で、これまでになかった新種のリスクが次々と顕在化している。社員が無自覚に機密情報をAIに入力する、経営トップの偽動画が拡散される、プラットフォームのAIが勝手に不正確な企業や自治体情報を生成する─。従来のリスク管理の枠組みでは対処できない事態が、今まさに広報の現場を襲っている。

そこで、本稿では生成AIが生み出す4つの主要リスク領域を整理し、それぞれの象徴的な事件を振り返りながら、広報としてどう備え、いざという時にどう動くべきかを考える。

1 社内からの情報漏えい

サムスン電子は2023年4月、半導体部門の社員がChatGPTにソースコードや会議内容を入力して機密情報の流出が発覚したことから、社内利用を制限した。2023年段階でほかにもAppleやAmazon、米大手金融機関なども相次いで利用を制限した。

こうして生成AI利用による機密情報の漏えいリスクが顕在化した。

現在は、多くの企業で適正利用に向けてルール化を進めた上で生成AIの本格的な導入・活用が図られている段階だろう。目下の問題は、IT部門の承認や監督なしに、社員がAIツールを使用する「シャドーAI」が拡大していることだ。

たとえ組織としては禁止しても個人アカウントで隠れて使うという状況が生まれており、これにどう対応するかがテーマになっている。

【対策のポイント】

自社で設定したルールのアップデートが、生成AIの進化のスピードに追い付かないということは往々にして起こる。そこで、企業はネットワークトラフィックやデバイス利用のモニタリング、経費精算の分析などで可視化を試み、発見したAIツールのリスクレベルを分類してリスクを管理するといった自社内での対策を認識しておきたい。

社内の成功事例・失敗事例を共有し、安全なAI活用文化を醸成する。また、シャドーAIによる情報漏えいが発覚した場合には、透明性のある広報活動と顧客通知で信頼を...

この先の内容は...

広報会議』 定期購読者限定です

ログインすると、定期購読しているメディアの

すべての記事が読み放題となります。

購読

1誌

あたり 約

3,000

記事が読み放題!

この記事をシェア

この記事が含まれる特集

危機を乗り越える広報対応

2025年は、サイバー攻撃や学校現場でのトラブル、転売をめぐる混乱、生成AIによる誤情報など、危機の種類だけでなく広がり方も複雑さを増した一年でした。問題そのものよりも、「状況をどう整理し、どのように向き合おうとしているのか」が可視化され、その姿勢が企業評価に直結する場面が増えています。こうした環境下で、危機を乗り越えるためには、発生した出来事の背景や影響範囲を的確に捉え、取引先・顧客・生活者といった多様なステークホルダーの視点を踏まえて対応の筋道を示すことが欠かせません。他社で起きた問題であっても、自社の方針や価値観が問われるケースが増えるなど、広報の判断領域はこれまで以上に広がっています。本特集では、2025年の事例に関する調査や専門家の寄稿をもとに、組織が混乱を最小限に抑え、信頼低下やブランド棄損を防ぐための広報対応を整理します。危機に直面した際、何を基準に判断し、どのように説明するのか。「乗り越えるための広報」の視点を、多角的に探ります。

MEET US ON