生成AIで情報漏洩させないために必要なこと|実際の事例や対策を紹介

生成AIで情報漏洩させないために必要なこと|実際の事例や対策を紹介

「業務効率化に生成AIは不可欠だが、情報漏洩が怖くて導入に踏み切れない」と悩みを抱える企業も多いでしょう。実は、社員のなにげない生成AIへの情報入力が、意図せず機密情報を世界中に拡散させるセキュリティホールになる危険性があります。大手企業においても、AIの不適切な利用で深刻なセキュリティ事故を起こしています。
本記事では、生成AIで情報漏洩させないために必要なことを仕組みや実際の事例、対策を交えて解説します。自社のデータを守り抜き、安心してAIを活用するための環境を構築しましょう。

生成AIで情報漏洩が起きる仕組み

生成AIによる情報漏洩は、主に以下2つの流れで発生します。

  • 入力データがAIモデルの再学習に使われて他者へ出力される
  • サーバー上のチャット履歴が保存されて不正アクセスや閲覧の対象になる

従来のサイバー攻撃とは異なり、正規に生成AIを利用するプロセスの中でユーザー自身が情報を漏洩させてしまうリスクが高い点が特徴です。

入力データがAIモデルの再学習に使われて他者へ出力される

生成AIのリスクは、ユーザーが入力した情報自体がAIモデルの精度向上のための学習データとして取り込まれてしまう点にあります。

例えば、社員が業務効率化のために会議の議事録要約やプログラムコードのデバッグを生成AIに依頼したとしましょう。このとき、入力内容に含まれる未公開の製品名や顧客名、社内コードなどの機密情報がAIのデータベースに蓄積されます。

結果として、競合他社や悪意ある第三者が関連する質問をした際にAIが学習した機密情報を回答の一部として生成・出力される可能性があります。ユーザーに悪意がなくても、仕様を理解していないだけで発生する意図しない情報漏洩の典型例です。

サーバー上のチャット履歴が保存されて不正アクセスや閲覧の対象になる

もう1つのリスクは、クラウド上に保存されるチャット履歴そのものが流出してしまう危険性です。多くの生成AIサービスでは、利便性向上のために過去の対話履歴をサーバー側に保存します。

保存データに対して外部からのサイバー攻撃や不正アクセスが行われた場合、機密情報を丸ごと窃取されてしまうのが懸念点です。

また、サービス提供側のシステムバグや設定ミスで本来閲覧権限のない第三者にチャット履歴が表示されてしまう事故も実際に発生しています。たとえAIの学習機能をオフにしていても、データがサーバーに残っている限り漏洩リスクはゼロにはなりません。

参考:ChatGPTで他人のチャットタイトルや支払先住所、メアドなどが漏洩|PC Watch

生成AIに関連する情報漏洩・セキュリティ事故の事例

生成AIに関連する情報漏洩・セキュリティ事故の事例として、以下の2点を紹介します。

  • 大手電子機器企業における情報漏洩
  • 大手生成AIサービスにおける情報漏洩

これらは、ユーザー側の不注意とシステム側の不具合という企業が直面しうる2大リスクを象徴する事例です。

大手電子機器企業における機密情報の入力

2023年3月、大手総合家電メーカーの半導体部門において生成AIの利用による情報漏洩事故が発生しました。現地報道によると社内での生成AI利用解禁直後に3件のインシデントが確認されており、以下の行為が原因であるとされています。

  • 設備情報のデータベースに関連するソースコードをエンジニアが生成AIに入力して修正を依頼した
  • 重要会議の録音データをテキスト変換し、要約を作成させるために議事録をそのまま生成AIにアップロードした

これらの入力データはすべて生成AIサービスのサーバーに送信され、社外へ機密情報が流出する事態となりました。事態を重く見た同社は生成AIの利用を一時的に禁止し、独自のAIツール開発へ舵を切るなどセキュリティ体制の再構築を余儀なくされました。

大手生成AIサービスにおける他者履歴の表示

サービス提供側の不具合による漏洩事例として、2023年3月に生成AIサービスで発生したインシデントが挙げられます。具体的には、一部のユーザーのチャット履歴欄にまったく面識のない他人のチャット履歴タイトルが表示される不具合が発生しました。

さらに深刻だったのは有料会員の氏名やメールアドレス、クレジットカード情報の一部が別のユーザーから閲覧可能な状態になっていた点です。サービス提供側の公表によると、影響を受けたのは特定の9時間の間にアクティブであった有料会員の約1.2%に及ぶとされています。

本事故は、利用するクラウドサービス自体の脆弱性によって情報が漏洩するリスクがある事実を世界中に知らしめました。

企業が実施すべき生成AIの情報漏洩対策【技術・システム編】

企業が実施すべき生成AIの情報漏洩対策として、技術・システムの観点では以下の3つが挙げられます。

  • オプトアウト設定の徹底
  • API利用や法人プランの導入
  • DLP(情報漏洩対策)ツールの活用

これらを組み合わせれば、うっかりミスや内部不正によるデータ流出をシステム的に未然に防げます。ただし、技術だけではカバーしきれない運用面のリスクを排除するためには以下で解説するルール整備との両輪での対策が不可欠です。

オプトアウト設定の徹底

最も即効性のある対策は、生成AIサービスのオプトアウト(学習拒否)設定を有効化することです。生成AIサービスには、ユーザーの入力データをAIモデルのトレーニングに使用しないよう設定する機能が備わっています。

例えばChatGPTの場合は設定メニューの「データコントロール」から学習機能のオフ設定が可能です。

なお、個人アカウントごとにオプトアウトの設定を委ねると設定漏れや無断変更のリスクが残ります。そのため、企業として導入する際はIT管理者が一括でポリシーを適用できる管理コンソール機能を備えたサービスを選定しましょう。

もしくは、MDM(モバイルデバイス管理)ツールなどでブラウザ設定を制御する運用が求められます。

API利用や法人プランの導入

無料版や個人向けプランではなく、セキュリティが保証された法人向けプランやAPIを利用するのがセキュリティ対策として有効です。

OpenAI社のAPIや「ChatGPT Enterprise」などの企業向けプランでは、入力されたデータがAIモデルの学習に利用されないことが利用規約で明記されています。

特に、APIを経由して自社の社内システムに生成AIを組み込む形式であれば、データの保持期間やアクセス権限を自社側で細かくコントロール可能です。

そのため、セキュリティレベルを通常の生成AI利用よりも格段に高められます。APIや企業向けプランはコストがかかるものの、情報漏洩による損害リスクを考慮すれば、必要不可欠な投資と言えます。

参考:
OpenAI におけるエンタープライズプライバシー|OpenAI
Data controls in the OpenAI platform|OpenAI

DLP(情報漏洩対策)ツールの活用

システムによる監視体制として、DLPツールの導入が効果的です。最新のDLPツールには、生成AIへのアクセスを可視化・制御する機能が搭載され始めています。本機能を活用すれば、社員が生成AIの入力フォームに特定の機密キーワードを入力しようとした瞬間に警告・ブロックが可能です。

また、AIの安全装置を突破しようとするサイバー攻撃を含んだ不審なアクティビティを検知し、ログとして記録する機能をもつツールもあります。ルールだけでは防ぎきれないうっかりミスや内部不正を技術的にブロックする最後の砦として機能します。

企業が実施すべき生成AIの情報漏洩対策【ルール・組織編】

企業が実施すべき生成AIの情報漏洩対策として、ルール・組織の観点では以下の2つが挙げられます。

  • 生成AI利用ガイドラインの策定
  • 従業員リテラシー教育の実施

システムがいかに堅牢でも、最終的にツールを扱うのは人です。ルールを形骸化させず、組織全体でセキュリティ意識を底上げする継続的な取り組みこそが情報漏洩を防ぐ最後の砦となります。

生成AI利用ガイドラインの策定

生成AIを業務で安全に使うための明確な利用ガイドラインを策定し、全社員に周知徹底しましょう。経済産業省が公開しているAI事業者ガイドラインなどを参考に、以下の項目を具体的に定めることが重要です。

  • 個人情報(顧客名、連絡先)、機密情報(未発表製品の仕様、パスワード、ソースコード)など入力してはいけない情報のリストを作成する
  • 会社が許可したツール以外の利用(シャドーIT)を禁止する
  • AIが出力した情報のファクトチェックの義務化や著作権侵害リスクへの対応フローを明記する

曖昧なルールは現場の判断ミスを招きます。「個人名はイニシャルに変換してから入力するなら可」など、実務に即した具体的な運用ルールを設けることが必要になります。

参考:AI事業者ガイドライン|経済産業省

従業員リテラシー教育の実施

どれほど優れたシステムやガイドラインがあっても、従業員のリテラシーが低ければ情報漏洩は防げません。そのため、定期的なセキュリティ研修の中に生成AI特有のリスクに関するカリキュラムを組み込みましょう。

具体的には、「なぜ入力データが漏洩するのか」という仕組みや実際に生成AIで起きた情報漏洩の事例を共有するのがおすすめです。

また、AI技術は進化が速いため、最新の事故事例や新機能のリスクについて継続的に情報をアップデートし続ける体制づくりも求められます。

生成AIに関して、IT部門からの定期的なニュースレター配信や注意喚起のアラートも有効な手段となります。

生成AIの情報漏洩リスクは技術的対策とガイドラインで回避しよう

生成AIは業務効率化の有効な手段となる一方、入力データがAIの学習に利用されるなど新たな情報漏洩リスクもはらんでいます。実際に企業でのソースコード流出やサービス側の不具合による個人情報漏洩も発生しており、企業にとって対策は急務です。

生成AIを安全に活用するためには、技術と組織の両輪での対策が不可欠です。技術面では、学習機能を無効にするオプトアウト設定や機密性を担保した法人プラン・APIの導入、DLPツールの活用が有効です。

組織面では、具体的な入力禁止事項を定めたガイドラインの策定と従業員への継続的なリテラシー教育が求められます。生成AIを利用するリスクを正しく管理し、業務効率化などの恩恵を最大化して企業の生産性向上につなげましょう。