NTT DATA

DATA INSIGHT

NTT DATAの「知見」と「先見」を社会へ届けるメディア

キーワードで探す
カテゴリで探す
サービスで探す
業種で探す
トピックで探す
キーワードで探す
カテゴリで探す
サービスで探す
業種で探す
トピックで探す
2025.7.3技術トレンド/展望

情報漏洩?企業における生成AI活用の落とし穴

近年、多くの企業で生成AIの導入が進み、業務効率や生産性の向上が図られている。特に文書作成、情報整理、顧客対応などの分野で有効性が認められ、活用の幅は急速に広がっている。一方で、生成AIの利用に伴い、機密情報の誤入力や意図しない情報漏洩といったセキュリティリスクも顕在化してきた。このような状況を踏まえ、生成AIを安全かつ適切に活用するためには、リスクの把握と明確な対策方針の策定が不可欠である。そこで、本記事では企業が生成AIを利用する際の主なセキュリティリスクと、それに対する基本的な対策方針について示す。
目次

1.生成AIを社内で利用する際の課題

1-1.生成AIの利便性と情報セキュリティリスク
生成AIは多くの企業によって活用されており、生産性の向上が期待されます。一方で新たな情報セキュリティリスクが顕在化しています(※1)。過去には、大手電子機器メーカーの従業員がChatGPTに社内の機密情報を入力したことにより、情報漏洩が発生しました(※2)。こうしたセキュリティインシデント事例は、生成AIの利便性の裏に潜むセキュリティリスクが、企業の信用や業務成果に深刻な影響を及ぼす可能性を示唆しています。実際にこのようなリスクを懸念して、生成AIの使用を全面的に禁止している企業も存在しています。

当社が世界各国の大企業を対象に生成AIの活用に関する調査を実施した結果(※1)によると、経営幹部の95%が「生成AIが生産性の向上に大きな影響を与える」と回答したのに対し、同時に経営幹部の89%は「生成AIの導入に伴う潜在的なセキュリティリスクを懸念している」と回答しています。企業のCISOやセキュリティ実務担当者に求められるのは、生成AIの利便性とリスクのバランスを的確に見極めたうえで、実情に応じた適切な対策を講じることです。

1-2.本稿の目的
本稿では、生成AIの利活用に伴って発生する情報セキュリティリスクに焦点を当て、企業が取るべき対策を整理します。まず、代表的なリスクを示し、次にそれらのリスクに対する人的および技術的対策を解説します。加えて、利便性と安全性を両立させるための視点や考え方を提示し、NTT DATAが企業の生成AI活用におけるベストパートナーとして果たす役割についても述べます。

2.生成AIのセキュリティリスクと企業が取るべき対策

2-1.生成AIに伴う情報セキュリティリスク
基本となる情報セキュリティの要素として「機密性」「完全性」「可用性」の3要素がISO/IEC(国際標準化機構/国際電気標準会議)によって定義されており、「否認防止」、「責任追跡性」、「真正性」および「信頼性」を含めた計7要素が情報セキュリティの要素として定義されています(※3)(※4)。本節では、その中でも企業の生成AI活用において特に実務上の影響が大きい要素に焦点を当て、関連するリスクを分類し、代表的な例とそれに対応する図を示します。

図:企業内で生成AIを利用する際に直面する代表的なセキュリティリスク

2-1-1.機密性:機密情報の外部漏洩
生成AIへの機密情報の入力により、会社内部の機密情報がサービス提供者や社内外の他のユーザーに流出するリスクが存在します。また、利用者による入力だけでなく、コネクタ(MCP)などを介したシステム間通信により、意図せず機密情報が生成AIに漏洩する可能性もあります。

2-1-2.完全性:情報の改ざんや喪失
プロンプトインジェクションや学習データの汚染(データポイズニング)など、社内外からの攻撃によってシステム内の情報が改ざん・喪失するリスクも存在します。

2-1-3.可用性:サービス障害による業務影響
生成AIへの業務依存が進むことで、外部サービスの障害や停止、仕様変更に加え、生成AIの停止を狙った攻撃や、過剰なアクセスによるリソースひっ迫といった要因により業務の遅延や停止を引き起こす可能性があります。

2-1-4.否認防止:操作履歴の不透明性
生成AIサービスでは、ユーザーの操作履歴や入出力内容の記録が不十分な場合があり、インシデント発生時に誰が何を行ったかを特定することが困難になる可能性があります。

2-1-5.責任追跡性:ガバナンスの曖昧化
生成AIの利用が部門ごとに独自に進められ、組織全体での統制が取れていない場合、利用実態の把握が難しくなり、インシデント発生時の責任の所在が不明確になるリスクがあります。特に、社内での承認を得ずに利用されるシャドーAIの存在は、ガバナンスの曖昧化を一層深刻にします。

企業が生成AIを利活用する際には、これらの観点を踏まえた包括的な対策が必要となります。また、本稿では生成AI特有のセキュリティリスクを中心に取り上げていますが、生成AIの出力内容の正確性、いわゆるハルシネーションだけでなく、コンプライアンス違反や倫理的に不適切な出力などにも注意するべきです。生成AIからの不適切な出力内容を含む成果物が社内外に拡散することで、業務判断の誤りや顧客・取引先、その他ステークホルダからの信頼低下といったビジネスリスクにつながります。必要に応じて対策の検討対象に含めるとよいでしょう。

2-2.人的対策
情報セキュリティリスクへの対処は、まず人の行動を適切に制御することから始まります。生成AIは入力する情報の選定や出力結果の評価・判断といった重要な工程を利用者に委ねる構造であるため、従業員一人ひとりの知識と行動がセキュリティに大きく影響します。人的対策が機能しなければ、システムで制御したとしても効果を発揮しないおそれがあります。本節では、生成AIの利活用における代表的な人的対策について4つの観点から整理してご紹介します。

2-2-1.利用ガイドラインの策定と徹底
入力してよい情報の範囲や、生成された結果の活用方法については、個人の裁量に任せるのではなく、明文化されたルールに基づいて判断されるべきです。策定したルールは、社内ポータルや研修を通じて周知し、運用を徹底する仕組みを整える必要があります。

2-2-2.利用対象者の明確化と責任の認識
生成AIの利用においては、業務内容やリスクの性質に応じて対象者を明確にすることが重要です。誰がどの範囲で利用できるかを整理し、役職や業務内容に応じて必要な権限と責任を割り当てることで、組織としての統制が強化されます。こうした役割の明確化は、想定外の利用や不適切な情報の取り扱いを未然に防ぐ手立てとなります。

2-2-3.教育・啓発活動の実施
生成AIは非常に便利である一方で、その内容を無批判に受け入れてしまう危険性があります。利用者がハルシネーションの存在や生成内容の不確実性を十分に理解しないまま使用した場合、意図せず誤った情報を社外に発信してしまう可能性もあります。そのため、具体的な失敗事例や最新の注意点を社内で共有し、リスクを「自分ごと」として認識させるような啓発活動が必要です。

2-2-4.適切な利用選択
生成AIはあらゆる業務に必ずしも必要なものではなく、利用しないという判断が妥当な場面もあります。こうした判断を現場の利用者自身が適切に下せるようにするには、リスクの理解やガイドラインの周知に加え、判断に迷った際に相談できる体制や基準を整えておくことが重要です。従業員が「どの場面で使うべきか、使わないべきか」を自律的に判断できるようにすることが、人的対策としての理想的な状態です。

2-3.技術的対策
人的対策が機能していたとしても、それだけでリスクを完全に排除することはできません。特に、生成AIのように外部サービスと密接に関わる技術においては、システム的な制御やガードレールの導入が、リスクを軽減するうえで重要な鍵となります。本節では、実際に企業で導入が進められている代表的な技術的対策を4つご紹介します。

2-3-1.入出力における情報制御と漏洩防止
DLP(Data Loss Prevention)を導入することで、生成AIに対する入力前の機密情報検出や送信制御が可能になります。最近では、プロンプト全体の文脈を解析し、単なるキーワードマッチングではなく、意味に基づいて機密情報かどうかを判断できるソリューションも登場しており、生成AIへの入力に特化した情報漏洩対策として有効です。さらに、入力・出力の双方に対してフィルタリング機能を適用することで、個人情報や差別的表現、不正確な出力などをルールベースで制御することが可能です。これらの機能は、利用者の判断に依存せず、情報漏洩や誤用のリスクを低減するうえで有効な対策となります。

2-3-2.アクセス制御と利用制限の強化
プロキシ、ファイアウォール、CASB(Cloud Access Security Broker)などの仕組みにより、生成AIサービスへのアクセス制御と利用状況の可視化を行うことができます。これにより、特定のサービスのみを許可したり、部門や時間帯ごとの利用制限を設けたりすることで、業務に応じた柔軟なリスク低減が可能となります。このような外部連携の入口管理は、生成AIに限らずSaaS全般に通じる重要な統制施策であり、企業全体のAIガバナンスの一部として位置づけられるべきです。

2-3-3.社内専用の生成AI環境の整備
より高度なセキュリティ要件に対応するには、社内または閉域ネットワーク上に構築した生成AI環境の活用が有効です。オンプレミスやプライベートクラウド内のAI基盤を活用することで、外部の生成AIサービスに業務データが送信されるリスクを排除し、ログやアクセスを含めた一元的な管理が可能となります。こうした環境では、自社のポリシーに即したカスタマイズが行えるため、重要業務への活用にも適しています。

2-3-4.出力物への識別情報付与とトレーサビリティの確保
生成AIが出力したコンテンツが既存の社内資料と混在し、出所が不明確になる混乱を防ぐため、出力物に識別情報を自動的に付与する仕組みを導入しAI生成物である旨を明示できるようにします。あわせて、生成AIの利用状況を可視化し、誰が・いつ・どこに・どのようなプロンプトで出力を行ったかというログを取得・保管し、後から出力元を追跡できるようにすることで、説明責任の確保と再発防止に貢献できます。

(※3)ISO, ISO/IEC 27000:2018

https://www.iso.org/standard/73906.html

3.おわりに

3-1.生成AI活用におけるセキュリティ対策
生成AIの活用において、セキュリティ対策は前提条件であり、欠かすことはできません。ルール整備やアクセス制御、ログ管理などの取り組みは、安全な利活用を支える基盤であり、活用を妨げる制限ではなく、組織が安心して使い続けるための投資と考えるべきです。人的・技術的対策を組み合わせ、社員全員が共通のセキュリティ意識を持つことが重要です。ただし、すべてのリスクに対策を講じることが最善とは限りません。利便性と安全性にはトレードオフの関係があるため、目的や業務に応じて適切なバランスを見極めることが求められます。

3-2.NTT DATAとしての支援
NTT DATAは、ゼロトラストセキュリティ(※5)やUnifiedMDR® for Cyber Resilience(※6)など、コンサルティングから構築・運用までを一貫して提供するセキュリティサービスを展開してきました。これらの経験に加え、社内外における生成AIの活用と対策に関する知見を踏まえ、生成AIの安全な利活用に向けて、ガイドライン策定、ガバナンス設計、技術選定、導入・運用支援までを包括的にサポートします。
また、本稿で挙げたリスクは、生成AIの活用に伴う代表的なものであり、すべての企業に一様に当てはまるとは限りません。実際には、業種や業務プロセス、組織文化などによって、リスクの現れ方や優先度は大きく異なります。NTT DATAは、そうした違いを丁寧に見極めるところから支援を開始し、お客様固有の業務やリスクに即した最適な対策を一緒に構築してまいります。
今後も、お客様とともに成長し、変化する課題にも柔軟に対応できる体制を築いてまいります。

(※5)NTTデータ,ゼロトラスト

https://www.nttdata.com/jp/ja/services/security/zerotrust/

(※6)NTTデータ,UnifiedMDR® for Cyber Resilience

https://www.nttdata.com/jp/ja/lineup/unifiedmdr/

記事の内容に関するご依頼やご相談は、こちらからお問い合わせください。

お問い合わせ