- 目次
1.AIの進化と企業活用の現状
近年のAIの進化は著しく、特に大規模言語モデル(LLM)を含む生成AIの登場により、自然な対話文の生成、文章の要約・翻訳、画像や音声の創出、さらにはプログラムコードの自動生成といった高度な知的作業をAIが担える水準に達しつつあります。これまで人手に依存していたホワイトカラー業務の一部が、AIにより効率化・自動化され、企業における生産性向上や業務変革への期待が急速に高まっています。
2024年の国内調査によると、生成AIを活用する企業は2023年には9.9%にとどまっていましたが、わずか1年で15.9ポイント伸長し2024年には25.8%に達しました(※1)。また別の調査では、導入企業の約9割が何らかの効果を実感している(※2)とされており、業界を問わずAIが本格的な実装フェーズへ移行しつつあることが伺えます。
一方で、精度のばらつき、アルゴリズム偏見、情報漏洩リスクといった課題は依然として大きい状況です。特に人命や社会インフラに関わる領域では、誤判断が重大事故を招く恐れがあるため、慎重な姿勢を崩さない企業も多くあります。実際、2023年前後には生成AIの利用を一時的に制限する事例も散見されました。
現在、企業はガバナンスと価値創出の両立に向けて動き始めています。2024年には半数超の企業がAI活用ポリシーやリスク管理フレームワークの整備に着手しており、業務適用におけるチェックポイントや監査プロセスの明確化が進んでいます(※2)。優れた性能への期待と信頼性・安全性への不安が交錯する中で、各企業は「どのAIを、どのリスク対策と組み合わせて導入するか」というポートフォリオ思考で意思決定を迫られているのです。
株式会社矢野経済研究所プレスリリース「国内生成AIの利用実態に関する法人アンケート調査を実施」(2025年4月18日)
株式会社帝国データバンク「TDB Business View(生成AIの活用状況調査)」(2024年8月1日)
2.技術の民主化がもたらす業務革新
AIの進化は「技術の民主化」を加速させています。これまで専門部門のエンジニアに限られていた高度なAI機能が一般のビジネス現場にも広まりつつあり、特定の専門家以外の社員でも対話型AIを活用して高度な情報やスキルにアクセスできるようになりました。例えば、従来は専門知識を要したデータ分析や翻訳・要約業務を、営業や企画部門の社員がAIツールを用いて自ら実施できるようになるなど、部門や役割の壁を超えた業務革新が起きています。
実際、ソフトウェア開発ではコードの自動生成やテストの自動化、工場では異常検知や予兆保全、バックオフィスではRPA的なホワイトカラー業務の効率化など、多様な領域でAIが従来のやり方に変革をもたらしています。AIは高度な技術スキルを必要とせず誰もが活用できることから、知識やスキルの公平なアクセスを実現しているのです。これにより従業員一人ひとりの生産性向上やイノベーション創出が期待できると同時に、組織内でのAI活用の内製化・分散化が進み、現場発のアイデアがビジネスに反映されやすくなっています。
もっとも、このような民主化には新たな課題も伴います。ITリテラシーやAIの仕組みに明るくなくとも社員誰もが強力なAIを容易に活用できる反面、必要なガードレール(安全策)を伴わなければリスクの増大につながりかねません。言い換えれば「誰でも使えるからこそ、誰でも間違いを犯しうる」時代であり、これを支えるガバナンス(統制)の重要性が一層高まっているのです。次章では、このリスクと統制の問題について掘り下げます。
3.AI活用における主なリスクと統制の必要性
AIは便利で強力な技術であるが、その裏には多様なリスクが潜んでいます。
これらのリスクを正しく認識し、適切に統制することが、AIを安心・安全に活用するための前提となります。
以下に、AI活用における主な5つのリスクを示します。
AI活用に伴う主な5つのリスク
- (1)ハルシネーション
事実と異なる内容をAIがもっともらしく生成してしまう現象であり、判断ミスや誤情報拡散を招く。 - (2)情報漏洩
AIの利用を通じて、社内機密や個人情報が外部に流出してしまう恐れがある。 - (3)プロンプトインジェクション
ユーザー以外の悪意ある指示がAIに埋め込まれ、意図しない動作や情報漏洩を引き起こす。 - (4)利用者リテラシー不足
AIの仕組みや限界を理解せずに使うことで、誤った判断や情報拡散などの問題を引き起こす。 - (5)著作権・プライバシー侵害
AIが学習や出力に他人の著作物や個人情報を無断で使用し、著作権やプライバシーを侵害する。
これらのリスクの影響範囲と深刻度は、AIの利用用途や展開レベルによって増大します。個人の業務補助的な利用から、社内システムとしての組織的活用、さらに顧客向けサービスとしての提供へとレベルが進むにつれて、事故発生時の影響は大きくなり、求められる統制も高度化します。下図1は、AI活用レベル別にリスク要因とリスク量を整理したものです。レベルが上がるにつれてリスク(小・中・大)も増すことから、AI活用の深度に応じた適切なリスク対策が不可欠です。

図1:AI導入レベルとリスクの関係
上記のとおりリスク要因は多岐にわたりますが、適切に統制(コントロール)すればリスクは軽減可能です。重要なのは、リスクを恐れてAI活用そのものを止めてしまうのではなく、リスクを正しく認識・評価した上で受容可能な範囲にコントロールすることです。例えばAIの出力に人間がレビューを行う、機密データは入力させない、利用可能なAIツールを社内でホワイトリスト化する、といった対策を講じることによりリスクを大幅に低減できます。
実際、米国では政府機関と民間企業の協力によりAIリスク管理フレームワーク(AI RMF)が策定され、企業による自主的なリスク対策が促進されています。AIを活用する上で「リスク管理」は避けて通れない経営課題であり、十分な統制こそが安心・安全なAI利活用の前提条件となるのです。
4.世界のAI規制・ガバナンス動向と日本の対応状況
本章では、EU(欧州連合)、米国、日本におけるAI規制とガバナンス動向を比較し、それぞれの特徴的なアプローチや制度設計を整理します(図2)。

図2:AIをめぐる主要法制度の国際比較
EUのAI法(AI Act)と生成AIへの規制:リスク分類による厳格な対応
生成AIを含むAIの急速な普及に対応し、世界各国でAI規制やガバナンスに関する枠組み整備が進んでいます。中でも先行しているのがEU(欧州連合)です。EUでは包括的な法規制であるAI法(AI Act)が審議され、2024年に成立・発効、2025年以降段階的に適用される見通しです。AI法では、リスクの程度に応じてAIシステムを4分類(1.許容できないリスク、2.高いリスク、3.限定的なリスク、4.最小限のリスク)しています(図3)。

図3:AI法におけるAIシステムの4つのリスク分類(A risk-based approach)
【出所】
European Commission Webサイト“Shaping Europe’s digital future”
例えば人権侵害の恐れがある「許容できないリスク」を含むAIは全面禁止、「高いリスク」を含むAIには厳格管理義務が課されます。また、生成AIに対しても、生成コンテンツである旨の明示や、生成物に含まれる著作物に関する情報開示の義務が追加されました。違反企業には全世界売上高の最大7%または3,500万ユーロ以下(※3)という厳しい罰金が科され、EU域外の企業であってもEU市場にAIシステムを提供する場合は適用対象となります。まさにグローバル企業にとって無視できないインパクトを持つ規制といえるのです。
米国のAIガバナンス:大統領令・州法・自主規制による柔軟なアプローチ
一方、米国にはEUのような包括的AI法は現時点で存在しませんが、2023年10月にバイデン政権下で「安全で信頼できるAI開発・利用に関する大統領令」(EO 14110)が発出され、官民にまたがる包括的施策が打ち出されました。内容は「AIの安全基準策定」、「プライバシー保護」、「公平性と市民権の保障」、「消費者や労働者の権利保護」、「連邦政府でのAI活用指針」、「国際的リーダーシップ確保」など、8つの政策分野にわたり具体策が示されています。
しかし、その後の2025年1月に発足したトランプ政権は、就任当日にEO14110を撤回し、「アメリカのAIリーダーシップを阻む障壁の撤廃に関する大統領令」を発出しました。新令では「過度な規制の回避」と「経済競争力・国家安全保障の強化」を掲げ、前政権の「安全かつ信頼できるAI」の路線を大きく転換しました。これにより、主要AI企業のレッドチーム(※4)結果提出義務やクラウド事業者のモデル情報開示ルールは「企業負担が過剰」として停止されています。政策方針は流動的であり、今後の動向を注視する必要があります。
連邦レベルでは包括法が依然存在しないものの、州独自の立法は拡大しています。例えばカリフォルニア州ではAI搭載製品の透明性確保を目的とする「AI Transparency Act(2026年施行予定)」が成立しました。また、連邦政府機関のNIST(米国標準技術局)が策定したAIリスクマネジメント・フレームワーク(AI RMF)が、企業の自主的なリスク管理を促すガイドラインとして整備されています。
総じて米国は、法規制でイノベーションを阻害しない柔軟なアプローチを維持しつつ、必要に応じて大統領令や業界の自主規制で対応する姿勢をとっているといえます。
日本のAI特化法とガイドライン:ソフトローから実効的ガバナンスへ
欧米の潮流を受け、日本でもついに法律として具体化されました。2025年5月28日、参議院本会議で国内初のAI特化法「人工知能関連技術の研究開発及び活用の推進に関する法律」(以下、AI推進法)が可決・成立したのです。同法は、生成AIを含むAI技術の「1.研究開発・社会実装の加速(産業振興)」と「2.悪用リスク対策・国民不安の解消」の両立を掲げ、「世界で最もAIを開発・活用しやすい国」を目指す基本理念を宣言しています。
特徴的なのは、規制色を抑えた日本型のアプローチです。民間事業者・研究機関・国民に対しては「AIの安全確保と利活用促進に努めなければならない」という努力義務(協力義務)を課すにとどまり、直接罰則は設けていません。実質的には政府の方針表明と促進策が中心で、法令自体が強制規制として機能するよりも、産業振興とリスク管理の両立を支援する促進フレームとして位置づけられているのです。
司令塔として内閣に「AI戦略本部」が新設され、今後は年次の「AI基本計画」を通じて研究開発投資、人材育成、データ基盤整備、透明性確保、リスク対応ガイドラインなどが具体化される見通しです。これにより、国内でAIを活用し技術革新を加速させるための制度的“土台”が整ったといえます。企業はこうした法制度に基づいた自主的ガバナンス体制の構築と情報開示の強化が求められるようになります。
もっとも、AI技術と市場動向の変化は極めて速いです。AI推進法は基本法的な枠組みにとどまるため、将来的にはガイドラインの強化や実効性担保措置の導入など、動きに応じた改正・運用見直しが不可避となるでしょう。企業・投資家・行政はいずれも、法規制動向や国際動向を継続的にウォッチし、自社のAI戦略とガバナンス体制を柔軟にアップデートしていく必要があります。
さらに、日本政府は民間による自主的なガバナンス構築を促すための指針整備にも注力しています。経済産業省・総務省主導で「AI事業者ガイドライン(※5)」(第1.1版)が2024~2025年に策定され、AIの開発・提供・利用に関わる組織が取るべきリスク管理策を包括的に示しています。特に注目すべきは、本ガイドラインが「アジャイルガバナンス」の考え方を採用している点です。固定的なルールに縛られるのではなく、技術や社会環境の変化に応じて柔軟かつ継続的にガバナンスを見直す仕組みとなっています。このガイドラインでは後述する経営層の役割やAIガバナンス体制のポイントが詳述されており、日本企業にとって実践的な手引きとなっています。
総じて日本は、欧州の厳格な規制と米国の自主性重視の中間を行く「柔軟かつ責任あるAI活用推進」の路線を取っているといえます。企業はこうした政府動向を注視し、自社のAI戦略やガバナンス体制を適合させていく必要があるでしょう。
日本円で約57億5,000万円(1ユーロ163円で換算)
AIシステムに対して意図的に敵対的な入力や操作を行い、システムが不適切な応答(例えば有害コンテンツ、誤情報、バイアス、情報漏洩など)を返すかどうかを検証する専門チーム
経済産業省Webサイト「AI事業事業者ガイドライン」
5.経営層が担うべき役割とAIガバナンス体制の構築ポイント
AIを安全かつ効果的に活用していくには、経営層のリーダーシップの下で適切なAIガバナンスを構築し、リスクをマネジメントしていくことが重要です。生成AIなどの民主化されたAIの出現により、AI導入はもはや単なるITツール選定ではなく経営判断そのものとなっています。にもかかわらず、経営層が明確なAI戦略や方針を示さなければ、現場では「なんとなく不安だから使わない」と委縮し、AIによる生産性向上の機会を逃しかねません。そうならないためには、まず経営トップ自らがAIの可能性とリスクを正しく認識し、「どの程度のリスクなら許容できるか」を明確に決定することが出発点となります。そしてそのリスク許容度に基づき、組織全体で徹底すべきAI利用ポリシーやルールを策定し、トップダウンで浸透させることが求められるのです。
具体的には、社内でAIを利用する際のポリシーやガイドライン(例:機密情報や個人情報は入力しないなどの基本原則)、AIが出力したコンテンツの社内レビュー体制、業務で利用可能なAIツールの承認リストの作成などが考えられます。経営層が主導してこれらルール・体制を整備し、場合によってはAIガバナンス室やAI CoE(Center of Excellence)のような横断組織を設置して運用状況を継続監督するのも有効でしょう。
また、経営層は単に「守り」のルール整備だけでなく、「攻め」の戦略としてAI活用を経営に組み込む視点も求められます。AIガバナンス体制は企業のリスク管理部門や法務・情報セキュリティ部門と連携しつつ、事業戦略部門とも協働して構築されるべきです。設計の具体的なポイントを以下に示します。
AIガバナンス体制構築に向けた3つの実践ステップ
- (1)AI導入におけるリスクの可視化と優先度設定
導入初期に想定されるリスクを洗い出し、影響度を評価するリスクアセスメントを実施し、経営として対応の優先度を定める。 - (2)リスク低減に向けた管理策の策定と実装
リスクを低減するために必要な管理策(例:「高度な機密データはAIに入力しない」、「重要な判断には必ず人間が関与する[ヒューマンインザループ]」など)を決定し、実装する。 - (3)PDCAサイクルによる運用監督と継続的改善
AIの利用状況やリスクインシデントを継続的にモニタリングし、ポリシーの遵守状況を監督するPDCAサイクルを確立する。
日本の「AI事業者ガイドライン」においても、経営層によるガバナンス体制の構築・モニタリングや、組織全体へのAI倫理・リテラシー浸透の重要性が強調されています。要するに、経営層はAI活用の推進者であると同時にリスク管理の責任者として、両面から自社のAI利活用を成功に導く舵取りを行う必要があるのです。
6.責任あるAI活用を確立するための7つの要諦
AIが企業競争力の中核となる時代においては、倫理を基盤とした「責任あるAI活用」こそが市場と社会からの信任を獲得する決定打となります。以下に、企業や組織が実行すべき七つの要諦を示します(図4)。

図4:責任あるAI活用に向けて企業や組織が実行すべき7つの要諦
リスクを恐れて立ち止まるのではなく、ガバナンスと倫理をAI活用の土台とし前進する企業こそがAI時代の勝者となります。AIガバナンス体制の整備に投資することで、企業は中長期的な成長機会を最大化しつつ重大リスクを回避できるのです。その結果として、市場、社会、規制当局の三方から高い信頼を獲得できるでしょう。
リスクを統制できればAIは組織の強力な武器となり、責任ある活用を実現した企業こそが次なる競争を制するのです。ポスト生成AI時代において経営層が果たすべき使命はまさにそこにあります。各企業が競争力の強化と社会的責任の両立を目指し、「攻め」と「守り」のバランスが取れたAI戦略を実践していくことを強く期待しています。
7.おわりに
本稿では、世界のAIガバナンス潮流を踏まえ、AIがもたらす飛躍的な生産性向上の可能性と、その裏側に潜む「品質」、「セキュリティ」、「倫理リスク」を俯瞰し、経営層が主導すべきガバナンスの勘所を整理しました。重要なのは、リスクを“足かせ”ではなく“跳躍台”と捉え、ガバナンスを磨きながら大胆にAIの力を取り込む覚悟です。技術革新と規制環境は日々更新されています。今こそ、自社のガバナンス体制を改めて見直し、迅速に改善へと踏み出すことが求められます。
ポスト生成AI時代の真の勝者は、変化に適応し、リスクを見極め受け入れながらも果敢に挑み続けた企業です。
【経営研レポート】生成AIによる権利侵害に対する諸外国における法制度上の対応(著作権侵害への対応)についてはこちら:
https://www.nttdata-strategy.com/knowledge/reports/2024/240612/
河本敏夫についてはこちら:
https://www.nttdata-strategy.com/consultant/kawamoto-toshio/
あわせて読みたい:
東京海上ホールディングス・東京海上日動システムズ・NTT DATAによるツール評価のアプローチ
環境・経済・社会の繁栄を実現するAI