はじめに
近年、サステナビリティは企業や社会における重要なテーマとして定着し、サステナブル投資や脱炭素経営などの取り組みが広がっています。一方で、普段携わっている業務や技術がサステナビリティとどのように結び付くのか、どのように活かしていけるのかを具体的にイメージしづらい方も多いのではないでしょうか。
この連載では、「技術」観点で、テクノロジー×サステナビリティのトレンドや具体事例などを紹介します。2025年度は全5つの技術テーマを取り上げる予定であり、今回は生成AIをテーマに、AIガバナンスの重要性に注目します。
生成AIは、大規模言語モデル(LLM)の進化により、業務や生活に急速に浸透しています。業務効率化や情報アクセスの向上にとどまらず、適切に活用することで社会や環境への貢献も期待される技術です。
一方で、生成AIの利用により、フェイクコンテンツの拡散や著作権侵害、情報漏えいなどのリスクも顕在化しており、社会や企業に対する信頼が損なわれる懸念も指摘されています。こうした課題に対応するためには、倫理原則や法規制、技術対策、監査やモニタリングといったAIガバナンスの整備が重要です。これらのAIガバナンスの取り組みは、お客さまや社会が安心してAIを活用し、持続的な成長を支えるために欠かせない要素となります。
本記事では、生成AIの進化と社会的な課題を踏まえ、生成AIとサステナビリティをかけ合わせたトレンドや事例を取り上げながら、AIガバナンスの実践的アプローチについて紹介していきます。
生成AIのトレンド
生成AI市場は急速に拡大しており、2033年には世界規模が約1,384億ドルに達する見込みです(※1)。商業、産業、個人の各領域で活用が進んでおり、例えば、チャットボットによる顧客対応、製造業での製品設計の支援や保守の予測、個人の創作活動や学習支援など、生成AIの活用は多様なユースケースへと広がっています。 こうした活用の拡大に伴い、倫理的な課題や誤用リスクの顕在化、法規制の強化、社会的責任への関心の高まりといった動きも見られます。これによりAIガバナンス関連の製品やサービスへの需要が拡大しており、AIガバナンス市場は2032年には約267億ドルに成長すると予測されています(※2)。
多くの企業が生成AIに対して業務効率化やイノベーション創出への期待を示す一方、権利侵害や倫理的リスクへの懸念も強く持っています。こうした状況を受け、国内外でAI政策の整備が進んでいます。2023年にはG7広島サミットで「広島AIプロセス」が採択され、国際的なAIガバナンスの方向性が共有されました。また、2024年には安全、安心で信頼できるAIの実現を目指す自主的な枠組みである「広島AIプロセス・フレンズグループ」が日本主導で設立され、国際的なAIガバナンスに関する多国間対話が進められています。
国際的な枠組みづくりが進む中、各国でも独自の政策や法制度の整備が進められています。日本では、2024年に経済産業省と総務省が「AI事業者ガイドライン」を策定し、2025年には国際ルールとの整合性を踏まえた改訂版が公表されました。また、同年に「人工知能関連技術の研究開発および活用の推進に関する法律(AI法)」が成立し、イノベーション促進とAI活用に伴うリスク対応の両立を目指す基本施策が示されています。アメリカでは、2023年にAIの安心・安全で信頼できる開発と利用に関する大統領令が発令されましたが、2025年に発足したトランプ政権は規制緩和を進め、イノベーションの促進と経済競争力の強化を重視し、民間主導でのAI開発を推進する姿勢を示しています。EUでは、世界に先駆けて包括的な「AI規制法」が2024年に成立し、特に高い影響力を有する汎用AI(※3)モデルについては、透明性の確保やAI生成コンテンツであることを明示する措置といった義務が課され、一層厳格な評価義務やリスク管理体制の構築が求められています。
このように、各国は生成AIの急速な発展に対応し、それぞれの方針に基づいて法制度やガイドラインの整備、あるいは見直しを進めています。企業や開発者はこれらの動向を的確に捉え、国際的なルール形成に対応しながら、責任あるAI活用を進めていくことが求められています。
https://www.businessresearchinsights.com/market-reports/generative-ai-market-118946
https://www.businessresearchinsights.com/market-reports/ai-governance-market-117313
広範なタスクを学習、実行可能で他のAIシステムに統合可能なAI。生成AIもこれに含まれる。
NTT DATAの生成AIにおける取り組み
次に、NTT DATAでの生成AIの取り組みを紹介します。NTT DATAでは、生成AIによるビジネス変革を推進するため、「積極的なAI活用の推進」と「ガバナンスの徹底」の両輪で取り組んでいます。「積極的なAI活用の推進」では、生成AI技術を最大限に活用し、ビジネスや社会における価値を創出します。「ガバナンスの徹底」では、生成AI活用における透明性や公平性、安全性を確保するために、検知、評価、対応、予防の4つのプロセスを継続的に実施しています。
ここで、NTT DATAがお客さまのAIガバナンスを支えるための具体的な取り組みの一つである、「AIレッドチームによる専門的支援」を紹介します。これは、生成AIの予期せぬ振る舞いやリスクを利用者視点で評価する手法で、従来のガイドラインやルールでは捉えきれないリスクに対応するものです。生成AIに対してあえて「意地悪な入力」を与えたりルールの隙間を突く問いを試したりすることで、モデルやシステムがはらむリスクを発見し、評価します。
NTT DATAのAIレッドチームサービスは、モデル選定支援、プロンプト設計支援、リリース前の安全性確認など、さまざまな利用シーンに対応し、検証環境の準備から試験実施、評価レポートの作成までを一貫して提供します。特に、日本語特有のリスクへの対応、複数のモデルやシステム設計の違いを比較した最適な構成の提言、リスクの評価に基づく具体的な改善策の提案といった、3つの観点を重視した支援を行っています。詳細についてはこちらの記事(※4)をご覧ください。
また、りそなホールディングスとの協業ではAIガイドラインの策定、リスクチェックプロセスの構築、教育コンテンツの整備を通じて、現場に根ざしたガバナンス体制の整備を支援しました。詳細についてはこちらの記事(※5)をご覧ください。
https://www.nttdata.com/jp/ja/trends/data-insight/2025/0904/
https://www.nttdata.com/jp/ja/trends/data-insight/2025/0707/
おわりに
「テクノロジー×サステナビリティ2025」と題して、連載の第1回では、生成AIとサステナビリティの関係を、AIガバナンスを主軸に解説しました。冒頭でも述べた通り、生成AIは、業務効率化や情報アクセスの向上だけでなく、適切に活用することで社会や環境への貢献も期待される技術です。一方で、フェイクコンテンツや情報漏えいなどのリスクも顕在化しており、信頼性の確保が重要なテーマとなっています。
NTT DATAでは、こうした生成AIの可能性と課題の両面に向き合いながら、技術活用とガバナンスを両立させた取り組みを進めています。ガバナンス体制の構築は生成AIを安心して活用できる環境づくりに繋がり、持続可能な社会の実現にも寄与します。
ホワイトペーパーでは本記事で紹介した内容の詳細に加え、生成AIの他社での導入事例の詳細についてもまとめています(※6)。
図:ホワイトペーパーの構成
NTT DATAでは、2024年度に引き続き、「普段活用している技術がサステナビリティにどのように関連するのかを知り、より身近に感じること」を目的として、2025年度では全5つの技術テーマについてホワイトペーパーを公開する予定です。 2025年度は最新の知見や業界動向を踏まえて情報をアップデートするとともに、サステナビリティの観点からその活用方法や運用のあり方を再考していきます。
次回以降、データ連携基盤やデジタルヒューマン、衛星といったテーマについて取り上げる予定です。ご期待ください。


生成AI(Generative AI)についてはこちら:
https://www.nttdata.com/jp/ja/services/generative-ai/
サステナビリティについてはこちら:
https://www.nttdata.com/global/ja/about-us/sustainability/
あわせて読みたい: