企業において適切にAIが利活用されるためには、ガバナンスの仕組みとその運用の定着化が必要不可欠です。しかし、AIの急速な進化に加えて、議論が続けられる渦中でのガバナンス策定は簡単ではありません。そこで今回は、AIガバナンスの4つの要素と、実際にガバナンスに取り組む際の基本的な流れを解説します。AIガバナンスの策定は複雑ですが、有識者を交えて進めていくことで、効率的かつ無駄のない取り組みが可能です。本記事を参考に、安心・安全な運用基盤を築いていきましょう。AIガバナンスとはAIガバナンスとは、人工知能(AI)の開発と利用を倫理的・法的・社会的基準に沿って監督・管理し、事故や不適切な活用によるリスクに対策するための管理体制・枠組みのことです。AIは、ビジネスや社会に大きな影響を与える可能性を秘めていますが、同時に予期せぬ結果をもたらすリスクも内在しています。そのため、AIを適切に管理し、人間中心の価値観に基づいて運用することが求められるでしょう。そして、このAIガバナンスを策定するためには、責任あるAIとAI倫理の概念を理解し、それらを組織内で実践していく必要があります。責任あるAIとは責任あるAIとは、従業員や企業に力を与え、顧客や社会に公正な影響を与えるために、善意を持ってAIを設計、開発、展開することを指します。AIは、人間の意思決定を支援し、業務の効率化や新たな価値の創出に貢献しますが、その過程で人間中心であることを忘れてはなりません。責任あるAIの構築には、AIシステムの透明性、説明可能性、公平性、セキュリティ、プライバシー保護などの要素が不可欠です。また、AIの意思決定プロセスを人間が適切に監督し、必要に応じて介入できる仕組みを整えることも重要です。この責任あるAIを実現するには、技術的な側面だけでなく、組織文化や倫理観の醸成も欠かせません。AI倫理とはAI倫理とは、人工知能(AI)の開発や活用において、人間社会の価値観や規範に基づいた判断や行動を促すための指針のことです。AIは、人間の意思決定に大きな影響を与える可能性があるため、倫理的な観点からのガイドラインが必要です。このAI倫理の主な原則には、透明性、公平性、説明責任、プライバシー保護、セキュリティ、人間中心の価値観の尊重などが挙げられます。この原則に基づいて、AIシステムの設計、開発、運用を行うことで社会的に受容され、信頼されるAIの実現が可能です。AI倫理は、責任あるAIの構築の基盤となり、それらを包括的に管理する枠組みとしてAIガバナンスが位置づけられます。このことからAIの健全な発展と社会実装のためには、AI倫理の理解と実践が不可欠です。関連記事:AI倫理とは?重要視される理由とガイドラインの策定例を解説AIガバナンスの策定が必要な理由AIガバナンスの策定が必要な理由は、倫理的な問題やリスクに対応し、コンプライアンスを確保したり、プライバシー侵害、差別、不透明性、セキュリティ脆弱性など、多様なリスクに対応したりする基盤を作るためです。また、AIが人間の意思決定に影響を与える場合、その判断の根拠や公平性が問われます。このことから、AIの倫理原則を定め、システムがその原則に沿って開発・運用されているかを評価し、透明性や説明責任を確保しなければなりません。安心・安全な運用基盤を築くことにつながるAIガバナンスに基づいて、AIシステムのライフサイクル全体を管理することで、安心・安全な運用基盤を築くことができます。システムの開発から運用、利用に至るまでのプロセスを可視化し、管理できるからです。逆に、ガバナンスなしにAIを導入すれば、あらゆる観点で脆弱性を残したままビジネス活動を進めることになりかねません。そのため、AIシステムの開発では、使用するデータの品質や偏りを確認し、モデルの性能や公平性を評価します。そして運用では、AIシステムの動作を監視し、異常や不具合を早期に検知・対応し、利用ではAIシステムの判断結果を人間が確認しつつ最終的な意思決定を行う仕組みが必要です。EUのAI規制法案へ対応できるAIガバナンスの策定を行っておくと、EUのAI規制法案へ対応できることも必要な理由の1つです。執筆時点で、以下の時系列ですでに事実上の実施が決定しています。日付イベント2023年6月欧州連合(EU)欧州議会本会議で「AI規則案」が採択2024年5月21日人工知能(AI)を包括的に規制する規則案(AI法案)が採択このAI法案は、EU官報への掲載から20日後に施行され、2026年(施行から24か月後)から全面的に適用が開始されます。つまり、EU域内でAIシステムを提供する企業は、AI法案の要件に適合する必要があるわけです。EU域内でのAIビジネスを見据えている企業は、AIガバナンスの策定を通じて、AI法案への対応力を高めておくことが肝要です。参考:EU理事会、AI法案を採択、2026年中に全面適用開始へ(EU) | ビジネス短信 ―ジェトロの海外ニュース - ジェトロ経済産業省:AIガバナンスを構成する4つの要素経済産業省は、Society5.0時代のAIガバナンスの全体構造を理解するために、ユニバーサルなフレームワークを参考に、4つの要素から成るガバナンス構造をまとめました。AI原則横断的で中間的なルール個別分野等にフォーカスしたルールモニタリング/エンフォースメントこの4つの要素を理解し、実践することが、AIの安全で信頼できる利活用を実現するためのポイントです。AI原則AIガバナンスの基礎となるのが、AI原則です。このAI原則は、AIシステムの開発と利用において守るべき技術中立的なゴールを定めたものです。主要なAI原則には以下のようなものがあります。AI原則(人間中心の AI 社会原則、OECD の AI 原則等)AI原則から実装へのハイレベルガイダンス(OECD、UNESCO)AI原則から実装への実践的ガイダンス(GPAI)現時点での世界のAI原則は、プライバシー、アカウンタビリティ、安全性とセキュリティ、透明性と説明可能性、公正性と非差別性、人間による技術管理、専門家の責任、人間的な価値の促進といった8つのテーマに区分されています。企業がAIガバナンスを策定する際には、この国際的な区分を参考にすることが有効です。AI原則は、AIシステムが社会に与える影響を考慮し、人間中心の価値観に基づいて策定されています。企業は、自社のビジネスにおけるAIの利用目的や対象者を踏まえ、適切なAI原則を選択して、実践していく必要があります。横断的で中間的なルールAIガバナンスを実現するためには、AI原則だけでなく、横断的で中間的なルールも重要な役割を果たします。このルールには以下のようなものがあります。法的拘束力のある規制法的拘束力のないガイドライン国際標準:ISO/IEC JTC1 SC42、IEEE法的拘束力のないガイドラインは、AIの開発や利用に関する推奨事項や注意点を示すものです。企業は、このガイドラインを参考に、自社のAIガバナンスを構築できます。一方、法的拘束力のある規制は、AIが引き起こす可能性のあるリスクを軽減し、透明性や公正性を保証するために導入されます。特に、欧州委員会がAIに関して横断的な規制を検討しており、リスクベースのアプローチに基づいた規制が議論されているものです。また、国際標準化機関であるISO/IEC JTC1のSC42委員会では、AIの信頼性や透明性などに関する国際標準の策定が進められています。この標準は、AIの品質評価方法やガバナンス、データの取り扱いなどを対象としており、AI技術の健全な発展と国際的な調和を目指しています。企業は、この横断的で中間的なルールを理解し、自社のAIガバナンスに反映させることが求められるでしょう。個別分野等にフォーカスしたルールAIガバナンスを実践するには、個別分野等にフォーカスしたルールも考慮する必要があります。このルールは、特定の利用態様や分野、政府のAI利用などを対象としています。【特定の利用態様の規制】特定の利用態様に対する規制としては、遠隔生体認証と顔認識システムに関する規制が挙げられます。欧州委員会は遠隔生体認証をハイリスクのAI応用と見なし、厳格な規制の枠組みを提案しています。アメリカでも、顔認識技術の商用利用や警察による利用に対する規制が進められており、一部の州や都市では具体的な法律が制定されている状態です。また、AIを利用した採用プロセスに関しても、事前の告知と同意を求める規制が導入されつつあります。【特定の分野における規制】特定の分野における規制としては、自動車分野とヘルスケア分野が注目されています。自動車分野では、自動運転技術に関連する国内外の法規制や国際基準が議論されており、企業はこの動向を注視する必要があります。また、ヘルスケア分野では、AI技術が医療機器規則にどのように反映されるかが予想されており、企業は規制の変化に適切に対応することが求められるでしょう。【政府のAI利用に対する規制】政府のAI利用に対する規制等も重要な要素です。政府がAIを利用する際には、データ倫理フレームワークやAIの倫理と安全性に関するガイドラインに則って、透明性、アカウンタビリティ、品質の確保といった基準を満たすことが求められます。部分的なものですが、個別分野である『実際にAIを使う機能部分』で求められるルールを、自社のAIガバナンスに反映させる必要があると言えるでしょう。モニタリング/エンフォースメントAIガバナンスを実効性のあるものにするためには、モニタリングとエンフォースメントの仕組みが不可欠です。【モニタリングに関して】モニタリングに関しては、ハイリスクAIシステムの提供者が市場監視当局に対して適切な文書記録を提供し、必要に応じて追加の情報を提供する義務があります。これにより、適切なモニタリングと、重大なインシデントの発生に対応した報告が可能です。また、リアルタイムでのモニタリングとその結果に基づく適切な対応も重要です。政府や他のステークホルダーからのフィードバックを通じて、継続的な改善を促すことが求められます。【エンフォースメントに関して】エンフォースメントに関しては、AI規則案に盛り込まれた事前適合性評価が重要な役割を果たします。製品やサービスが市場に出る前に、試験、検査、認証といった手続きを通じて、規制の要件を満たしているかどうかを確認するプロセスなどです。また、AIシステムによる負の影響に対して効果的な法的賠償を提供することも重要です。民事責任の適応についての議論が進んでおり、企業はこの動向を注視する必要があります。AIのエンフォースメント戦略としては、社会的影響やリスクの程度を考慮した適切なインセンティブと制裁を設定することが重要です。AIシステムに関連する不確実性が高い場合においても、企業がリスクを管理し、同時にイノベーションを妨げないようなバランスの取れたアプローチが求められます。AIガバナンスの策定は、非常に複雑で専門的な領域で企業が独自に策定することは、そう簡単ではありません。そのため、AIガバナンスの策定においては、有識者を交えて議論し、効率的かつ無駄のない方法で進めることが重要です。AIガバナンスに取り組む際の基本となる流れAIガバナンスに取り組む際の基本的な流れは、以下のとおりです。環境・リスクの分析ゴールの設定システムのデザイン運用評価環境・リスクの再分析実施する際には、単に1度だけ取り組むのではなく、アジャイルのアプローチを取り入れて何度もサイクルを繰り返すことが肝要です。環境・リスクの分析AIガバナンスの第一歩は、AIシステムを取り巻く環境とリスクを分析することです。経営層のリーダーシップの下、AIがもたらす利益だけでなく、潜在的なリスクや負の影響にも目を向ける必要があります。この分析では、実際のステークホルダーだけでなく、潜在的なステークホルダーの意見にも耳を傾けます。それぞれの視点を取り入れることで、AIシステムの社会的受容性を理解し、適切なガバナンスの方向性を見定めることができるでしょう。また、AIの影響が軽微だと判断される場合を除き、企業は自身のAI習熟度を評価し、必要に応じて再評価すべきです。負の影響が軽微であると判断した場合でも、その理由をステークホルダーに説明できるよう準備しておくことが求められます。環境・リスクの分析は、一度で終わるものではありません。運用後もステークホルダーの意見を定期的に確認し、新たな視点を取り入れながら、継続的に分析を行うことが肝要です。ゴールの設定環境・リスクの分析を踏まえ、次のステップはAIガバナンスのゴールを設定することです。ゴール設定においては、AIがもたらす正のインパクト、そして負のインパクトのバランスを考慮しながら、人間中心のAI社会原則に基づいて方向性を定めていきます。人間中心の原則教育・リテラシーの原則プライバシー確保の原則セキュリティ確保の原則公正競争確保の原則公平性、説明責任及び透明性の原則イノベーションの原則出典:人間中心のAI 社会原則このゴール設定の際には、社会的受容性と自社のAI習熟度を踏まえます。負の影響が軽微であると判断し、AIガバナンス・ゴールを設定しない場合は、その理由をステークホルダーに明確に説明できるようにしておく必要もあります。一方、「人間中心のAI社会原則」が十分機能すると判断した場合は、これを自社のAIガバナンス・ゴールとして採用することも可能です。ゴールを設定しない場合でも、この原則の重要性を理解し、関連する取り組みを実施することが望ましいでしょう。システムのデザインAIガバナンス・ゴールが設定されたら、次はそのゴールに沿ってAIシステムをデザインします。このフェーズでは、ゴールからの乖離を特定し、その影響を評価することが重要なポイントです。乖離による負のインパクトが大きい場合、その受容性を検討し、合理的でないと判断される場合はAIの開発・運用方法を再考するプロセスを、設計、開発、利用前後の各段階に組み込むべきです。この評価プロセスには、開発・運用に直接関与していない者も参加することが望ましいでしょう。ただし、乖離の存在だけでAIの開発・提供を停止するのは適切ではありません。この評価は、改善のきっかけとしての役割を果たすものです。また、AIシステムを利用する企業は、乖離が生じうる場合には、利用者にその事実と対応策について十分な情報を提供し、問い合わせ先を明確にします。さらに、AIマネジメントシステムの運用を適切に行うため、外部教材の活用も含めてAIリテラシーを戦略的に向上させるべきです。この教育は、AI倫理だけでなく技術的側面にも及ぶべきであり、データ提供者はAI倫理の向上にも努めるべきでしょう。運用AIシステムのデザインが完了したら、いよいよ運用フェーズです。運用においては、AIマネジメントシステムの運用状況について対外的に説明できる状態を確保することが重要です。主に、AIシステムの仮運用と本格運用中の乖離評価プロセスを継続的に実施し、その実施状況を記録することなどが挙げられます。また、開発企業は運用企業がこのモニタリングを効果的に行えるよう支援します。さらに、AIガバナンス・ゴールの設定やAIマネジメントシステムの整備・運用に関する情報は、コーポレートガバナンス・コードの非財務情報として積極的に開示することが望ましいです。上場企業に限らず、非上場企業も含めた開示が推奨されています。開示を行わない決定をした場合は、その理由を明確にし、必要に応じて対外的に説明できるようにしましょう。この透明性は、ステークホルダーからの信頼を維持し、AIシステムの社会的受容を促進するために不可欠です。評価運用と並行して、AIマネジメントシステムの評価を行うことも重要です。経営層のリーダーシップのもと、AIマネジメントシステムの設計や運用がAIガバナンス・ゴールに適合しているかどうかを評価するために、設計や運用から独立した者を任命して検証を行うべきです。この検証プロセスは、AIマネジメントシステムが目標達成に向けて適切に機能しているかを確認するために行います。さらに、企業は株主のみならず、ビジネスパートナー、消費者、有識者、NGO、労働組合などの幅広いステークホルダーからAIマネジメントシステムおよびその運用に対するフィードバックを求めることを検討します。このフィードバックは、システムが社会的な期待に応え、持続可能な運用が行われているかを評価するのに役立つでしょう。なお、企業がこのような検討を行い、最終的に実施しないと判断した場合は、その理由を明確にし、必要に応じて対外的に説明できるようにする必要があります。これにより、企業の透明性と信頼性が向上し、社会的責任の履行が促進されるのです。環境・リスクの再分析冒頭でお伝えした通り、AIガバナンスは継続的な取り組みです。経営層のリーダーシップの下、定期的に再評価、理解の更新、新たな視点の獲得を継続しましょう。また、AIマネジメントシステムだけでなく、環境やリスク分析を含めたAIガバナンス全体の見直しに対する意見も集めることを検討します。AIガバナンスは、一朝一夕に完成するものではありません。この基本的な流れを理解し、自社の状況に合わせて柔軟に適用していくことが求められます。参考:AI原則実践のためのガバナンス・ガイドラインVer.1.1AIガバナンスに関するFAQ最後に、AIガバナンスに関する質問へ回答します。AIの8原則とは?AIのガバナンス欠如とは?AIガバナンス協会とは?AIガバナンス自治体コンソーシアムとは?AIの8原則とは?AIの8原則とは、AIネットワークシステムの研究開発において、まとめられた以下の原則のことです。原則番号原則のカテゴリ説明①透明性の原則AIネットワークシステムの動作の検証可能性および説明可能性を確保すること。②利用者支援の原則AIネットワークシステムが利用者を支援し、選択の機会を適切に提供するよう配慮すること。③制御可能性の原則人間によるAIネットワークシステムの制御可能性を確保すること。④セキュリティ確保の原則AIネットワークシステムの頑健性および信頼性を確保すること。⑤安全保護の原則AIネットワークシステムが利用者および第三者の生命・身体の安全に危害を及ぼさないよう配慮すること。⑥プライバシー保護の原則AIネットワークシステムが利用者および第三者のプライバシーを侵害しないように配慮すること。⑦倫理の原則AIネットワークシステムの研究開発において、人間の尊厳と個人の自律を尊重すること。⑧アカウンタビリティの原則AIネットワークシステムの研究開発者が利用者など関係するステークホルダーに対しアカウンタビリティを果たすこと。この原則は、AIシステムの開発から運用、利活用に至るまでのプロセス全体を通して実践されるべきものです。AIガバナンスを構築する上で、これらの8原則を理解し、組織内で共有することが出発点となります。出典・参考:AI-NW研究開発8原則とロボット工学3原則AIのガバナンス欠如とは?ガバナンスの欠如とは、Eurasia Groupが2024年の10大リスクの1つとして挙げたものです。以下の表は、AIガバナンスの確立を阻む主な要因をまとめたものです。課題の種類詳細説明政治的な問題政府間の意見の相違や合意の不足により、十分なガバナンスが策定できない。政治的合意が難しく、テック企業のビジネスモデルに影響を与える規制は制定されにくい。惰性AIが「現在の話題」から外れると、政府の関心は他の政治的優先課題へと移り、AIガバナンスの取り組みは後回しにされがちである。離脱テック企業や国家が、自主的な基準から離脱し、政府や企業が商業的利益を最大化するための行動を取るようになる。技術的スピードAIの能力が急速に進歩し、その発展スピードが政府の規制を上回る。GPT-5などの新しいモデルが急速に古くなる現象もその一例。この課題が複合的に絡み合うことで、AIガバナンスの確立は困難を極めています。こうした状況を踏まえ、AIの技術がガバナンスの進展を上回り、将来的にシステミックな危機へとつながるリスクを高めていると警鐘を鳴らしています。参考:Top Risks 2024 JPN.pdfAIガバナンス協会とは?AIガバナンス協会(英語表記:AI Governance Association・英語略称:AIGA)は、企業と社会が安心してAIを活用し、持続可能な成長を遂げるために設立された任意団体です。2023年10月26日に発足し、理事には以下の方々が名を連ねています。大柴行人 (Robust Intelligence 共同創業者)瀬名波文野 (リクルートホールディングス 取締役 兼 常務執行役員 兼 COO)生田目雅史 (東京海上ホールディングス 専務執行役員CDO グループデジタル戦略総括)羽深宏樹 (スマートガバナンス 代表取締役CEO・京都大学特任教授・弁護士)山本忠司 (三菱UFJフィナンシャル・グループ 執行役常務 デジタルサービス事業本部長 兼 グループCDTO)AIガバナンス協会の目的は、多様なプレイヤーがAIガバナンスのあり方を議論できる場を創ることにあります。また、協会にはすでにAWS(Amazon)やGoogleをはじめとする幅広い企業が会員として参加しています。参考:AI Governance AssociationAIガバナンス自治体コンソーシアムとは?AIガバナンス自治体コンソーシアムは、自治体職員がAIサービスの利用者として、また提供者として活用できるAIガバナンスに係るガイドラインを作成することを目的として発足したものです。一般財団法人行政管理研究センター理事長の渡会修氏が中心となり、自治体におけるAIの適切な利活用を推進しています。参考:「AIガバナンス自治体コンソーシアム」の発足まとめAIガバナンスとは、AIの開発と利用を倫理的・法的・社会的基準に沿って監督・管理し、事故や不適切な活用によるリスクに対策するための管理体制・枠組みのことです。そして、責任あるAIとAI倫理の概念を理解し、組織内で実践していくことが重要です。AIガバナンスの策定は複雑で専門的な領域ですが、企業の持続的な成長と社会的責任の履行に不可欠なプロセスです。自社でAIガバナンスの策定に取り組む際には、有識者を交えて効率的かつ無駄のない方法で進めることをおすすめします。もし、AIガバナンスの策定に悩んでいるということであれば、NOVEL株式会社のAIコンサルティングサービスをぜひご活用ください。貴社のニーズに合わせたきめ細やかなサポートを提供いたします。