ナレッジ・コラム

社会から信頼されるAIの社会実装に求められること

2022-09-02

AIを取り巻く国内外の動向

第3次AIブームではディープラーニングが登場し、コンピュータの演算能力やビッグデータへのアクセシビリティの向上と相まって、音声認識、画像処理、自然言語処理といった技術が実現可能な範囲で少しずつ社会実装されるようになりました。
企業等はAIを活用したシステム等の実装によって、業務の高度化や生産性の向上、コスト削減等を享受できるようになりつつある一方で、学習データ自体にバイアスがあることによる人種差別、個人情報の漏洩によるプライバシーの毀損、AIのブラックボックス化による原因追究の難しさ等、AIの社会実装上の課題が顕在化するようになりました。

これらの課題に対応するため、我が国においては内閣府が2019年に「人間中心のAI社会原則」を、総務省が2017年に「国際的な議論のためのAI開発ガイドライン案」、2019年に「AI利活用ガイドライン」を策定する等、Society5.0の実現に向けてAIが適正に開発、利活用されるための取組みが行われています。また総務省ではこれらのガイドラインの策定以降、AIの技術的進展や新たな課題がグローバルで顕在化したことを踏まえて、海外の政府、国際機関等や国内の企業等が策定したAIに係る原則、ガイドライン等の内容を調査するとともに、国内の有識者等からの意見を聴取し、現行ガイドラインのレビュー※1を行っています。政府のみならず、国内におけるAIの開発企業や利活用企業においてもAIに係る原則やガイドライン等の策定やAI倫理の実践に向けた取組みが相次いでおり、AI倫理への関心が高まっています。

欧米各国やOECD等においてもAI倫理に係る原則やガイドライン等が策定されており、信頼されるAIの社会実装に向けて国際的な取組みが行われています。またEUでは法的拘束力を持ったAI規制法案が検討されています。この法案は域外にも適用されるため、EUでビジネスを展開する企業はAIのリスクに応じて適切な対応が求められることになります。

AI倫理の原則から実践へ

第3次AIブームによってAIが再び脚光を浴びるようになってから様々な業界において実証実験が行われ、AIの実用化が進みました。AIの普及とともに、その有用性が認知されるようになり、今では多くの企業がAIの開発や利活用に取り組んでいます。企業が社会から信頼されるAIを社会実装するためには、AIによる競争優位性の追求と、AIの構想策定、研究開発、運用・保守といったライフサイクル全般を通じたAI倫理の実効性の確保を両輪の経営課題として捉えて対策を講じることが必要です。

IBM Institute for Business Value(IBV)が2021年にOxford Economicsと共同で行った調査※2によると、企業がAIを活用して社会問題に取り組む際、倫理を考慮すべきだと答えた消費者は85%になります。また経営層の75%がAI倫理を重視しており、2018年の50%弱から大幅に増加しています。一方でAI倫理を既存の企業倫理体系に組み込んでいる企業は多いものの、企業がAI等の最新テクノロジーの開発、利活用にあたり責任感と倫理観をもって行動していると回答した消費者は40%に過ぎず、2018年からほとんど変化していません。

また、2016年に開催されたG7情報通信大臣会合において、日本はAIの研究開発における留意点を整理したAI開発原則のたたき台を提示し、参加各国の賛同を得て国際的な議論を進めることになりました。この会合を皮切りとして国際機関や各国の政府、企業において国際的、学際的、分野横断的なマルチステークホルダーとの議論が行われるようになり、それぞれの組織を取り巻く環境を踏まえたAI原則等が策定されています。一方でAI原則等を企業活動で実践するための仕組みを構築できている企業は多くありません。前述のIBVの調査によると、AI倫理に関する自社の原則や価値観と実際の行動が一致していると確認している企業は20%に満たない状況です。

社会から信頼されるAIを社会実装するためには原則等を策定することに加えて、様々なステークホルダーと協調しつつ、原則等を実践していくための仕組みを構築することが必要不可欠です。

社会から信頼されるAIの社会実装に向けて

社会から信頼されるAIを社会実装するためにはAIの構想策定、研究開発、運用保守といったライフサイクルの各段階においてAI原則等の実効性を確保する仕組みを構築することが必要です。例として以下のように業務執行部門、管理部門、内部監査部門等の3つのレイヤーで仕組みを構築して、リスクをマネジメントすることが考えられます。

1) 業務執行部門の担当者が直接的にリスクをコントロールすること
2) 業務執行部門から独立した管理部門が現業のリスクに対してモニタリングや助言を行うこと
3) 業務執行部門や管理部門から独立した内部監査部門や外部有識者を含む第三者委員会が全社的なリスクに対して包括的にモニタリングや助言を行うこと

またリスクマネジメントのアプローチとしてはリスクベースアプローチが望ましいと考えます。このアプローチではリスクが経営目標に与える影響度を評価し、影響度が大きいリスクに対して経営資源を集中して対策を講じます。先行きが不透明な経営環境の中で限られた経営資源を効率的に運用することが必要であり、リスクの影響度に応じて経営資源を適切に配分するアプローチは合理的な意思決定プロセスと言えます。またリスクが低い事業に対して過度に規制する必要がなくなるため、イノベーションの促進につながる可能性があります。一方でリスクベースアプローチと対比されるものがルールベースアプローチです。このアプローチでは定められたルールを遵守することによってリスクを低減します。ただし、ルール制定時と経営環境が異なった場合に想定していなかったリスクに迅速に対応できない、新たなリスクが顕在化する度に新たにルールを策定するため対応コストが増え続ける、ルールを遵守することが目的化して本来のルールの目的が十分に認識されない等、経営環境が刻々と変化する状況においては適切なアプローチとは言えません。

我々はAIの技術的進展に伴い様々な便益を享受できるようになった一方で、AIは生命や人権を脅かすリスクを内包しており、企業はこれらへの対応が求められています。企業でのAIに係る検討の中で、AI倫理を実践することによって競争優位の追求が阻害されてしまうのではないか、と懸念する声が出てくるかもしれません。しかし、社会から信頼されるAIを社会実装するためには、AIが及ぼすリスクの影響度に応じて適切な対応を講じてAI倫理の実践と競争優位の追求を両立することが重要であると考えます。

Senior Manager

只野 義典

Senior Manager

Yoshinori Tadano

監査法人系コンサルティングファームにてパブリック案件を通じた産業振興政策に従事。中小企業やスタートアップを対象に経営者目線での経営戦略、海外展開戦略の策定支援から現場目線での販路開拓、資金調達等の実行支援まで幅広いハンズオン支援の実績を有する。2021年1月からシンプレクスに参画。

執筆者の記事一覧
只野 義典

関連する記事関連する記事

テクノロジーが紡ぐ明日 ~2024年はロボットに着目

テクノロジーが紡ぐ明日 ~2024年はロボットに着目

2024-01-26

HCMに求められるHR techの新潮流-D&IからDEI&Bへ

HCMに求められるHR techの新潮流-D&IからDEI&Bへ

2022-12-27

ナレッジ・コラムトップ