AI倫理・社会受容性の重要性とポイント

AIアドバイザリーボード 2021年10月11日 第二回勉強会から

レピュテーションリスクの発生源は何か

前回の記事ではAIの適用により引き起こされた人権侵害やプライバシー侵害など「倫理・社会受容性」の問題によりレピュテーション(風評)が急速に低下することを紹介しましたが、その発生源は何でしょうか。また、どのように対処すべきでしょうか。

AIに限らず、新技術により人の代替が起きる際には、人の果たしてきた役割の喪失への懸念から社会受容性の低下を招くという基本的なメカニズムがあります。
AIの場合、本質的に保護される対象である公平性やプロセスの透明性、生命・身体・財産の安全といった、人によるサービスにはあった「社会的信頼」が喪失するという懸念が該当します。
懸念を感じた人はそれを「リスク」と捉えますが、このリスクの認知には、個人の持つ情報レベルや捉え方により大きな差が生じるという特徴があります。
ここで、人が「リスク」を見積もる際には、人が100人いれば100通りの考え方や捉え方があり、人の心理や主観による感情が入ってくることに加えて、様々な「認知のバイアス」が掛かります。「認知のバイアス」には、自分が制御できるリスクは小さく見積もり、制御不能なリスクは大きく見積もりやすい、便益が明確でない場合や未知な物に対してリスクを過大評価しやすい、リスクに関わっている組織に対する信頼度が低いとリスクが大きく見積もられやすい、といった性質があります。
上記を裏付ける調査結果として、AIに対して前提知識のある研究者と比較して、一般市民はAIへの不信感・不安感が強くなる傾向にあることが報告されています(※)。

リスクマネジメントにおけるステークホルダーの重要性

「倫理・社会受容性」のリスクマネジメントにおいては、先に述べたような「社会から出る懸念=受容性」に対して真摯に対応する必要があります。対応が不足した場合、その事業者のビジネスそのものについてレピュテーションの低下を招きます。
ここで、「社会」とはビジネスでいうところのB2BやB2B2C、B2B2Eといったサービスの提供者と利用者の範囲だけでなく、その外側にいるステークホルダーも含んだ広く一般社会を意味します。
昨今のSNS等のメディアの発達により、レピュテーションは瞬時に変化しやすい上に、瞬時に伝搬する傾向があるため、広い範囲でのステークホルダーへの配慮が求められます。
続いてはステークホルダーへの配慮の不足によって問題を招いた事例を2つ紹介します。

  • SNSにおける広告表示問題
    大手のSNSサービスにおいて、広告主の指定したターゲットと関係なく、雇用や住所によるバイアスのある広告推奨アルゴリズムを使っていたことが、大学の研究者ら外部からの指摘により判明し、広告主への謝罪や広告推奨アルゴリズムの変更が行われました。広告主や広告を提示される一般ユーザーというステークホルダーへの配慮が欠けていたことで、SNSにおける重要な収入源であるターゲット広告に大きな影響を及ぼすことになりました。
  • 顔認証AIの画像収集問題
    米国のある会社の顔認証AIは、SNSにアップされた写真を使って作成されたもので、世界中の政府や捜査機関に提供されていました。しかし、顔画像収集の方法がプライバシー侵害にあたるとして、アメリカでは多数の集団訴訟が提起されました。さらにカナダではプライバシー委員会が調査した結果、情報収集の中止や収集した画像の削除を勧告され、この会社はカナダから撤退せざるを得なくなりました。顔画像収集の対象となった市民というステークホルダーへの配慮が欠けていたと言えます。

ダイバーシティを伴ったステークホルダーへの配慮

事例からも明らかなように、倫理・社会受容性のリスクを正しく評価するためには、社会全体に目を向けて多様な市民の声を把握する、社会受容性への高い感度が必要になります。分かりやすく言うならば、「自分が知らない間に人を傷つけているかもしれない」ことを意識しながらビジネスをするという視点、もう少し抽象化すれば、他者を個人として尊重することが重要な基本姿勢と言えます。

しかしながら、開発プロジェクトのメンバや社内の声だけでは多様な市民の価値観の把握には限界があり、限られたメンバ内の価値観であれば問題はなくとも、外から見ると異なって映ることもあります。

これを解決するためには、可能な限りダイバーシティのある視点から評価することが有効です。例えば、女性と男性の比率をできるだけ近づけて、いろいろな視点を入れるようにする、あるいは外国出身の方やハンディキャップを持っている方にも評価に加わってもらうといったことです。もし、仮に社内でそういった声を十分に確保できないのであれば、社外有識者や当事者の方を対象にしてヒアリングする、年代・属性の異なる一般市民を対象にサービス受容性のアンケート調査をすることなども有効です。
ニューヨーク大学のAI倫理の研究機関のレポートでは、意図せざる差別(アンコンシャス・バイアス)について問題提起されており、例えば、AI開発企業のエンジニアが男性だけで構成されている場合、女性の視点が欠けてしまい、無意識のうちに女性にとって不利なアルゴリズムの設計をしてしまう可能性があるため、AI開発チームの中でもダイバーシティを確保すべきと言われています。

以上のように、AIをサービスとして提供する事業者は、今後ますますダイバーシティのある視点からの漏れのないステークホルダーへの配慮を確実なものとしていくことが必要となると考えられます。