何をお探しですか?
AIの浸透が進む中、実用上の課題も浮き彫りになっている。精度だけでなく、構築・拡張の容易性を向上させる技術の発展がAI活用の幅を広げる。さらに透明性の確保は人々に受け入れられるAIを実現し、社会への融合を加速させる。

AIの開発・メンテナンスの容易性向上

ここ数年、AIに関するニュースを見ない日はないというくらい、AIは盛り上がりを見せていたが、最近は落ち着きつつある。それは決してAIへの期待感がなくなってきたわけではなく、AI活用が一般的になり目新しさがなくなってきたことや、AIは何でもできるという幻想が払拭され、AIの現実的な利用へと人々の意識がシフトしつつあることによるものだろう。このAI活用を一般化させた一つの要因はAI開発を容易にする技術の発展だ。

現在のAIブームのきっかけとなったディープラーニングは、2012年に画像認識コンテストにおいて従来手法を圧倒する精度を達成して以来、研究や開発が進み、様々な開発フレームワークが登場した。その結果、ディープラーニングを活用した高度なサービスを容易に開発できるようになってきた。しかし、簡単に80%の精度を実現できたとしても、そこからさらに精度を向上させるにはニューラルネットワーク構造やパラメータチューニングに関する専門知識が必要であった。そのような中、2018年、Googleは高品質な機械学習モデルを自動生成可能なCloud AutoMLと呼ばれるサービスの提供を開始した。これはAI開発にとって大きな意味を持つものだ。学習データさえ用意すれば、専門家が構築するAIと同等以上の高精度なAIの構築が誰でも可能となる。これまでは専門家が不在という問題で適用が進まなかった領域にもAIは浸透していくだろう。

AIは開発し導入して終わりではなく、環境変化への対応や導入後に判明する課題への対応等、性能を維持するためのメンテナンスが必要となる。AIが社会、ビジネスの至る所で活用されるにつれ、それらのAIをメンテナンスするコストを抑えることがより重要となっていく。そこで注目されているのが、アクティブラーニングと呼ばれる技術だ。AIの判断結果に対する確信度に基づき、AIが苦手とするケースを自動的に特定し重点的に学習することで、精度を効率的に向上させることができる。確信度付きで出力可能になると、AIの改善ポイントがわかるだけでなく、確信度の低いものだけを人間が作業する等、人間とAIの効率的な作業分担も可能になる。これらの技術の発展は、これまで専門家が担っていた作業を効率化し、世界的なAI人材不足の解消に寄与するだろう。

汎用性獲得に向けた挑戦

画像認識や音声認識において、人間を凌駕する精度を達成しているAIだが、それは研究の世界における決まったタスクでの結果だと思ったほうがよいだろう。現実世界において、AIが認識しているものと、人間が認識しているものは似て非なるものだ。例えば、缶ビールがあったとき、人間はビールという飲み物が缶に入っているもの、冷やすと美味しいといったことまで含めて缶ビールと認識しているが、AIは缶ビールという名前の物体としか認識していない。この違いは実世界での対応能力に大きな差をもたらす。暑い日に何か飲みたいとき、机の上に缶ビールがあったとしても、人間はまずは冷蔵庫を開けビールを探すだろう。しかし、AIは飲み物であることを認識していないし、仮に認識できたとしても目の前の冷えていないビールを差し出すだろう。もちろんAIにビールは飲み物であり冷やして飲むもの等の知識を与えれば、この例に限っては対応できるかもしれない。しかし、現実世界のすべての知識を明示的に与えることは非現実的である。

一方、人間は社会の中で環境や人との五感を伴うインタラクションを通じて、物事を学んでいく。これには知能だけでなく身体が必要という考えに基づき、身体を持ったAI(ロボット)が環境内を動き回り、実際に見たり聞いたり触ったりすることで、物事を学んでいく身体性AIと呼ばれるアプローチが注目されている。缶ビールといった記号と実世界の意味を結びつけられないといった長年のAIの課題であるシンボルグラウンディング問題の解決につながるかもしれない。実現すれば、AIは物事への深い理解をもとに状況に応じて柔軟に対応できるようになっていくだろう。

人間と現在のAIは、学習方法にも大きな汎用的能力の違いがある。AIは新しいタスクを学習する際、大量のデータに基づき一から学習する必要があるが、人間はわずかなインプットで習得可能である。これは着目すべき観点等の学習に関するノウハウが人間には蓄積されているからだ。そこで、学習方法を学習するメタ学習と呼ばれる方法が期待されている。物体を複数の容器の一つに入れるといった簡単なタスクにおいては、メタ学習で習得した知識を用いて人間のお手本映像を一度見せるだけで、容器の配置が異なっていてもロボットがその動作を再現することが可能になっている。この技術が発展すれば、個々に応じた様々な動作が要求されるケースにも柔軟に対応可能となり、製造ロボットや家庭用ロボット等の活用の幅は急速に広がっていくだろう。また、タスクごとにAIを開発するというこれまでのAI開発の常識すら変えていくかもしれない。

求められる透明性

AIは既に融資審査や採用選考、再犯罪予測等に導入されているが、判断ロジックが不透明、いわゆるブラックボックスであるがために、問題を引き起こすことがある。採用選考において女性よりも男性が優遇されるロジックになっていたことが判明し、そのシステムを廃止した例もあり、社会からの信頼失墜を招く事態にもなりかねない。AIは学習データによってはこのような差別的な判断をすることがあるが、判断ロジックを確認できていれば防げただろう。また、自動運転、医療診断等、命が関わるような領域でAIを活用するには、問題が起きた際の説明責任が特に求められる。

このような背景のもと、AIの判断根拠を説明可能にするための技術開発が活発化している。その一つとして、Visual Question Answeringと呼ばれる、与えられた画像に関する質問に答える技術が挙げられる。的確に回答するには、画像中の内容を正確に理解する必要があり、その過程は根拠を示すことに直結する。例えば、子供がサッカーをしているシーンが描画された画像に対して、子供は何をして遊んでいるかという質問に答えるには、画像中の子供やサッカーボール等の各箇所を認識する必要があり、この認識結果を示すことが根拠につながる。画像に関しては根拠部分を可視化し言葉で説明可能になってきている。また、画像以外の根拠説明として、入院患者の死亡リスクや入院期間を予測する際に、その予測を裏付ける患者データや医師の診断メモを提示する試みも行われている。複数の要因が複雑に絡み合うため、医師が最終判断する際に客観的な根拠を示すことは重要だ。根拠が明確になることで、AIの予測結果をもとに、人間は意思決定を迅速かつ自信を持って行うことができるようになるだろう。

人々に受け入れられるAIの実現に向けて

AI技術の急速な進化は、人々に利便性、効率性をもたらす一方で、新たな課題も生み出している。それはAIの兵器利用の是非、AI監視によるプライバシー問題、AIによる差別等の倫理的な課題だ。事実、AIが様々な領域で活用されるにつれ、AI倫理への対策の必要性が高まり、米国・英国・日本等の政府や大手IT企業で指針や原則の策定が行われている。今後、企業にはこれらの指針・原則に留意し社会への責任を果たしつつも、イノベーションや新サービスを創出していくことの両方が求められる。

さらに、人間とAIが共存する世界では、技術だけでは解決できない問題に対する倫理的な設計も必要となる。近い将来、完全自動運転車が登場し、ブレーキの故障によって歩行者か乗客のどちらかの命が危険にさらされる場合、判断根拠が説明されれば納得できるだろうか。Moral Machineと呼ばれるプロジェクトでは、自動運転車をテーマにAIによる道徳的意思決定についての意見の収集、可視化を行っている。歩行者か乗客か、助かる人数か、年齢か等、優先すべき事項に対する考え方は国や文化によって異なり、自動運転車は輸出される国ごとに異なる判断を行うことが必要になるかもしれない。今後は技術の追求に加え、国や企業、利用者が協力してAIを受容可能な社会環境や理念を築き上げていくことが、すべての人、ビジネスがAIのメリットを享受できる社会につながるのではないだろうか。