SHARE Twitter Facebook Google+ はてなブックマーク LinkedIn

フェイクニュースを見破るAIが開発される?

2018.12.06

ネット上にあふれるニュースに対し、それがフェイクであることを「断言」することは非常に難しく、メディア産業に携わる多くの人々が、この仕事に毎日頭を悩ませている。MITの研究者らはAIをつかって、ニュースの事実らしさと偏見を機械的に検出することに成功。そのAIは、ウェブサイトが確からしいかを約65%の精度で予測し、その偏見を約70%の精度で検出するという。

AIは、人間が実施しなければならない煩雑な作業のサポートをしてくれます。その作業とは例えば、本物でないニュースや偏向的なニュースを見抜くことです。

写真:Lora Ohanessian(Unsplashより)

メディアで事実検証の担当者として働く人なら誰でも、目標ははっきりしているにも関わらず困難な仕事を抱えています。それはすなわち、記事に書かれたすべての主張が真実かどうかの確認作業です。2つの都市の間の距離など、単純な事実は正確か。引用は正しいか。そして、全体的な記述は真実か。もとより大切な作業ですが、あからさまなフェイクニュースがある時代において、特に2016年の大統領選挙や先日の中間選挙を考慮すると、その重要性はますます高まっていると言えます。

影響範囲の広がるこの問題に取り組むため、MITの研究者とカタールおよびブルガリアの研究機関は、人々がメディアの複雑な状況を理解できるようにするための、AIを用いた方法を研究してきました。そこで彼らが実感したのは、個々の主張を事実検証できるAIを開発する前に、実施しなければならない重要なステップがあることでした。そのステップとは、さまざまなニュースサイト自体が、そもそもどの程度信頼できるのかを分析することです。

そこで彼らは、さまざまなニュースサイトの事実検証力と政治的偏見を評価できるAIの構築に着手しました。

研究者たちがAIシステムをトレーニングするためにまず利用したのは、Media Bias / Fact Checkというソースに挙げられた1,066のWebサイトのデータです。それからAIは、そのサイト自体に掲載されている記事自体、そのサイトに対応するWikipediaのページ、TwitterのアカウントからURLにいたるまで、さまざまなソースを考慮に入れ、ニュースサイトに関する情報を分析しました。こういった情報を利用して、AIは、Webサイトがどの程度事実に基づいているかを予測して約65%の精度を達成し、偏見の検出では約70%の精度を達成しました。

AIにとっての最も優れたリソースの中には、人間が頼りにしているものもあります。MITコンピュータ科学・人工知能研究所のポストドクターで、今回の論文の第一著者でもあるラミー・バリー(Ramy Baly)氏は、「Wikipediaがたいへん重要だということがわかります」と述べています。なぜなら、ニュースソースについて知る必要のある情報がまさにWikipediaに存在する可能性があるからです。例えば、ジ・オニオンについてのWikipediaのページでは、その先頭部分で、同紙が風刺的であることが明示されています。ドラッジ・レポートのWikipediaのページでは、同サイトが保守的であると明示されています。

Wikipediaが重要である理由は、もう1つあります。バリー氏は次のように付け加えています。「Webサイトに対応するWikipediaのページがないことは、そのサイトがあまり信頼できないことを示唆します。」

MIT CSAIL

MITの研究結果からは、「極端な」偏見を含む掲載媒体と、事実の精度の低さには相関があることが示されている。

MIT CSAIL

Webサイトそのものの信頼性に注意し、関連するWikipediaのページがあれば確認することは、一般の人々にとっても良いステップです。例えば、8月に、あるサイバーセキュリティ企業とFacebookは、「本物でない」ニュースがイランから流れていたことを発見したと発表しました。イランに関係すると見られるWebサイトの1つに、リバティ・フロント・プレスという名前のメディアがあります。このサイト自身は、「独立系」であると標榜していますが、実際にはイラン寄りであるようです。そして、ここでも参考になるのは、このサイトに対するWikipediaのページがどうやら存在していないということです。(Facebookも、AIではない私たち人間がフェイクニュースを探すときに留意すべきヒントをいくつか紹介しています。)

もちろん、MITの研究グループだけが、AIを利用してこのような言説を分析するグループではありません。Googleが構築したAIシステムのJigsawは、読者コメントの有害性を自動で点数化します。また、FacebookはAIに注目し、ミャンマーでヘイトスピーチを食い止めるという取り組みの強化に役立てました。

もう1つのソースは、MITの研究者によるAIシステムにとって、Wikipediaよりもさらに重要でした。そのソースとは、Webサイトの記事そのものです。このAIは、各ニュースサイトの記事を50~150本分析し、その中の言い回しを調査することに成功しました。バリー氏は、次のように述べています。「極端に偏ったWebサイトは、読者の感情に訴えかけようとしてきます。こういったサイトは、(偏っていない主流のサイトと)異なるタイプの表現を使うのです。」

バリー氏らは、今後もこのシステムをより高度にしたいと考えています。今の段階での目標は、「この問題への取り組み方を考えるための新しい方法に着手する」ことです。

この記事は元々Popular Scienceに掲載されたものです。

Popular Science Logo

 

この記事はPopular ScienceのRob Vergerが執筆し、NewsCredパブリッシャーネットワークを通じてライセンスされたものです。ライセンスに関するお問い合わせはlegal@newscred.comにお願い致します。