「AIを用いてネットニュースの信頼性や政治的な偏りを判断するという研究報告」
が、これはネットニュースよりも増田や5chみたいな投稿にこそ必要なシステムだと思った。
でもお仕事で書かれてる文章って、そこまで品性を疑うレベルの偏屈さではない率が高いと思うんだよね。
メディア記事は別人によるチェックが入ることも多いし、ひどく偏屈なものは間違いなく炎上するし。
それに、メディアはそのメディアの特性を踏まえて、構えて見るものだ(バズって本来の読者層と別の人に読まれる例だと「構え」ができてない事もあるけど)。
例えば産経なら右寄りだなとか、スポーツ紙の言うことだから~、オカルト雑誌の記事だから~みたいに。
一方で、口コミみたいな個人の主張の寄せ集めみたいなものを繰り返し見せられる場だと「構え」は困難だ。
結果、人はそれを「確かに」「正しい」「真実」と認識しやすい脆弱性があると思うんだよね。
こっちの方が粗暴な論がゴロゴロしてるのに。
見慣れたネットスラングを、(出自が如何わしい台詞でも)いつのまにか恥ずかしげもなく使っている現象と同じで、
こういう場で見聞きした考え方や言葉遣いは、いずれ自分の深層に自分のものとして定着してしまう。
たとえ初めは下卑た論外な論だと判断できていても、それを繰り返しいろんな言い回しで摂取する度に、染まっている。
それが、匿名ネット上の議論の品位や質が著しく低くなる理由だと思う。
もちろん、偏った意見を主張する人の声ほど大きくしつこく聞こえてくる(一方まともな見識ある人は論争に参加しない)、
という、先日ひろゆき氏が言っていたような要因も大きいとは思うけど。
それだけでは説明できない、ネットの主義主張がなるべくして低きに流れる、思考汚染とも言えるこの現象こそがもっとも恐ろしいものだと思う。
その思考汚染の申し子たちが、ここや5chやtwitterやなんかで、今日も男女、左右、老若などの陣営に分かれて、あるいは作品評などに関して、口汚く罵り合っている。
彼らの多くは、ネットの掃き溜めに浸かる以前にはそんな人間ではなかったはずだ。
もうそうなってしまった人を救うことは難しいが、そうなりそうな人を救うには、
名もなき個人の声が跋扈する掃き溜めに紛れる「ヤバイ」ものに「これヤバイやつです」というタグを貼って可視化していく必要があるだろう。
それを人間が手動でやるのは物量的にも無理だし、主観性の問題もある。
冒頭のAIの話は、ファクトチェックを自動化するような話だったが、
こういう場における発言の偏り判定をAIでするには、もっと複雑で高度な判断が必要になるだろう。
それでも、これからの情報社会に必ず必要になってくるシステムだと僕は確信している。
一部のまとめblogやredditなんかについている、書き込みへのgood/badボタンは同系統の人力システムではあるが、
やはりそれもボタンを押す読者層のリテラシーレベルに依存した評価しかできない。
wikipediaでよく見られるような注釈を自動でつけるあたりが現時点で想像できるシステム像であると思うが、
……眠くなってきたのでこのへんで。
AIも別に「その場の平均マン」を作り判断を統計的に内面化することしかできないのであまり意味はない
その先の、(人間がしているような)倫理や品性に基づいた判断がAIに求められる時期がいつか来ると思うんだよね。
あと、発言者の同一性をGoogle並の追跡で特定したり、発言者のもつ知識レベルやスキルを判定して説得力に重み付けするようなやつね。 もう既にやってる人いそうだけど。
人間が倫理や品性を持っていると思っているのは大部分が妄想で、実際はなるべく多くの前例から共通点を煮込んでいるだけだと思う AIに求められる~とかは考えすぎで、選民から見れ...