人間とテクノロジー

人間とテクノロジーについて、人と話したり、議論したり、思ったりしたことの備忘録

「AIご神託」はありかなしか

昨日放送のNHKスペシャル「AIに聞いてみた どうすんのよ!?ニッポン」が、周囲のAIに詳しい専門家の方々に不評だ。非常に不評だ。

www.nhk.or.jp

何が不評か、というと、人が解釈してアジェンダ設定している内容を、「これはAIが提言しているんです。私たちの意見じゃありません。AIがこう言っているんです」という責任放棄をしつつ、提言を押し付けてくる点なんじゃないでしょうか。

ちょっと話が飛ぶと、エセ科学って、「エビデンス」がないわけじゃない。論文を書いたり、学会発表をしたりして、それを「エビデンス」とする。でも本来科学の世界は、論文ひとつはブリックひとつであって、それらをどんどん積み重ねていき、ひとつの家というコンセンサスの得られたエビデンスが形成されていく。だから、論文ひとつではコンセンサスが得られたエビデンスとは言えない。

ところで、エセ科学の人たちや、マーケティングで「サイエンス」を権威付け重み付けとして使う人たちは、そうしたコンセンサスの得られていないエビデンスをもっても、「こうしたエビデンスがある」として商品やサービスのマーケティングをする。

AIご神託って、そういうマーケティングのためのエビデンス至上主義と近い気がするのよね。

それを言っている、提言しているのは特定の人間で、その責任をAIという人間以外に負わせる形で、権威付け重み付けをする上に責任回避までしている。

もちろん、データに基づいた意志決定・政策決定は必要で、むしろこの国ではそれが行われてこなかったことが異常な自体だった。だが、アジェンダをどう設定するか、データを選別すること、何をどう解析するか、その結果をどう解釈するか、そこにはすべて人の手が入る。それを、「AIがこう言っている」というAIご神託になってしまうと、それはデータに基づいた意志決定ではなく、特定の人間の意志や見解を重み付けするためのデータ分析の活用という本末転倒になってしまう。

AIご神託が悪いと言っているわけじゃない。そもそも宗教と政治はまさにそうして政策決定をしてきたわけだから。

ただ今回のNスペは、「AI」という権威をたてにして特定の人(びと)が提言をすることの懸念や危機感を考えるにはよい機会だったんじゃないでしょーか。

ところで、NHKが独自開発したAIという触れ込みなので、AIって何?と思ったら番組サイトにはこうある。

東京大学・坂田一郎教授、京都大学・柴田悠准教授など、様々な研究者のアドバイスを受けながらNHKが独自に開発した「社会問題解決型AI」です。学習させたのは、経済産業省総務省などの公的な統計データから、ハンバーガー店やラーメン店の数といった民間のデータ、さらには20代から80代までの個人を10年以上追跡している大学や研究機関の調査など700万を超えるデータです。
番組で紹介する"社会構造のネットワーク"は、膨大なデータの中から特徴を見つけ出すことができる「パターン認識」や「機械学習」という手法を用い、さらに、WikipediaNHKのニュース原稿など、100万本を超える記事を「ディープラーニング」によって学習させることで、社会に関する5000もの情報の「近さ」や「つながり」を描き出した図です。数値的な振る舞いがただ「似ている」だけなく、現実世界で私たちが共に語る"近しい関係"といった概念もネットワークには色濃く反映されています。そのため、明らかに相関のないものがつながることもあります。
AIは、残念ながら因果関係は提示してくれません。このネットワーク構造を人間が読み解き議論することで、社会問題の背景を考え、解決の糸口を探ろうというのが番組の趣旨です。番組で紹介した"AIの提言"は、このような形で、AIが出してきた分析結果を人間が読み解き平易な言葉で表したものです。

これって数年前ならビッグデータ解析と呼ばれていたやつですね。そういえばビッグデータという単語をここ数年は全く聞かなくなりました。何でもかんでもAIって言うようになったから。

データ分析から相関関係をネットワーク化させるのはよく見かける手法です。ただし、擬似相関があるので、一見相関関係があったからといってそれだけで考察はできない。また、相関関係と因果関係はことなり、相関関係だけから因果関係については何も言えない。

この番組では相関関係があっても因果関係を提示しないということを言いながらも、人の解釈を入れた提言を「AIの提言」としているところに、うーん、となったわけです。。。