人間とテクノロジー

人間とテクノロジーについて、取材とか思ったこととかの備忘録

人工知能の活用と人間の尊厳

 中高の6年間を過ごした女子校はミッションスクールで、校訓は「人間の尊厳のために(HOMINIS DIGNITATI)」だった。「人間機械論 人間の人間的な利用」(原題:THE HUMAN USE OF HUMAN BEINGS)を再読して、この奇妙なタイトルの意味することがようやく腑に落ちた。進化するテクノロジーとその活用によって統治者・権力者が人間を非人間的に管理することに対する、強い警句なのだと。進化するテクノロジー、特に情報技術と私たち社会がうまく付き合っていくには、言うまでもなく人間の尊厳が尊重されるべきだが、それは個人が思うほどに簡単なことではない。

 「人間機械論」は、アメリカの数学者ノーバート・ウィーナーが生物も機械も同様に情報のフィードバックによって制御されるという「サイバネティックス」という考え方を提唱した1948年の著書「サイバネティックス」について、同じくウィーナーによって一般向けに書かれた。

 サイバネティックスという言葉は今ではあまり使われないが、生物と機械、それに社会を一気通貫して考えて理解する考え方だ。キーとなるのが「フィードバック制御」。フィードバック制御では、動的な情報の循環が前提にあり、何らかのイベントの結果の情報が、次のイベントに影響をあたえる。このような情報の循環とフィードバック制御は、生物個体の体内、行動、機械だけでなく、人間個体の意思決定や社会全体の動きといったさまざまなレイヤーでも共通する。例えば動物の代謝系ではこのようなフィードバック制御による循環はホメオスタシスと呼ばれる。一方で、自分の行動の結果を調べて、その結果によって未来の行動を修正することも含まれる。

 ところで、人工知能技術の社会への影響の議論が活発になっている。メディアだけではなく、政府もその検討に乗り出した。先週、島尻・科技担当相は「人工知能と人間が共存していくためには人工知能の社会的提供、倫理的課題の検討が不可欠になってきたと感じている」と述べ、懇談会を設けて人工知能の研究開発や利活用について議論をし、政府として指針をまとめていくことを発表した。一方、別途進められている総務省の研究所が主催する検討会も先週、人工知能による社会への影響やリスク、課題などを取りまとめた中間報告書を公表した

 では、人工知能をめぐる倫理的課題とかリスクってなんだろうか?

 人工知能とはコンピュータのプログラムだ。人工知能で出来ることは情報の解析だ。その結果、あたかも人間の知能のように「認識」をしたり「意思決定」をしたりしているかのようにみえる。だが、情報の解析の目的を設定するのは人間であり、人工知能は情報技術のツールのひとつにすぎない。ただし、大量のデータが収集できるようになったこと、それを解析するマシンのパワーが上がってきたことなどから、人工知能への期待が増している。

 人工知能の利活用をめぐる課題は、技術的な問題と、利用する側の問題に二分できる。利用者の問題というのは誰が何のためにどのようにして利用するかということだが、人工知能に限らず情報技術全般に共通する。

 情報技術は、言語から始まり印刷、写真、音声、映像、テレビ、ラジオ、ネット、スマホ・・・と進化してきた。人工知能が十分に活用できるようになった今課題になるのは、情報のフィードバックによる制御ではないだろうか。

 人工知能は、人が目的を達成するための情報の循環をなす一連の流れの中で活用するツールのひとつにすぎない。スタンドアロンで目的を達成することはほとんどないので、人工知能の利活用をめぐる問題を考えるときには、データ(情報)、その解析(人工知能)、人間に対して情報提示をするインターフェイスやアクチュエータなどの3点の流れで考える必要があると思っている。

 先日、会議の前に早く着いて下のサブウェイでコーヒーを買って振り向いたら、同じく早く着いたHさんがいた。会議が始まるまでHさんと話していたのは、「人工知能で懸念すべきことは、シンギュラリティでも人工知能に仕事が奪われるといった話でもなく、自分が気付かないうちに知らないうちに情報操作されていることではないのかしら」ということ。

 2014年にFacebookがPNASに発表した論文は、議論を呼んだ。利用者に告知することなくFacebookのタイムラインを恣意的に操作することで、利用者の感情操作が可能になることを示した論文だった。このようなことは、データとその解析(人工知能)、人間に対して情報提示をするインターフェイスやアクチュエータなどの3点があればいつでもどこでも簡単にできる。

 データは、今はデジタルデータが多くを占めるが、個人の行動履歴や生体情報といった実世界データの収集も進みつつある。これらを人工知能によって解析し、本人に何らかの情報提示によってフィードバックをすることで、本人の意思決定の操作や行動変容を容易にできるようになるだろう(そのようなある種の“操作”は、私たち本人が気づかないうちにすでにあらゆるところで行われている)。

 なお、総務省の研究所による報告書ではAIネットワーク化によるリスクとして以下の8点を挙げている。

「セキュリティに関するリスク」「情報通信ネットワークシステムに関するリスク」「不透明化のリスク」「制御喪失のリスク」「事故のリスク」「犯罪のリスク」「消費者等の権利利益に関するリスク」「プライバシー・個人情報に関するリスク」「人間の尊厳と個人の自律に関するリスク」「民主主義と統治機構に関するリスク」

 話もどって、7点目の人間の尊厳と個人の自律に関するリスクというのが、ウィーナーが「人間機械論」で指摘したことだろう。少し長くなるが、以下は「人間機械論 第二版」p.23から引用する。

このことは、人間だけについて考えても、或いは周囲の世界と相互的な関係をもつような型の自動機械(オートマタ)と関連させて考えても、やはり成り立つことである。この点において、われわれの社会観は、多くのファシストや実業界や政界の有力者がいだいている社会理念とは異なる。彼らと似通った権力欲の野心家が科学界や教育界に全く見られないわけではない。かかる人々は、あらゆる命令が上から天降り決してもどってはこないような組織を好む。彼らの支配のもとで、人間は、或る高級な神経系をもつ有機体といわれるものの行動器官のレベルに引き下げられてしまった。私は本書を、人間のこのような非人間的な利用(inhuman us of human beings)に対する抗議に捧げたいのである。なぜなら私は、人間に対しその全資質より少ないものを需め、実際の資質より少ないものしかもっていないものとして人間を扱うような人間の利用は、いかなるものでも、一つの冒瀆であり一つの浪費であると信ずるからである。人間を鎖でかいにつなぎ動力源として使うことは、人間に対する一つの冒瀆である。しかし、工場で人間にその頭脳の能力の百分の一以下しか必要としない全く反復的な仕事をあてがうこともまた、ほとんど同様な冒瀆である。人間をその値打ちのうちのほんのわずかな一部分のために使うような工場や奴隷船をつくることは、人間が彼らの資質を十分にのばせるような世の中をつくるよりも簡単なのである。権力欲にとりつかれたやからにとっては、人間の機械化は彼らの野望を実現する一つのかんたんな道である。