人間とテクノロジー

人間とテクノロジーについて、人と話したり、議論したり、思ったりしたことの備忘録

AAAIのAIと倫理・社会の会議(AIES)に参加してきた

ニューヨークで2月7〜12日に開催されたAAAI-20に併設して、2月7日~8日に同じ会場で開かれたThird AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society (AIES 2020)に参加しました。いつものような学会取材ではなく、エマちゃんとたくせんさんとやっているプロジェクトの論文が採択されたのでその発表のために3人で行ってきました(発表したのはエマちゃん)。AIESはAAAIとACMが主催しているとはいえ社会科学分野の専門家の方たちの発表が多く、内容も多岐にわたっており、なんでもありのるつぼ感がありました(実験などの自然科学系の論文発表形式に慣れた身としては、人文系の発表は単語もわからないし何が新しいのかもわかりにくいし難しかった)。多様な分野からの参加者が多いというのは、特に米英ではAIの倫理や社会の研究に予算と人が流れているようで、これらの一専門分野が形成されつつあるように感じました。忘れないうち簡単にAIESのメモを。

情報系のほか人文系も、高い女性比率

AIESはAAAIの中でもAIの倫理や社会に特化したセッションで、今年で3回目の開催。投稿は211本あり査読を経て、ペーパー発表が35本、ポスター発表(とスポットライト発表)が37本採択されました。200人くらいの規模のメイン会場1ヶ所とポスター用のその隣室で、2日間にわたってキーノート、ペーパー発表、ポスター発表(とそのスポットライトの発表)が。AAAIは情報系である一方で、AIESは情報系だけでなく法学、社会学、心理学など人文社会科学系の発表者が多いようだ。そのためか情報系のカンファレンスにしては女性比率が高く、会場の3分の1位は女性。年齢層も若手・中堅が中心。ペーパーもポスターも質疑・議論が活発だった。

ペーパー発表は15分のプレゼン、ポスター発表は2分のスポットライト発表後にそれぞれのポスターの前で説明するという流れ。ペーパー発表のセッションは「FAIRNESS」「EXPLANATION」「ETHICS ON THE SURFACE」「FUTURE OF WORK」「FAIRNESS AND VALUE ALIGMENT」「POLICY AND GOVERNANCE」「AI PAST AND FUTURE」に分かれており、このうち「FIARNESS」は2セッションあったので計8セッション。

ここ数年、「AI倫理」はバズワード化していて、AIの倫理や社会の話題はそれぞれで視点も問題意識もバラバラで、なんだかよくわからないことも少なくないけれど(AI=IT、デジタルとした議論も散見されますが。まあいいけれど)、今回のAIESではAI=機械学習として、その社会導入に際しての課題や配慮する点、またそれらを克服するための技術の提案などの発表が多く見られました。

顔画像認識の利用における課題、ブラックボックス問題への対応

最も目立っていたのが顔画像認識の利用における課題とその解決に向けた提案。機械学習による顔画像認識では、学習データの偏りのために人種や性別によってその認識精度が異なることが以前から課題になっており、こうした顔画像認識技術を適切に利用するためにはどうすべきかという課題に対して、制度やルールによるものから技術による解決まで様々な提案がなされていた。

顔画像認識でちょっと異色でかつ流行りのテーマを盛り込んでいて興味深かったのが、清華大学の研究グループによる発表で、医療用に患者動画を利用する際にプライバシーに配慮するために顔画像認識とディープフェイクを組み合わせて、患者の顔をフェイク画像に切り替えるというもの。ところで発表者は無事中国から米国に入国できたのかしら?と気になったが、ちゃんと発表していたので入国制限前から渡米していたのかしら??(なおAAAI全体では約4000人が参加登録したが、800人はコロナウイルス関連またはVISAの関連で参加できなかったとのこと)。

機械学習ブラックボックス問題と説明可能AIも一大テーマ。機械学習ではデータを学習させてパラメータを調整しているため、結果を出してもその結果を出した理由を説明できない「ブラックボックス性」が問題視されており、技術的には説明可能なAI(Explanable AI, XAI)の開発がひとつのトピックスとなっている。AIESでもブラックボックス問題に対して技術面から解決を試みる提案がいくつかあった。

AI導入による労働への影響を、タスクごとに評価する

AI導入による労働などへの影響もまたよく議論される話題ですが、そのまんま労働に関するセッションもありました。MITのグループが複数発表していたが、中でもMIT-IBM Watson AI Labによる「Learning Occupational Task-Shares Dynamics for the Future of Work」では、職種ではなくタスクごとに、画像認識や自然言語処理といったそれぞれのAI技術の影響を詳細に見ていて興味深かった(論文はここから読める)。

AIの労働への影響は、2015年にハーバード大学のオズボーンらが出した報告書が当時話題になった。オズボーンらの報告書では、職業別にAI影響を見ていたが、現実的には職業全体が影響を受けるというよりは、タスクが影響を受けるのだし、AIと一言で言っても、具体的な技術によって影響を受けるタスクも変わる。AIというのは結局は自動化による効率化・最適化に過ぎないので、どのタスクをどの技術によってどの程度自動化し、それによりどの程度効率化・最適化されるかというのを詳細に見ていくのはとても合理的だし納得がいった。

世界中で作られるAI倫理の報告書

AI倫理が話題になったのは、2015年ごろからだった。2016年ごろからは政府機関や大学などの様々な国や組織・団体が、AI倫理についての報告書を次々と出し、最近では企業も出すようになってきた。こうした大量に出ているAI倫理に関する報告書をレビューした発表もあった。「What’s Next for AI Ethics, Policy, and Governance? A Global Overview」では、2016年以降に20以上の国で出された100以上のAI倫理に関する報告書について分析。

また「Policy versus Practice: Conceptions of Artificial Intelligence」では、政策文書に出てくるAIを調べた上で、AI研究者にアンケートを取り、政策文書に出てくるAIとAI研究との乖離について報告している。中でも、政策文書ではAIの定義として「human like」としているものが多いが、これはAI研究者の考えからもかけ離れていて問題視するとしていた。たしかに、社会導入にあたっての現実的な技術としてのAIを考えると、事実上は機械学習なのだから、これをhuman likeとするのは違和感がある。

AIと倫理や社会についての一研究領域が形成されつつある

学会というのは特定の専門領域の研究者が集まるコミュニティだが、AI倫理や社会は既存の研究領域ではないので、情報系にしても社会学にしても心理学にしても、これまでそれぞれの専門領域で研究をしてきた研究者たちが、AIと倫理や社会について新たに開拓をしているという状態なのだと認識しています。そのため、ペーパーとポスターを合わせて70以上の今回の発表でも、分野も内容も多岐に富み、玉石混交とも言えるかもしれません。

一方で、武田先生が指摘していてなるほどと思ったのが、博士課程の学生による発表も多く、ということはPhDを取ることを想定した発表をAIESに出しているということなので、研究として成り立っている。また、AIと倫理や社会をテーマにした研究で研究費が獲得できるということも意味しています。発表は米英が多く、ここ数年で特に米英ではこの分野に予算と人が流れて混んできているのかもしれません。

日本からの採択は私たちの発表のみで(1回目から参加しているJSTの方曰く、これまでも日本の発表は採択されておらず初では?とのこと)、マイナーな会議なのでそもそも存在をあまり知られていないとはいえ、米英と比べると日本ではこの領域に予算も人もそれほど集まっていないんだなあというのは、まあ実感通りです。

そもそも米英でこの分野に関心が集まるのは、人種や経済格差などの社会のまだらさの程度がもともと大きいこと、情報開示や議論といった民主主義の成立のためのたゆまぬ努力をすること、という土壌がそもそもあるので、機械学習の社会実装を進めていくにあたり、アルゴリズムの公平性やアカウンタビリティ、透明性などが問題として浮上しやすいかならなのだと思います。機械学習の安易な利用は、何も対処しなければ格差や偏り、人の偏見を強化する方向に向かうので、もともと格差や偏りがある社会、またそれらを是正しようとする社会においては、その具体的な対処法としての「AIと倫理や社会」について知見を深めていく必要があるのでしょう。これまでこうした問題に真っ向から向き合う緊急性がそれほどなかった日本人は幸せなのか平和ボケなのかその結果何も考えない無能状態になっているのかよくわかりませんが、ちゃんと向き合っていく訓練も必要だし、まあなによりこの辺の議論や取り組みは見ていて面白いなあと思いました。