人間とテクノロジー

人間とテクノロジーについて、人と話したり、議論したり、思ったりしたことの備忘録

人が関与せず攻撃するAI兵器の規制は可能か?―国会議員、政府、市民団体、専門家らが議論

 人間の関与なく、敵を攻撃し殺傷する兵器をいかにして規制していくか――。このような「自律型致死兵器システム(LAWS)を呼ばれる兵器の開発・使用の規制に向けた議論が昨年から国連で議論が進められている。こうした中で日本はどのような役割を果たしていくべきか、国際NGOなどと超党派の議員が主催する「キラーロボットのない世界に向けた日本の役割を考える勉強会」の第2回会合が11月20日に開催され、AIやロボット、安全保障の専門家や政府関係者を交えた議論がなされた。 

 LAWSは明確な定義はないが、人間の関与なく目標を攻撃する兵器とされ、現在のところ存在していないものの、今後開発が進み実用化すれば核兵器のような強いインパクトを持つと懸念されている。なお、AIにより自動化された兵器は1990年代ごろからすでに実戦配備されているが、これはLAWSではないとしている。

 2013年ごろから国際人権NGOヒューマン・ライツ・ウォッチなどの国際NGOがLAWS反対キャンペーンを展開してきた。こうした流れを受けて、対人地雷やクラスター爆弾などの規制を進めてきた国連の「特定通常兵器使用禁止制限条約(CCW)」の枠組みで2017年11月から公式の政府専門家会合が開催され、LAWSの開発・使用の規制に向けた議論を進めている。今年4月に開催された第2回政府専門家会合では、オーストラリア、中国、ブラジル、イラクパキスタンなど26カ国がLAWSの禁止を表明した(中国は使用禁止のみ)。


 こうした国連での議論を受け、勉強会の主催団体のひとつであるヒューマン・ライツ・ウォッチの土井香苗氏は「世界ではLAWSは受け入れられないで一致しているが、問題はどのようにしてLAWSのない世界を実現するかだ。我々としては、LAWSの開発・生産・使用を禁止する条約交渉を2019年から国連で開始すべだ」と提案した。


 「キラーロボットのない世界に向けた日本の役割を考える勉強会」はヒューマン・ライツ・ウォッチと遠山氏のほか小野寺五典議員(自民党)、小林史明議員(自民党)、山内康一議員(立憲民主党)、小熊慎司議員(国民民主党)、遠藤敬議員(日本維新の会)、認定NPO法人 難民を助ける会(AAR Japan)、認定NPO法人日本国際ボランティアセンター(JVC)、認定NPO法人ヒューマンライツ・ナウ(HRN)、特定非営利活動法人地雷廃絶日本キャンペーン(JCBL)が主催しており、第1回会合は今年4月に開催された(「「殺人AI兵器にNOを」―超党派の国会議員が議論」を参照)。

www.huffingtonpost.jp


日本政府としては「LAWS開発しない」「兵器利用は人の関与が必須」

 遠山氏はこれまでも国会質疑で日本政府としてのLAWSに対する見解を質問してきたが、勉強会ではまず外務省担当者が「人間が関与しない完全なLAWS開発の意図はない」「兵器を使う場合は人間による関与が必須だ」との日本政府としての見解を確認した。その上で、「人間が全く関与しないようなシステムは禁止されていくべきと考えている。この考え方は今後も国際会議等で主張していく必要があると考えている」(外務省担当者)と説明した。一方で、これまでのCCWの専門家会合の議論では、規制の対象とすべきLAWSの定義が各国で大きな隔たりがあり、共通の認識を得られる状況にないと説明。さらに、規制の枠組みについても「直ちに法的拘束力のある文書の検討を始めるべき」という意見がある一方で、「今の時点では政治的にLAWSに対する宣言を採択してはどうか」という意見があるなど、LAWSに対する対応についても各国の意見の隔たりは大きいという現状を述べた。

 また防衛省担当者も、LAWSに対する政府見解は防衛省も同様だとしたうえで、「人間か関与しない形のLAWSは禁止すべきで、自衛隊でも現存していない。今後開発を行う予定はない」と説明した。

存在しないLAWSをいかに規制するか?

 こうした政府見解を踏まえたうえで、遠山氏のほか、専門家らによる議論がなされた。まず遠山氏は、「LAWSはまだ存在しないものだが、存在しないものを禁止するのは難しい。LAWSの定義付けも合意できていない。LAWSを規制すべきと言うのは、NGOも政府も同じ立場だが、そのために一足飛びに禁止までできないのが現状だ。まだ存在していない兵器を禁止することはできるのだろうか?」と問題提起した。

 これに対し脳科学者の茂木健一郎氏は、「規制することに対しては悲観的だ」と述べた。核ミサイルの防衛システムを例にとり、「人間の関与というのはボタン一つの問題で、包括的に禁止するというよりは、最後の”味付け”の問題だ」として「LAWS」としての禁止が難しいことを説明した。これに対し遠山氏は同意を示したうえで、自身がイージス艦に乗った経験を振り返り、「イージス艦は”AI”をすでに搭載しているが、敵のミサイルが日本に向けて発射される様子をとらえたら人間のその場での判断を介さないで防衛するとなると、LAWSに相当近いシステムになっているのではないか?だからといってイージス艦ミサイル防衛がLAWSに含まれるとなるとすでに存在することになり、日本はLAWSを規制するとは言えなくなる」としたうえで、「ボタン一つの問題と茂木先生はおっしゃったが、すでにそこまで来ている」とした。

 一方、ロボット研究が専門で千葉工業大学未来ロボット技術研究センター所長の古田貴之氏は、LAWSの定義や「人間関与する」としたときの定義を明確にするべきだと主張した。その前提として、LAWSを規制すべきとする理由として「大量殺戮兵器ができた時に、一般市民が巻き込まれるリスク」「戦争が気軽になる簡易性」の2点を挙げ、後者に着目して、LAWSの議論の前提としてAIをベースにするのではなく、「無人で動く殺戮兵器という定義にして、こうした兵器をNGとするとした方が良いのではないか。AIの有無が問題ではなく、ゲームのように気軽に戦争ができるようになることで、戦争を起こすハードルが下がるのが問題なのではないか」と述べた。

 LAWSの定義として言われる「人間が関与しないで攻撃をする」と言う点について、「人間が”どこの段階で”関与しているかが重要だ」とした古田氏に対し、AI研究が専門で慶應義塾大学理工学部教授の栗原聡氏は、「”関与”と言った時に(攻撃をする判断の)トリガーを直接引くことだけでなく、そのAIのプログラムを書くのは人間なので、人間の関与がないわけではない。直接トリガーを引くだけでなく、(プログラムを書くなどして)間接的にトリガーを引く方が楽だ。殺すことの閾値が下がることが問題だと思っている。これは人道的なのだろうか?」と述べた。

 LAWSの技術的な側面について、古田氏は自動走行のレベル分類を例にとり、「同様に、完全自動なのか、人が最終判断を加えるのかなど、技術の点からフェーズ分けをすべきだ」とした。

 これらの議論を踏まえて、これまで国連のCCWでのLAWSに関する専門家会合に日本政府団の一員として参加している、安全保障が専門の拓殖大学教授の佐藤丙午氏は「これまで出た論点はすべてCCWでも出ている。フェーズ分けについては米国が出している論点。米国はCCWでの議論の流れが『LAWSを禁止する・しない』に偏っていて、本来あるべき議論がないことに対して不満を示している」と話した。また、もともとCCWでの議論自体が、人権団体などによるキラーロボット反対のキャンペーンから始まった背景を踏まえ、「規制の議論とキャンペーンのあり方が錯綜しているが、そこは区別して慎重にすべきだ」とくぎを刺した。