人間とテクノロジー

人間とテクノロジーについて、人と話したり、議論したり、思ったりしたことの備忘録

「シナスタジア X1 – 2.44」雑感メモ

以下はFBに書いたもの。とりあえずメモ。


先週MATで「シナスタジア X1 – 2.44」(シナスタジアラボ feat. evala (See by Your Ears))を体験させていただいて、すごく衝撃を受けて、一方で何が面白いのか、何がすごいのかを言語化できず、ここ1週間もやもや考えていて、先週末トークイベントを聞きに行ってもまだ言語化できず、でも体験した友人たちの話を聞いたり、他のことを考えていたりして、さっき寝ようとしたらふと思ったことがあったので忘れないうちに書き留めておきます。

特に触覚の体験で感じたのが、サイエンス(仕組みの探求として)としてもエンジニアリング(プロダクト化という方向を持つものとして)としても、触覚研究でまだまだ探求・追求できる新しい可能性を見せてくれたということです。

VR研究者方のところによく取材に伺っていた、記者になったばかりの10年以上前、視覚は4K・8Kと高精細化が進み、聴覚も同様で、それぞれすでに高精細化・高解像度化に方向性が決まっていて(あまり面白くなく)、五感を独立に扱う研究としては、触覚・力覚の検出と提示で様々な方向性の可能性がある面白い研究に興味を惹かれました。一方で、リアリティ追求として複数の感覚を組み合わせたマルチモーダルが流行り(?)、続いて注目されたクロスモーダル(感覚感相互作用)研究にとても惹かれました。その中で触覚・力覚の研究は、当初はスパイダーとかTELESARの手みたいに、ハイスペックで研究室の中で閉じたものが多かったところから、techlileのツールキットのように比較的安価で研究室の外に飛び出して誰でも扱える「民主化」「オープン化」が進みつつありました(並行して触覚提示もよりクロスモーダルよりになっていったような)。

触覚の研究がハイスペックな「特別」なものから、より一般化していくように見え、それはそれでとても面白い動きだったのですが、その状態が比較的長く数年続き、正直、いろいろ取材させていただいて一通りもう十分見聞きして体験した、とここ数年は思っていました。もう新しいサイエンスとエンジニアリングはあまり出てこないのかなと。

でも今回の作品は、それらとは異なる、触覚をめぐり、サイエンスとしての探求のツールとして、また新しいプロダクトのエンジニアリングの可能性の両方を示してくれたように思いました。もしかしたら、私はそこに一番興奮したのかもしれません。

多分その触覚を巡っての新しい可能性は、前作のシナスタジアスーツでも示されていたのだと思うし、実際当時体験させていただいたときも、すごい!と思ったのですが、今回椅子という形態になったことで、サイエンスとしてもエンジニアリングとしても広がりが出たようにも思いました。

ってまだ全然言語化できてないけど、あとは今眠いのでまた今度考えます。はなみつさんありがとう!

体験を分解していった時にもうひとつ論点として、いわゆるウェルビーイングの文脈でフロー状態のようなものを感覚提示で作り出せるかと言うのがあって、一歩間違えると危険な方向行くけど、それを検討する余地・可能性があることも感じました。この点全然考えまとまってない。
本来は体験全体として言語化すべきことがあると思うんだけど、そこが全然たどり着けていない(のでとりあえず分解して考えてる)。

 

医療AIって言うのをやめたい

世間でのAI(人工知能)ブームに少し遅れて、医療分野でも医療×AIがブームになった。医療は皆保険制度のために厚労省による規制産業でもあるが、その厚労省が保健医療分野でのAI活用についての方針を示したのが2017年6月。まず推進する分野として「ゲノム医療」「画像診断支援」「診断・治療支援」「創薬」に加えて、今後の推進分野として「介護・認知症」「手術ロボット」の計6領域を重点領域とし、研究開発予算配分などを進めてきた。

この重点6領域が作られるにあたり重視されたひとつが、役所のこうした議論でいつも出てくる「日本の強み」。CT/MRIなどの画像診断が各国と比べ群をぬいて多く、また、ディープラーニングの流行も相まって、特に画像診断支援はデータベース構築から国策として推進されることとなった。

それからもうすぐ2年。医療とAIについてここ3年くらい取材していて思うのは、現状画像診断支援の研究開発はレッドオーシャンになっている一方で、医療現場の人たちが本当に必要としているのは、必ずしもそこだけではないということ。

医療×AIというテクノロジー主導で考えると、重点6領域の設定はリーズナブルだ。一方で、医療現場がそれを本当に必要としているかどうかはまた別の問題。

なので私がここ1年近く周りの人たちに言っているのが、医療AIではなくて、医療の現場の課題解決をテクノロジーを使い、いかに進めるか、ということ。医療AIとか医療×AIって言うの、もうやめようよ。それとも、まだ「AI」っていう言葉はバズワードとして予算取りや注目得るなどもろもろに効き目あるから使ったほうが良いという話なの?

目的と手段が入れ替わってはいけないが、テクノロジー主導型になるとテクノロジー導入そのものが目的化しがちになる。だが、医療のようにシステムが複雑で、多数の多様なステークホルダーからなる領域では、テクノロジーが目的化すると実装は進まない、のだと思う。

 

↓「なんでもかんでも“人工知能”って呼ばない。」ステッカーをじゅんじさんが作って配っていたのはもう3年前のこと。

f:id:katsue-nagakura:20190224112103j:plain

 

アルスエレクトロニカと東京ミッドタウンによる「未来の学校祭」

アルスエレクトロニカ東京ミッドタウンによる「未来の学校祭」が2月21日から今日まで東京ミッドタウンで開催されている。テーマは「ギリギリ」。アルスエレクトロニカは、オーストラリアはリンツを拠点に、毎年開催されるアートとテクノロジーの祭典「アルスエレクトロニカフェスティバル」の主催機関だ。東京ミッドタウン内に展開される展示のほか、ワークショップやトークイベントなどがある。昨日、展示を少し見てきたのでメモ。

地下2階、人だかりの中にあるのは、立つソファ。ジェイコブ・トンスキーによるBalance From Withinという作品。行ったときはちょうど調整中で、ソファが自立すると、周囲の観衆から拍手がもれた。

反対側から見ても立っている。

メディア芸術祭でも観た、Ryo KishiさんによるObOrOは子供たちに人気。

行ったときはやっていなかったけれど、気になった展示。SFCって・・・。

ガレリア地下1階のアトリウムへでは、藤堂さんのSEERの周りに人だかりが。

行ったときはパフォーマンス時間でなくて動いていませんでしたが、時間になるとゴムチューブが曲がりくねって動き回るとのこと。

筧康明さんと細尾真孝さんらによる、西陣織にテクノロジーをかけ合わせた作品たちも。こちらは温度によって変色する織物。

 

LOVOT体験会に行ってきた

12月18日に発表されたLOVOTの体験会に年末に行ってきた。LOVOTは、元ソフトバンクでペッパーを手がけた林要さんが設立したベンチャーGROOVE Xが開発した家庭用ロボットだ。なおGROOVE Xは2015年の設立だが、2017年末までにLOVOT開発のために80億円を資金調達している。それだけ資金を集められるという点で、LOVOTへの期待は大きい。

 

lovot.life

体験会は日本橋浜町の同社で行われた。会場は5−6畳ほどの部屋を模したLOVOT体験スペースが複数あり、ほかに展示スペース、技術含めた解説スペースがある。体験時間は5分間で、待っている間に他のスペースを閲覧する。それぞれのスペースにスタッフが複数いらっしゃって、丁寧に説明していただいた。

展示スペースにはLOVOTがたくさんいる。

キャリーバッグや、きせかえの提案も。

LOVOTはきせかえが前提なので、きせかえグッズもたくさん展示してありました。

 

解説ブースは手書きでのパネルで覆われていました。楽しそうな様子が伝わってきますが、これを見るだけではわからないので、その場にいらっしゃったスタッフのかたたちに聞きながら閲覧しました。生活リズム、とあるのは1回の充電で45分間稼働して15分間充電が必要になります。45分後にネスト(巣)を呼ばれる充電器に自動的に戻り、充電する仕組みとのこと。

体験スペースでは、2台のLOVOTと触れ合えます。名前を呼ぶと近づいてきたり、抱っこしてと両手を上げたりします。

「抱っこして」のときは、近づいてきて両手を上げ、車輪を格納します。移動時は車輪(前輪2つと後輪1つ)が出ています。

 

手前が車輪出て移動している状態。奥は車輪が格納されている。

LOVOTは人が好きで触れ合うためのロボットということで、なにかの「役に立つ」というものではありません。実際の体験でも、名前を呼ぶと来てくれるとか、抱っこするとか、コミュニケーションといっても対話コミュニケーションはほぼない。

そのため、触ったり抱っこしたりといった人と触れる点に多くの工夫が見られました。例えば温度。触れてすぐに気づくのは温かいこと。小さい子供くらいの温度があります(製品版ではもう少し温度を低くすることを検討しているとか)。ロボットのイメージから温かいというのは意外性があり、印象的でした。

一方で、抱っこを前提としていながら、重さがやや重い(3kg台)のが気になりました。人間の赤ちゃんと同じ重さですが、サイズの大きさもあり持ったときによろっとなる。なおaiboは2.2kg。それともう一つ気になったのが角。カメラなどが格納されているということですが、これがないほうが触ったり抱っこしたりするには適しているように思いました。

LOVOT体験会は1月も開催され、事前に予約すれば誰でも体験できる。

コンピューティングの学会が基調講演にバノンを呼び炎上、中止

研究者とその周縁の境界があいまいになり、人々の交流・相互作用が進むのは不可避である一方、異なる多様な価値観を持つ人間の交流は、ポジティブだけでなくネガティブな側面も引き起こす。(研究者はネットに生息する人が多いためか)研究者とその周縁で観測されるいわゆる「炎上」案件もネットで容易に可視化されるようになってきました。先日別の炎上のかおりのする案件の話題からACEの話が出て思い出したので、去年の話ですが以下メモ。

昨年12月に予定されていた、ACE2018というエンターテインメントコンピューティングの国際学会が中止になるという、ちょっとした騒動があった。10月末、ACE2018の基調講演にトランプ大統領の元側近で右派メディア「ブライトバート」を経営するスティーブ・バノン氏が招かれたことが明らかになり、もうひとりの基調講演のスピーカーは辞退、ツイッター上では「#boycottACE」のハッシュタグでボイコットを呼びかける声が広まり、採択された研究者たちも論文取り下げた。以下のWIREDの記事にもあるように、ACE2018でバノン氏を招待したのはACE2018の大会長だ

Why Is Steve Bannon a Keynote Speaker for a Gaming Conference?

 

なお、過去のACEの設立に、エンターテイメントコンピューティング関連の日本の研究者も関わっており、情報処理学会エンターテインメントコンピューティング研究会では、以下のようにACE2018についてツイートしている。

 

結局、11月15日にはACE2018のトップページが更新され、「ACE2018はfanatic left-wing anti-free speech protests(狂信的な左翼の反自由な言論の抗議)によってシャットダウンされた」というメッセージが掲載され、ACE2018は中止となった。

クイーンと大きな物語

ボヘミアン・ラプソディ」を観た。同じ映画館で年末と年明けに2回。どの曲も知っているし、なんなら口ずさめる。周囲の人を気にしながらも、音楽が流れると体が自然に動き出す。


映画『ボヘミアン・ラプソディ』最新予告編が世界同時解禁!

20年前の高校生の頃、クイーンのアルバムを数枚、輸入盤CDで購入した。購入したお店はたまに寄り道するHMVか、ほぼ毎日帰りに寄っていた近所のブックオフで中古だか、とにかく輸入盤CDだった。

バイト禁止の高校生のお小遣いでは1枚3000円以上する国内盤を月に何枚も買うわけにいかず、中高生の頃は自ずと海外の、それも昔の音楽を聴くようになっていた。輸入盤が安かったし、近所のブックオフでは中古CDがたくさんあった。

クイーンを知ったのは何でだったか覚えていないけれど、70年代はこの音楽を抑えないといけない、という、教科書的使命感から、T-REXとかボウイとかを聞いていたのと同じように、片っ端から視聴していた中に当然入っていた。

「70年代はこの音楽を抑えないといけない」という教科書的使命感は、中高大くらいまでの自分のあらゆる消費行動を規定していたし、90年代くらいまでの音楽ではそういった誰もが共有できる評価指標がなんらか、あった。オリコンチャートとか、MTVとか。

大量にある情報の中から選択をするのは、非常にコストがかかる。社会全体が共有している評価指標がある中では、ヒットチャートとかアルバム販売とかライブ動員数といったわかりやすい指標が選択を助けてくれて、自分が好きなものも良いものもわからない中高生の自分には、それらはおおいに助けになった。

クイーンが好きなのか良いのかは未だわからない。ただ、10代の頃に繰り返し繰り返し聴き(多くは勉強中や移動中のながら聴きだけれど)、なんなら意味がわからないままに歌詞もうたえるようになっている耳馴染みのいい曲がたくさんある、ということ。そしてそれを繰り返し聴きたくなる、ということ。

CDアルバムはあれどもプレイヤーがない自宅でも、YoutubeでもAmazon musicでもクイーンの音楽は聴けるし聴いている。でも、「ボヘミアン・ラプソディ」を2回観たのは、ひとえにクイーンの音楽を映画館で聴きたかったからだ。


Queen - Live AID 1985 Full Concert (Best Version) (HD)

もうひとつ、ライブ・エイドの映像に感動するのは、何億人もが同時に共感する共通の音楽への憧れなのかもしれない。誰もが知っている、誰もが口ずさめる、そういった音楽が世の中から消えて久しい。社会は大きな物語を失って、それに変わるものがないままに、私達は自分で自分の物語を作っていくこと、選択していくことを強いられている。それは個人が尊重されている、選択肢が多い(のはいいことだ)とも言える一方で、大変めんどくさい現実だから。

2018年まとめと2019年抱負

年が明けてしまったけれど2018年まとめ。1月に今の会社に転職し、医療関係者向けウェブメディアの編集(と記者)が本業になりました。医療AI(という言葉が私は嫌いなのだけど、「医療現場の課題解決をテクノロジーで解決する」という話だと思っています。要は医療でのIT活用や研究の話)の新しいメディアを立ち上げから編集・運用までやっているので、そちらにかかるエフォートが大きく試行錯誤の一年でした。

医療と(いわゆる)AIについてはここ2〜3年見ているのですが、2018年はプレイヤーが増えたという点でも大きく動きがあった1年でした。一方で技術以外での課題が大きく、そのあたりも含めて冬休み中にもう少しまとめたいなーまとめられたらいいなあ・・・。

ともかく以下、会社外での活動についてまとめます。

AIと倫理、社会

IEEE EADv2WS

いわゆるAIと倫理や社会を議論していくにあたって、現状を整理したいという目的で1〜3月に計6回のワークショップを開催し、レポートをまとめました。IEEEのグループが作成し2017年12月に公開した報告書Ethically Aligned Design(EAD) version2の項目を参照にして12人の講師に講演していただき、議論をしました。

IEEE “Ethically Aligned Design” Workshops in Japan - EADv2 Workshop

EADのversion1は2016年12月に公表されていますが、公表したものをたたき台にしてバージョンを更新し、version3を最終版として2019年に公開する予定です。なお、version1への意見インプットのために2017年にも数回のワークショップを行っています。今回はその流れからversion2の公開に際して企画しましたが、前回とは異なり、version2へのインプットではなくあくまでもEADをインデックスとして使い、現状の事実関係の整理をしたいというのが狙いでした。前回に続き、エマちゃんと企画して実施しています。

前回のversion1のときのワークショップ案内はこちら。

IEEE “Ethically Aligned Design” Workshops in Japan - Workshop In Japan

「情報法制研究」

上述のEADv2WSに関連して、情報法制学会誌「情報法制研究」に報告と考察をエマちゃんが寄稿していまして、以下から読むことができます。

http://alis.or.jp/img/issn2432-9649_vol4_p003.pdf?fbclid=IwAR025jMgqtkenJVUp4QVgyv70U_UCzaHD-uiZFSwnreWqUmQZUOLcgLMC-c

「ジャーナリズム」

AIと社会という観点では、朝日新聞の記者向け媒体「ジャーナリズム」7月号の「AIと社会」特集に「AIでどんな社会をつくりたいか 記者も当事者として議論に参加を」として寄稿させていただきました。

publications.asahi.com

研究者とSF

ディストピアWS

エマちゃんと2−3年前から続けている「ディストピア」の議論のひとつで、研究者など色んなステークホルダーの人たちが、「ディストピア」の社会について議論をするワークショップというものがあります。その3回目として、GWに1泊2日で「作家が研究者にインタビューしてディストピア作品を作るWS」をしました。

一日目にインタビュー、一晩たって次の日のお昼頃に作品を完成、講評というなかなか無理のある企画でしたが、3人の作家と演出家1人によって小説1作品、演劇シナリオ2作品が完成しました。

ディストピア企画」の趣旨は、2017年の人工知能学会全国大会でエマちゃんが発表しています。

jsai2017:4G2-OS-14b-3 人工知能と社会について考える場づくりの実践

なお、「ディストピア」という枠からは少し外れるのですが、研究者×SFという枠組みで引き続き勝手プロジェクトを進めています。アウトプットまでにはもう少し時間がかかりそうですが、ご協力してくださるたくさんの方たちのおかげで面白い企画になりそうで、がんばります。

安全保障とAI

人工知能学会倫理委員会

人工知能学会倫理委員会では、今年の全国大会では安全保障技術とAIに関するセッションを企画しました。

ai-elsi.org

安全保障技術とAIを巡っては倫理委員会では倫理綱領策定にあたり当初から議論に出ていましたが、倫理綱領に何らか言及して盛り込む議論をするには、安全保障についての我々の知識がないために理解が浅いという理由で見送られました。そこで、倫理綱領策定後もたびたび勉強会を開いてきたのですが、そうした中、国連ではLAWSの議論もあり注目が集まりました。そこで、海外の安全保障関連の情報提供として佐藤先生と南さんに講演していただきました。

開催報告は上記の倫理委員会のサイトにも載せていますが、ほぼ同じ内容を人工知能学会誌11月号にも載せています。

【会誌発行】人工知能学会誌 Vol. 33 No. 6 (2018/11) – 人工知能学会 (The Japanese Society for Artificial Intelligence)

なお3年続けた人工知能学会倫理委員ですが、任期ということでめでたく退任したんですが、安全保障とAI関連については、現状の整理をするという点でしばらく取り組んでいきます。クローズドでの勉強会を12月中に2回開催したのですが、年明けから春にかけてももう2−3回は続けていく予定です。

全体的に

2018年は新しいテクノロジー(AIなど)と社会との関連、境界面を見て整理していくという点でこれまでと同じように取り組んできました。一方で、本業の試行錯誤と取られるエフォートが大きく、課外活動が思うようにできなかったのが反省。もっとできたことはあったはず・・・。

2018年の大きな変化としてはこれまでテクノロジーと社会と言った時にステークホルダーとして主に研究者、行政、事業者を見てきたのですが、そこに作家、クリエイターとの関わりに積極的になってきた点。もちろん作家、クリエイターの重要性は以前から理解はしていたのですが、ハードルが高いという思い込みのためになかなか突っ込めていませんでした。ディストピア関連の企画などで関わることはあっても、一緒になにかに取り組むということには及び腰になっていました。研究者×SFの企画をやってみよう、これはできそう!と思って前へ進めるようになったのは大澤さんとの議論が大きいです。議論なのか大澤さんのキャラなのかはわかりませんが。

ということで2019年は引き続き新しいテクノロジーと社会との関連、境界面を見ていきつつ、ここ数年の目標である「定点観測ブイかつ船になる」もあり、当事者として企画を作っていきます。

人が関与せず攻撃するAI兵器の規制は可能か?―国会議員、政府、市民団体、専門家らが議論

 人間の関与なく、敵を攻撃し殺傷する兵器をいかにして規制していくか――。このような「自律型致死兵器システム(LAWS)を呼ばれる兵器の開発・使用の規制に向けた議論が昨年から国連で議論が進められている。こうした中で日本はどのような役割を果たしていくべきか、国際NGOなどと超党派の議員が主催する「キラーロボットのない世界に向けた日本の役割を考える勉強会」の第2回会合が11月20日に開催され、AIやロボット、安全保障の専門家や政府関係者を交えた議論がなされた。 

 LAWSは明確な定義はないが、人間の関与なく目標を攻撃する兵器とされ、現在のところ存在していないものの、今後開発が進み実用化すれば核兵器のような強いインパクトを持つと懸念されている。なお、AIにより自動化された兵器は1990年代ごろからすでに実戦配備されているが、これはLAWSではないとしている。

 2013年ごろから国際人権NGOヒューマン・ライツ・ウォッチなどの国際NGOがLAWS反対キャンペーンを展開してきた。こうした流れを受けて、対人地雷やクラスター爆弾などの規制を進めてきた国連の「特定通常兵器使用禁止制限条約(CCW)」の枠組みで2017年11月から公式の政府専門家会合が開催され、LAWSの開発・使用の規制に向けた議論を進めている。今年4月に開催された第2回政府専門家会合では、オーストラリア、中国、ブラジル、イラクパキスタンなど26カ国がLAWSの禁止を表明した(中国は使用禁止のみ)。


 こうした国連での議論を受け、勉強会の主催団体のひとつであるヒューマン・ライツ・ウォッチの土井香苗氏は「世界ではLAWSは受け入れられないで一致しているが、問題はどのようにしてLAWSのない世界を実現するかだ。我々としては、LAWSの開発・生産・使用を禁止する条約交渉を2019年から国連で開始すべだ」と提案した。


 「キラーロボットのない世界に向けた日本の役割を考える勉強会」はヒューマン・ライツ・ウォッチと遠山氏のほか小野寺五典議員(自民党)、小林史明議員(自民党)、山内康一議員(立憲民主党)、小熊慎司議員(国民民主党)、遠藤敬議員(日本維新の会)、認定NPO法人 難民を助ける会(AAR Japan)、認定NPO法人日本国際ボランティアセンター(JVC)、認定NPO法人ヒューマンライツ・ナウ(HRN)、特定非営利活動法人地雷廃絶日本キャンペーン(JCBL)が主催しており、第1回会合は今年4月に開催された(「「殺人AI兵器にNOを」―超党派の国会議員が議論」を参照)。

www.huffingtonpost.jp


日本政府としては「LAWS開発しない」「兵器利用は人の関与が必須」

 遠山氏はこれまでも国会質疑で日本政府としてのLAWSに対する見解を質問してきたが、勉強会ではまず外務省担当者が「人間が関与しない完全なLAWS開発の意図はない」「兵器を使う場合は人間による関与が必須だ」との日本政府としての見解を確認した。その上で、「人間が全く関与しないようなシステムは禁止されていくべきと考えている。この考え方は今後も国際会議等で主張していく必要があると考えている」(外務省担当者)と説明した。一方で、これまでのCCWの専門家会合の議論では、規制の対象とすべきLAWSの定義が各国で大きな隔たりがあり、共通の認識を得られる状況にないと説明。さらに、規制の枠組みについても「直ちに法的拘束力のある文書の検討を始めるべき」という意見がある一方で、「今の時点では政治的にLAWSに対する宣言を採択してはどうか」という意見があるなど、LAWSに対する対応についても各国の意見の隔たりは大きいという現状を述べた。

 また防衛省担当者も、LAWSに対する政府見解は防衛省も同様だとしたうえで、「人間か関与しない形のLAWSは禁止すべきで、自衛隊でも現存していない。今後開発を行う予定はない」と説明した。

存在しないLAWSをいかに規制するか?

 こうした政府見解を踏まえたうえで、遠山氏のほか、専門家らによる議論がなされた。まず遠山氏は、「LAWSはまだ存在しないものだが、存在しないものを禁止するのは難しい。LAWSの定義付けも合意できていない。LAWSを規制すべきと言うのは、NGOも政府も同じ立場だが、そのために一足飛びに禁止までできないのが現状だ。まだ存在していない兵器を禁止することはできるのだろうか?」と問題提起した。

 これに対し脳科学者の茂木健一郎氏は、「規制することに対しては悲観的だ」と述べた。核ミサイルの防衛システムを例にとり、「人間の関与というのはボタン一つの問題で、包括的に禁止するというよりは、最後の”味付け”の問題だ」として「LAWS」としての禁止が難しいことを説明した。これに対し遠山氏は同意を示したうえで、自身がイージス艦に乗った経験を振り返り、「イージス艦は”AI”をすでに搭載しているが、敵のミサイルが日本に向けて発射される様子をとらえたら人間のその場での判断を介さないで防衛するとなると、LAWSに相当近いシステムになっているのではないか?だからといってイージス艦ミサイル防衛がLAWSに含まれるとなるとすでに存在することになり、日本はLAWSを規制するとは言えなくなる」としたうえで、「ボタン一つの問題と茂木先生はおっしゃったが、すでにそこまで来ている」とした。

 一方、ロボット研究が専門で千葉工業大学未来ロボット技術研究センター所長の古田貴之氏は、LAWSの定義や「人間関与する」としたときの定義を明確にするべきだと主張した。その前提として、LAWSを規制すべきとする理由として「大量殺戮兵器ができた時に、一般市民が巻き込まれるリスク」「戦争が気軽になる簡易性」の2点を挙げ、後者に着目して、LAWSの議論の前提としてAIをベースにするのではなく、「無人で動く殺戮兵器という定義にして、こうした兵器をNGとするとした方が良いのではないか。AIの有無が問題ではなく、ゲームのように気軽に戦争ができるようになることで、戦争を起こすハードルが下がるのが問題なのではないか」と述べた。

 LAWSの定義として言われる「人間が関与しないで攻撃をする」と言う点について、「人間が”どこの段階で”関与しているかが重要だ」とした古田氏に対し、AI研究が専門で慶應義塾大学理工学部教授の栗原聡氏は、「”関与”と言った時に(攻撃をする判断の)トリガーを直接引くことだけでなく、そのAIのプログラムを書くのは人間なので、人間の関与がないわけではない。直接トリガーを引くだけでなく、(プログラムを書くなどして)間接的にトリガーを引く方が楽だ。殺すことの閾値が下がることが問題だと思っている。これは人道的なのだろうか?」と述べた。

 LAWSの技術的な側面について、古田氏は自動走行のレベル分類を例にとり、「同様に、完全自動なのか、人が最終判断を加えるのかなど、技術の点からフェーズ分けをすべきだ」とした。

 これらの議論を踏まえて、これまで国連のCCWでのLAWSに関する専門家会合に日本政府団の一員として参加している、安全保障が専門の拓殖大学教授の佐藤丙午氏は「これまで出た論点はすべてCCWでも出ている。フェーズ分けについては米国が出している論点。米国はCCWでの議論の流れが『LAWSを禁止する・しない』に偏っていて、本来あるべき議論がないことに対して不満を示している」と話した。また、もともとCCWでの議論自体が、人権団体などによるキラーロボット反対のキャンペーンから始まった背景を踏まえ、「規制の議論とキャンペーンのあり方が錯綜しているが、そこは区別して慎重にすべきだ」とくぎを刺した。

研究者の研究

研究者の研究をする研究会をしよう!

と、昨夜、たまたま行ったイベント会場で遭遇した友人2人と話していました。勉強会をしたいね、という話をしている中で、「研究者の研究をしたい」という話になった。その時考えていたことを、忘れないうちに、メモ。

研究者の何を研究するのか?研究者の研究は面白い。面白いけれど、何で研究しているの?何でその研究をしているの?と思うことがある。でも、普段研究を話しを聞くときに、そこまで突っ込んで聞くことができない。そこで、研究の話に加えて、なぜその研究をしているのか?なぜそもそも研究をしているのか?(研究者であるのか?)を突っ込んで掘り下げて聞く。

では、なぜそれを聞きたいのか?それを聞くことで何につながるのか?

研究者は特定分野の専門家だ。特定分野の専門家(研究者でいなかにかかわらず)が数人集まって、何かが生まれる時がある。生まれない時もある。目的を共有しているとき、生まれることが多い。でも、あらかじめ目的を共有していなくても、問いから一緒に作っていき、目的を一緒に作っていくこともある。そうしたときに、なぜ研究をしているのか?なぜ研究者であるのか?そうしたことが、潜在的な引力になることがあるのではないのかな、というのがひとつの仮説だ。

「研究者の研究をしたい」と言っていたら、その場にいた知人が、こんな話をしてくれた。ある専門家を、何時間も何日も掘り下げて、構造化されたインタビューをしたインタビュアーがいた。インタビュアーはひたすら聞き続けた。彼はただ聞いていただけなのに、インタビュイーは話しているうちに、ああ、自分はこれがしたかったのか、これをしていたのか、こういうことだったのか!と気付いたという。

もしかしたら、そういうこともあるのかもしれない。意図するしないにかかわらず。

でも、本当は、ただ聞きたいだけだ。知りたいだけ。研究者という人達が好きで、彼らに興味があるから。

WIREDとAudiのアワードのイベントでした。

東大制作展雑感もろもろ

東京大学制作展”Dest-logy REBUILD”の雑感です。制作展は情報学府の授業の一貫でM1を中心とした学生さんたちが企画から運営、作品の出展などを行うメディアアートの展示会で、毎年この時期と初夏?にあります。近所ということもあり、だいたい毎回週末に観に行っています。東大だけでなく、東京藝大など他大学の学生さんたちとのコラボ作品も多く、工学なのか、アートなのか、デザインなのか、そのあたりの要素がまぜこぜになった、普段見ている研究とは一味違う、とても面白い作品たちに出会うことができるので、毎回楽しみにしています。

体験していろいろと考えることがあった点では、自分の3Dスキャンから自分のアバターをその場で作ってドッペルゲンガーを体験する「二重人殻」が面白かったので以下で思ったことをつらつらと書きました。

kaetn.hatenablog.com

ところで、その場で3DスキャンしてVR空間に自分のアバター取り込んだコンテンツ体験できるって、アプリなどツールが充実してきたおかげではあると思うけれど、技術の進歩とコモディティ化のスピードの速さを感じます。

THKのロボットが案内をしてくれた

2階フォーラムでは、会場案内ロボットがいました。制作展の会場は、3ヶ所に分かれていて、フォーラムから他の展示場へ案内をしてくれます。正面にたつと話しかけられ、どちらへ行くかを対話で選びます。選択した場所へ行くためにロボットが先導してくれました。

後ろについていきます。

こちらです、のポーズ。

 ところでこのロボット、ハードはTHKのSEED Platformを利用していて、ソフトは共同研究をしているJSKが開発。ヒューマノイドと言えなくもないけれど、溢れ出る産ロボ感がありました。

ロボットに抱きしめられ、恐怖を感じた

ロボットでは、ロボットに抱きしめられる展示がありました。「Electric World」という作品で、世界観とストーリーが作り込まれていました。なんですが・・・

 

 これに対して、以下のリプを頂いたんですが、なるほどと思いました。

 

ただ一方で、信用(信頼?)ってどうやって生まれるのかな、とも思いました。人に対するそれとロボットに対するそれはまた異なるのではないかと。ロボットへの不安や恐怖は、その力の強さというよりも、故障など不測の事態のリスクが含まれるためではないかと思いました。そしてそれに対する信用や信頼は、ゼロリスクはありえないので、どのように構築していくのか、と、また答えないんですが。

さわる顕微鏡は普通に売れそう

指先にレンズ、センサー、振動子を付けてプレパラートの上を触ると、拡大して画面に表示する触る顕微鏡は、普通に売れそうだなと思いました。細胞の上を触るつぶつぶ感も触覚提示します。稲見研の大伏仙泰さんによる「Feelable Microscope」という作品。

指先にデバイスをつけてプレパラートの上を滑らせると、触れた部分の拡大画像がディスプレイに表示されます。観察しているのは赤玉葱で、細胞壁に囲まれた細胞ひとつひとつがくっきり見える。

指先にレンズがついています。

病理をやっていた学生時代は一人一台オリンパスのどっしりした顕微鏡を使っていましたが、細胞診や術中迅速診断などでは、こうした簡便な顕微鏡が使えるのではないかなあと思いました。最近ではスマホ顕微鏡もあるけれど、知人の病理医によるとスマホ顕微鏡でもある程度診断できるそうです。

ほかにもいろいろ

顔認識からその瞬間の生年月日を推定するシステム。秒ごとに推定が変わるのだけれど、だいたい実年齢より若く表示されるけれど、あえて配慮されているのかしら??

センサーの上で手をぐるぐる回すと、水槽の中で渦ができる。

 

ドッペルゲンガーVR「二重人殻」で思った、自分を自分と認識することの難しさ

11月19日まで開催中の東京大学制作展で出展されている、畑田裕二さんの「二重人殻」というVRコンテンツが興味深かった。

iPhoneアプリで顔や全身をその場で3Dスキャンした、自分自身の3Dのアバターが、HMDを被って体験するVR空間の中で、ドッペルゲンガーのように現れるVRコンテンツだ。

HMDを被ると、VR空間内の部屋の中で製作者の畑田さんのアバターが現れ、鏡の前へ誘導してくれる。そこで、自身のアバターと対面する。畑田さんはリアルタイムでその場で実際に動いたり話したりしているが、その動きがVR空間内に反映される。VR空間内で、自分のアバターが自分の動きとは独立に、畑田さんのアバターに暴力を振るったり、または振るわれたりするなどして、動く様子を三人称視点で見る。後半、自分のアバターが100体に分裂したり、小型化したりする。リアルの自分の動きを、アバターに反映することもできた。最後は、畑田さんの動きを反映した自分のアバターが自分に向かってくる。つまり、自分と自分が対峙する状態になる。

このとき、それまで体験中に感じていた違和感がはっきりとわかった。私は自分のアバターを自分として認識しきれていなかった。

VR体験は、HMDを被ってからの演出が、その世界に没入するためにとても重要な働きを果たすと思っている。その点で、畑田さんの演出はとても上手で完璧だったと思う。

ただ、3Dスキャンして作った自分のアバターを自分として認識できるかどうかはまた別問題だった。

自分を自分として認識することは、案外ハードルが高いことなのかもしれない、と思った。ただ顔の見た目が同じだけでは自分として認識するわけではない。今回の体験では、全身スキャンではなく顔だけのスキャンだったため、身体は既存のモデルを使った。そのためか、身体の動きが不自然だったこと、また既存のモデルが来ているような白シャツとパンツと言う組み合わせの服装を私は普段しないこと、また顔も3Dスキャンしていても、後頭部あたりは欠けていることなどから、自分のアバターを自分として認識しなかったのかと思った。

もうひとつはドッペルゲンガーのように、自分の意図と独立で動く自分のアバターの場合、行為主体感がないために、それを自分と認識しないのではないかということ。体験の中では、リアルの自分の動きをアバターに反映させられるときもあったのだけれど、その時は自分として認識しやすくなったように思う。

ただ、この自分のアバターを自分として認識するか否か問題については、他に体験していた人たちはちゃんと自分として認識していたようだったし、個人差も大きそうだ。鳴海さんによると女性のほうが認識しにくいということだったがなぜなのか、そもそも個人差なのか性差なのか、よくわからない。

それで思ったのが、今回のような「分身」VRではなく、「変身」VRの場合、「変身」したアバターを自分としてどう認識しているのだろうか、ということ。HMDを被ってVR空間内で自身のアバターアインシュタインになると課題を解く正答率が上がったり、黒人のアバターを使うとサラリーマンのアバターよりもドラムをうまく叩けるといった研究がある。これは、VR空間内で鏡に自身の姿を映すことで、自分の見た目が変わっていることを認識する演出がある。私も以前、動物のアバターで体験してみたが、確かにVR空間内で鏡を介して自分の姿を見ると、そのアバターを自分だと認識しやすくなった。

今回の「分身」VRでも、最初にVR空間内の鏡を使って、自分のアバターを自分として認識するよう誘導する演出がある。ただ、では動物のアバターのときと、自分自身の見た目のアバターのときとで、どちらがそのアバターを自分と認識するかというのは、難しいところのような気がする。

そもそもリアルでも人は鏡を見ない限り、自分の顔を見ることはできない。自分の顔を自分と認識するのは、鏡を信頼しているからにすぎない。その鏡が映すものを信頼するのであれば、そこに映るものが自身の3Dスキャンしたアバターであろうと、他者や動物のアバターであろうと、同じことなのではないかなあと思った。

 

アカデミアVR、安全保障とテクノロジー、SFとテクノロジー

先週と今週、立て続けに、そして私にしてはとても珍しく有休をとった。先週は東大VRセンターの設立記念式典へ、今週は安全保障の専門家に会いに行くためだ。

会社の仕事と関係なく、会社を休んでもやらないといけないって自ずとやっていることが、私にはいくつかある。ちょっと考えてみたら、おおざっぱに分けて3カテゴリーあった。

ひとつは、アカデミアVR、と言うべきか、大学などのVR研究者たち。

もうひとつが、安全保障とテクノロジー

最後のひとつが、SFとテクノロジー

アカデミアVRは、新人記者時代に偶然から取材するようになった11年前から、安全保障とテクノロジーはSCHAFTの方たちと知り合って、仕事を休んでDARPAロボコンにフロリダへ行った5年前から、SFとテクノロジーは「ディストピア」について議論したり考えたりするようになった2年前から、なんとなくずっと自分の頭の中にあって、たまたま本業と関係していたら本業内で、本業と関係がなかったら業務外で、調べたり取材をしたり議論をしたり考えたり書いたりしてきた。

もしかして、「ライフワーク」というのは、こういうことを言うんでしょうか?特に業務としてやっているわけでも、お金になるわけでもないけれど、どういうわけか自ずと体と頭がそっちへ動いてしまうから、頭の中にずっとあるから、知りたいと思う。理解したいと思う。疑問に思う。整理したいと思う。書き記したいと思う。記録したいと思う。

どこへ向かうのか、たどり着くのか(またはたどり着かないのか)わからないし、目的や目標があるわけではないけれど、でも自分がそうしたいと思わなくても頭の中にあって、体と頭がそちらへ向かっていくので、まだしばらくは、この3つに関連することにゆっくりと、断続的に見て、聞いて、議論して、何かを書いていくんだろうなあと思います。

毛利庭園のポケモンGOのジムにもう一度登ってみたくなった

10月12日から21日まで、六本木ヒルズで開かれていたポケモンGOのイベントでは、ジムに登るVRと、毛利庭園内で音を頼りにポケモンを捕まえるAR庭園があり、どちらも初日の夜に体験してきました(VRは2〜3人待ち、AR庭園は整理券制で1時間半待ち)。

最終日、また体験したいなと夕方毛利庭園へ行くも、どちらも2時間待ちということで断念。一回行ったのになぜまた行くのかと指摘され、何でかなあと思いあたったのが、ジムから毛利庭園を見下ろすと、隠れているポケモンが見えるという情報をあとから知ったのでそれを確かめてみたくなり、もう一度体験したいと思ったということ。それを確認するためだけにVRでジムに登って、AR庭園でポケモンを捕まえたい、と思った。

それで思ったのがコンテンツと文脈の強さ。

そもそも今回のポケモンGOのイベントに行こうと思ったのは、普段からポケモンGOをやっているからというだけではなく、VRやARでポケモンGOの世界を体験したかったからです。一回行けばその目的は達成されたはずなのに、もう一度行こうと思った。それは、コンテンツや文脈の強さによるものでした。

ジムに登るVRは東大の廣瀬・谷川・鳴海研究室の研究であるInfinite Stairs(無限階段)の仕組みが使われていて、無限階段の技術そのものはこれまでに何度も体験したことがあります。放射線状に細長い棒が地面に並んでいて、その棒が階段のエッジの役割をします。HMDスタンドアロン型のLenovoMirage Solo。初めて使ったけれどまあ普通)をかぶって階段の映像をみながらそのエッジを踏みながら歩くと、平面を歩いているのにあたかも階段を上り下りしている感覚が得られるというもの。


Infinite Stairs(無限階段)

ただ、今回のジムに登るVRでは自分の足のトラッキングと表示がないことから、それがあった以前の体験と比べて没入感は損なわれていました。初日にジムの上に登った時には、見上げるとファイヤーがいるなあ、と確認しつつも、やっぱり無限階段の技術の方に気を取られ、足のトラッキングがないなあとか、降りる時には以前のような足がすくむ状態にはならないなあとか、そんなことばかり考えて体験をしていました。でも、それってちょっともったいない体験の仕方だった。どこにどんなポケモンがいると、ちゃんと覚えていれば、次にAR庭園を体験したときにまた楽しめたのかもしれない。もっとコンテンツの世界に入り込むものでした。

一方のAR庭園。こちらはまずピカチュウイーブイのサンバイザーをかぶった上で、開放型ワイヤレスイヤホンをつけ、(3Dプリンタで作ったと思しき)集音器(?)にスマホがついたガジェットを手に持って、毛利庭園内のポケモンを探します。こうした演出はコンテンツの世界に入り込む手助けになり、物理空間や物理的なものを活用するARのほうがHMDをかぶるだけのVRと比べて、演出の幅が広い。

イヤホンからの音に加えて、ポケモンに近づくとスマホの画面にそのポケモンが表示、タップして捕まえ、3体ポケモンを捕まえるとスタッフにスマホを渡して、そのうちの1体とスマホ画面内のARで遊ぶという内容。

まだまだプリミティブなものなのだと思いますが、音と空間を使った今後のゲームの可能性を感じさせてくれる、体験してよかったと思えるコンテンツでした。ポケモンがなかなか見つからない(初日だったためか、そういう仕様なのか?)、音がわかりにくく結局スマホ画面をたよりにポケモンを探すといった、ゲームとしての不完全な点はありました。ただ、それでも楽しめたし、画面に表示させずに音だけを頼りにしては?手で持つガジェットの振動など触覚を利用しては?などいろいろと妄想が広がって面白かった。

それはともかく、AR庭園ではポケモンがなかなか見つからなかったのもあり、もう一度ジムVRで見下ろして当たりをつけてからAR庭園で探したいなあと思ったという次第です。

カビゴンとナッシーとコイキングを捕まえました。ピカチュウがほしかった!

毛利庭園の芝生でカビゴンとたわむれました。

ミュウツーをやっと捕獲したこと

ミュウツーと5回くらいレイドバトルをやって、昨日、初めてミュウツーを捕獲しました。取材ででかけた渋谷のジムで、5−6人くらいのレイドバトルで。

これまでそんなに真面目にポケモンをやっているわけでもないし、そんなにミュウツーがほしかったわけでもないし、だいたい周りでポケモンをやっている人たちはミュウツーを何体も持っているし、今更なんですが、なんだか嬉しくて、会社に戻ったら速攻同僚に報告したくらいには嬉しかった。

だいたい家の近くも会社の近くも、レイドバトルをやっていても人がいない。だからミュウツーが出ていてもせいぜい2〜3人、少ないと誰もいなかったりするので勝てない。そういう経験を何回か繰り返しているうちに、「ミュウツー欲しいなー」とうっすら思うようになってきた。

もともとミュウツーが欲しかったわけではない。そもそもそんなに真面目にポケモンをやっているわけではない。ここ数ヶ月は毎日アプリを開いてはいるけれど、その前は1年近くはアプリを開きもしなかったし、気が向いたらやっているくらいだ。

それでも、何回かレイドバトルに挑戦して、勝てずにミュウツーを捕獲できないという経験があることで、ミュウツーに勝つということがひとつの重要なアジェンダのようになってきた。

得られない経験をすると欲しくなるものなのよね、人間って。

ミュウツーもとれたことだし、最近アニメが始まりまたやろうかなーとアプリを再DLしたIngressの方にそろそろ注力しようかしら。ゲームとしてはIngressが好きです。

 

 

 

「分人」を元にコミュニケーションを考える

数年前、分人コミュニケーションをテレコミュニケーションやVRで作る研究の話を聞いた。テレコミュニケーションのインターフェイスを最適化することで、分人を切り替えやすくするというそのアイデアは、なんとなくしっくりこなかった。

それ以来分人について特に考えることがなかったが、先週末、ひでまんたち北大出身研究者5人と旭岳での合宿で、「分人」の議論があったので、「私とは何か 「個人」から「分人」へ」(平野啓一郎講談社現代新書)を再読。

 

私とは何か――「個人」から「分人」へ (講談社現代新書)

私とは何か――「個人」から「分人」へ (講談社現代新書)

 

 

この本での「分人」とは、「不可分」「もうこれ以上分けられない」を意味する「個人」に対する平野さんの造語で、対人関係ごとに見せる様々な自分のことを指す。

近代は、個人の人格をこれ以上分けられない単位として捉えて社会制度が作られてきた。個人の人格が分けられないといっても、人間関係において人はいろいろな顔を持つ。それは「ペルソナ」と呼ばれ、複数のペルソナたあっても自我はひとつだ、というのが一般的な考え方だ。

一方、「分人」の考え方では、そもそも唯一無二の「本当の自分」など存在しない。一人の人間は複数の分人のネットワークであり、対人関係ごとに見せる複数の顔すべてが「本当の自分」だとする。

個人は一個体として独立して存在するのではなく、他者との関係性の中で浮かび上がる。その他者との関係性がなければ、その分人は存在しないし、その他者との関係性の比重が大きくなれば、その個人の中でのその分人の構成比率は大きくなる。

上司、同僚、家族、中学の友人、高校の友人、大学の友人・・・・。それぞれ相手の分だけ、私達は分人を持つ。さらにSNS時代ではSNSごとにまたそれらと異なる分人も存在するかもしれない。たとえ、それら同士が矛盾していたとしても、それも含めてすべてが本当の自分だ。

それは直感的には当たり前のようで、現実の社会では当たり前とはみなされない。「猫をかぶっている」とか「本当の○○さんじゃない」とか言われることもある。でも、それも含めてすべて本当の自分だ。

コミュニケーションにおいては、「分人」を基本的な考え方とすると、すっと楽になることがたくさんありそう。ただ、現在の社会制度は個人をひとつの単位としていることから、どう折り合いをつけていったらいいのかしらと考えています。