人間とテクノロジー

人間とテクノロジーについて、人と話したり、議論したり、思ったりしたことの備忘録

ドッペルゲンガーVR「二重人殻」で思った、自分を自分と認識することの難しさ

11月19日まで開催中の東京大学制作展で出展されている、畑田裕二さんの「二重人殻」というVRコンテンツが興味深かった。

iPhoneアプリで顔や全身をその場で3Dスキャンした、自分自身の3Dのアバターが、HMDを被って体験するVR空間の中で、ドッペルゲンガーのように現れるVRコンテンツだ。

HMDを被ると、VR空間内の部屋の中で製作者の畑田さんのアバターが現れ、鏡の前へ誘導してくれる。そこで、自身のアバターと対面する。畑田さんはリアルタイムでその場で実際に動いたり話したりしているが、その動きがVR空間内に反映される。VR空間内で、自分のアバターが自分の動きとは独立に、畑田さんのアバターに暴力を振るったり、または振るわれたりするなどして、動く様子を三人称視点で見る。後半、自分のアバターが100体に分裂したり、小型化したりする。リアルの自分の動きを、アバターに反映することもできた。最後は、畑田さんの動きを反映した自分のアバターが自分に向かってくる。つまり、自分と自分が対峙する状態になる。

このとき、それまで体験中に感じていた違和感がはっきりとわかった。私は自分のアバターを自分として認識しきれていなかった。

VR体験は、HMDを被ってからの演出が、その世界に没入するためにとても重要な働きを果たすと思っている。その点で、畑田さんの演出はとても上手で完璧だったと思う。

ただ、3Dスキャンして作った自分のアバターを自分として認識できるかどうかはまた別問題だった。

自分を自分として認識することは、案外ハードルが高いことなのかもしれない、と思った。ただ顔の見た目が同じだけでは自分として認識するわけではない。今回の体験では、全身スキャンではなく顔だけのスキャンだったため、身体は既存のモデルを使った。そのためか、身体の動きが不自然だったこと、また既存のモデルが来ているような白シャツとパンツと言う組み合わせの服装を私は普段しないこと、また顔も3Dスキャンしていても、後頭部あたりは欠けていることなどから、自分のアバターを自分として認識しなかったのかと思った。

もうひとつはドッペルゲンガーのように、自分の意図と独立で動く自分のアバターの場合、行為主体感がないために、それを自分と認識しないのではないかということ。体験の中では、リアルの自分の動きをアバターに反映させられるときもあったのだけれど、その時は自分として認識しやすくなったように思う。

ただ、この自分のアバターを自分として認識するか否か問題については、他に体験していた人たちはちゃんと自分として認識していたようだったし、個人差も大きそうだ。鳴海さんによると女性のほうが認識しにくいということだったがなぜなのか、そもそも個人差なのか性差なのか、よくわからない。

それで思ったのが、今回のような「分身」VRではなく、「変身」VRの場合、「変身」したアバターを自分としてどう認識しているのだろうか、ということ。HMDを被ってVR空間内で自身のアバターアインシュタインになると課題を解く正答率が上がったり、黒人のアバターを使うとサラリーマンのアバターよりもドラムをうまく叩けるといった研究がある。これは、VR空間内で鏡に自身の姿を映すことで、自分の見た目が変わっていることを認識する演出がある。私も以前、動物のアバターで体験してみたが、確かにVR空間内で鏡を介して自分の姿を見ると、そのアバターを自分だと認識しやすくなった。

今回の「分身」VRでも、最初にVR空間内の鏡を使って、自分のアバターを自分として認識するよう誘導する演出がある。ただ、では動物のアバターのときと、自分自身の見た目のアバターのときとで、どちらがそのアバターを自分と認識するかというのは、難しいところのような気がする。

そもそもリアルでも人は鏡を見ない限り、自分の顔を見ることはできない。自分の顔を自分と認識するのは、鏡を信頼しているからにすぎない。その鏡が映すものを信頼するのであれば、そこに映るものが自身の3Dスキャンしたアバターであろうと、他者や動物のアバターであろうと、同じことなのではないかなあと思った。