たぶん多くの人は、AIが作ったものと人間が作ったものを、本当に同じ基準では見ていない。
これは別に珍しい話でもなくて、むしろかなり自然なことだと思う。人は作品だけを見て評価しているつもりでも、実際にはその背後にあるものまで一緒に受け取っているからだ。誰が作ったのか。どんな意図で作ったのか。どんな経験や時間がそこに乗っているのか。そういう前提ごと作品を見ている。
だから、AIが作ったと分かった瞬間に評価が落ちること自体は、それほど不思議ではない。作品の中身だけを見ているのではなく、作品の外側にある物語まで含めて評価しているなら、そうなるのは当然だからだ。
ただ、私が本当に気になっているのはそこではない。
もっと厄介なのは、その評価の土台が後からひっくり返されたときに、人間がどう反応するのかという話だ。
たとえば、とてもよく似ている二つの作品を並べて見せて、こちらがAI、こちらが人間ですと説明する。そして見た人が、人間のほうがいいと評価したとする。ところが後になって、実はラベルは逆でしたと言われる。このとき起きるのは、単なる見間違いや勘違いではない。自分は作品を見て判断していたつもりだったのに、実際にはラベルや物語にかなり強く依存していた、その事実を突きつけられることになる。
ここで揺らぐのは、作品の価値だけではない。評価していた自分自身の基準のほうだ。
自分は本質を見ていたつもりだった。ちゃんと中身を見て判断していたつもりだった。だが実際には、かなり外側の情報に引っ張られていた。そのことが見えてしまうと、人は案外そこに耐えられない。作品を見誤ったことよりも、自分の判断がそれほど自立していなかったことのほうが、たぶん不快だからだ。
すると何が起きるか。
ここで人は、単純に評価を修正して終わるとは限らない。むしろ、自分の評価基準そのものが不安定だと分かったときに、その不安定さを処理するために、全体の評価を冷やす方向へ動くことがある気がする。
要するに、「本当はどちらもすごかった」とはなりにくい。むしろ、「なんだ、結局こんなものか」「そこまで大した差ではなかった」と、全体を少し低く見積もることで、自分の揺らぎを落ち着かせようとする。
このとき人は、作品の価値をそのまま見直しているというより、自分の安心を回復しようとしている。評価を下げることで、自分が間違えたこと、自分の審美眼がラベルに左右されていたこと、その居心地の悪さを薄めようとするわけだ。
つまりここで起きているのは、AIと人間の優劣の話だけではない。人が何を見て評価しているのか、そしてその評価が揺らいだときに、自分をどう守るのかという話でもある。
人は作品を見ているつもりで、作品だけを見ていない。
そして、自分は本質を見ていたと思っていても、実際にはかなり多くの前提に支えられている。
その前提が崩れたとき、人は作品を見直すというより、評価している自分自身を守るために、評価の温度そのものを下げる。
たぶん私は、そこに人間のかなり本質的な性質が出ていると思っている。