BIGYUKI「John Connor」インタビュー|AIとの対話の先に見た肉体性と、ニューヨークで見つけた“日本人らしさ” (2/3)

最新テクノロジーに魂を吹き込むのはアーティストの責務

──なるほど。それは新譜にも感じました。間やちょっとしたタイミングの違いも楽しめるアルバムでした。

ありがとうございます。

──一方、この作品の背景にはAIも関係していますね。Neutoneを使ったライブパフォーマンスもすでにやられてますが、AIにどんな可能性を見出しているのでしょうか?

AIって言っちゃうと、その言葉が強すぎて、ネガティブなところが強調されちゃうじゃないですか。音楽だったら、Suno(AI音楽生成ツール)とか、ありきたりなものをすごい精度で作るっていうイメージがある。AIを使ったと言うからには、どういうふうに自分が向き合ってるかというのは、ちゃんと言葉で説明できないといけないと思っているんですよ。要は、AIは自分の意思を持って音楽を作るものではない。誰かの意思によって何かを開始するっていう。結局、AIはすごく強力な道具でしかないと思っていて、それによって、アーティストの作り方とか、考え方とか、音楽の感じ方が少しそこで変われば、もうすでに道具として、機能としてはすごいものがあると思うんですよ。あと、徳井さんの本(「創るためのAI 機械と創造性のはてしない物語」)の中にも、「最新テクノロジーに魂を吹き込むのはアーティストの責務だ」みたいな言葉が紹介されてたんです。今回だったら、Neutoneを使って音楽がどういうふうにそこからまた変化していくかというところで、自分もこれを使ってこういう音楽ができたっていうものを提示できたんじゃないかと思っているんです。

BIGYUKI

──例えば、ドラムマシンが出てきたときに、ドラマーがいらなくなると真顔で言われたりしたことがあったわけですけど、そういう新しい音楽的なテクノロジーの1つとして、AIを見ているということでしょうか?

そうですね。たぶんなんでもできちゃうから、初めに自分が思ってたのは、例えばアンサンブルで、自分の中にないもの、例えばドラムであったり、声や歌であったり、何かしら、自分の体ひとつではできない表現をできる。足りないところを補うみたいな発想で始まったんですよね。音楽の道具であるし、それで、自分が音楽をどうやって作るかという考え方を変えられるというか。

──AIが出してきたものによって、自分の演奏も変化するような相互作用があるということですね。

そうすると対話できるじゃないですか。双方向での会話になり得るような。で、アルバムの1曲目「John Connor I」と4曲目の「John Connor II」は、もともと自分の「Greek Fire」で書いた「John Connor」をモチーフに即興で演奏したんですけど、4曲目に関しては初めに自分のドラムマシンを使って簡単なシーケンスを組んだんです。それをNeutoneに入れて、自分の声を学習させたんですよ。自分が徳井さんの本を英語と日本語で読んで、2時間くらいずっと録音しっぱなしにしたものを学習させた。すごく音域も広くて、ドラムマシンのシーケンスを自分の声に変換した音がブルブルって鳴っていて、それをヘッドフォンで聴きながら演奏したんです。このとき自分の声でリズム的なものを聴いたことで、自分の演奏が有機的に変化して、ある種の会話ができた感覚があって。でも本来は、自分が演奏したことに対してリアルタイムで反応が返ってきて、そこから自分の演奏が変化するっていう即興の掛け合いになれば面白いんですけどね。この録音をしたときは、Neutoneの反応速度が遅くて、音を入力してから返ってくるまで2秒ぐらい時間差があったから、掛け合いまではできなかったんです。ただ、AIで作った音から自分が感化されて、即興が変化したところはあります。

「AIで何ができるか」ではなく「AIを使って面白い人がどういうものを作るか」

──なるほど。AIではないんですけど、ベーシストのトーマス・モーガンが自分でプログラミングをして、さまざまな弦楽器のエミュレートをした“架空の弦楽器”を作って一緒に演奏する「Around You Is a Forest」というアルバムを出したんです。そうした試みをジャズミュージシャンがしたこともあって、YUKIさんの新譜も新しい流れの1つとして聴いたんです。ミュージシャンは今までほかの演奏者との対話をしてきたけれど、もう1つ違うものが表れてきた。それがプログラミングされたビートではなくて、AIやジェネレイティブな楽器との対話なのだと感じるんです。

よく思うのが、自分はドラムマシンとかシンセサイザーそのものが好きなんですけど、やっぱりアナログのものが好きで、不完全さに惹かれているかならんです。揺らぎって言うじゃないですか。現行のProphet-6も揺らぎのつまみがあって、それを最大にするとかなりピッチが不安定になる。あと、アルペジエーターでなんらかのランダムな要素を入れたりすると、そこに機械じゃない、人間的なものを感じるんです。何かをやろうとしてるんだけど、それがちゃんとできてない、そこの“よちよち歩き”を愛でる感覚ですね。

──AIを開発している側にも、そういう不完全さを愛してるところはあるんでしょうか?

Neutoneは「AIで何ができるか」というよりも、「AIを使って面白い人がどういうものを作るか」というところを常に想定しながら作ってる気がするんですよね。徳井さんも言っていましたが、例えば投資家がちゃんといるアメリカだと「どうしたら金を稼げるか」みたいなところにフォーカスされちゃうと。普通の人が聴いて完璧だと思うような音楽を、どれだけ簡単にすごいスピード、精度でできるかにフォーカスされちゃう。でもそうじゃなくて、どこか遊ぶ余地のあるもの、人間の発想で初めて真価を発揮するものを作ってる感じがするんですよね。

──なるほど。アルバムの話に戻りますが、「Dawn」という曲は硬質で、ミニマルなテクノに近いサウンドになっています。これまでYUKIさんが作ってきたビートは揺らぎがあるビートミュージックでしたが、何か変わったのでしょうか?

あの曲は、PULSAR-23っていうドラムマシンを使ってます。もともとロシアの会社のドラムマシンで、かなり耳に痛い音が出る。ほかの曲だと、Neutoneを使って演奏に何かしら影響があったりしたんですけど、あの曲に関しては、徳井さんのソフトで変化するドラムパターンをどんどん生成していったんです。だから、共演者として徳井さんをクレジットに入れたんです。硬質なドラムのビートにすごく憧れるところがあるんですけど、果たして自分がそれに向かってるのかどうかはわからない。今までのソロのライブでも、それでシーケンスを組んだり、試したりしました。いろいろやって、自分が一番居心地がよかったのが、パッドを片手で猿みたいに叩きながら、もう片手で演奏する、自分の身体を使う表現にあるんじゃないのかなと思ってるんですよね。まだ模索中なんですけど。