音楽ナタリー - 新曲リリース・ライブ情報などの音楽ニュースを毎日配信

ニラジ・カジャンチ

エンジニアが明かすあのサウンドの正体 第12回 バックナンバー

RIRI、SUGIZO、[Alexandros]らを手がけるニラジ・カジャンチの仕事術(後編)

J-POPと洋楽のサウンドの違いとは

492

誰よりもアーティストの近くで音と向き合い、アーティストの表現したいことを理解し、それを実現しているサウンドエンジニアに話を聞くこの連載。ニラジ・カジャンチの前編では彼のこれまでの経歴やボーカルレコーディングについて紹介したが、後編では畠中祐SUGIZO[Alexandros]のレコーディング裏話やJ-POPと洋楽の違いについての話をお届けする。

取材・文 / 中村公輔 撮影 / 映美

J-POPは歌詞重視、洋楽はリズム重視

──ニラジさんはJ-POPでありながら今の洋楽とリンクしたサウンドを作っていると思いますが、ミックスで意識していることはありますか?

日本のポップスはボーカルのサウンドがブライトというか、イヤフォンや小さいスピーカーでも歌詞がしっかりわかるようにミックスしていて、海外ではリズムを重視したミックスになっているんですよね。アメリカはクラブのためにミックスをするんですよ。つまり、ボーカルを前面に出すんじゃなくて、キックとスネア周りの音がどうなっているかを意識するんです。そこのバランスをどう取るか。僕の中ではミッドとハイは日本のサウンド、ローエンドはアメリカのサウンド、と意識していますね。

──日本のポップスではボーカルがブライトとのことですが、アメリカにいた頃と現在では使っているマイクを変えていますか?

アメリカではSONY C-800とかAKG C12VRとかTELEFUNKEN ELA M251を使っていました。向こうのシンガーはけっこう雰囲気で歌うので、それを滑舌よく聴かせるために2~12kHzくらいがしっかりエキサイティングになるマイクを使うんです。でも日本語は子音が強いので、“サシスセソ”をちゃんとコントロールしなきゃいけない。だから日本ではNEUMANN U47とU67がよく使われているんでしょうね。僕はCHANDLER LIMITEDのRedd Microphoneを使っています。必要な成分が録れるけどいらない子音をちゃんと抑えてくれるので。

──なるほど。

でも最近ちょっと変わって来た面もあって、声優さんやゲーム周りの仕事が増えてきて、アメリカ的な発想に戻りつつあるんですよね。リスナーは声優さんの声の質感とか雰囲気を聴いていると思うので。

日本の声優業界で初めてアメリカに通用するサウンドができた

──畠中祐さんのアルバム「FIGHTER」(2019年3月発売)もJ-POPと洋楽のバランスを考えてミックスしたんでしょうか?

そう。僕は日本の声優業界で初めてアメリカに通用するサウンドができたと思ってます。例えば「Fighting For…」という曲は、EDMとR&Bのようなトラックが畠中祐の声に負けないくらいに出せるかという勝負だったんですよね。日本のマーケット用なので、声はしっかり聴かせているんですよ。でもほかの声優アーティストの曲では聴いたことのないようなローエンドの出し方をしています。だからでかいスピーカーやクラブで聴いてもめちゃくちゃ踊れます。イヤフォンやヘッドフォンでは聞こえないような20~40Hzあたりのローエンドが体に響くように強調しているから、「これ日本のアーティストなの?」と感じると思います。声優アーティストでこのミックスが許されたのがうれしかった。僕の自信作ですね。

──低音を入れると、小さいスピーカーで聞こえない音量を持っていかれて全体が地味に聞こえるので、アニソンなどでは削って派手に聴かせる選択もよくあると思うんですが、そこはどう対処したんですか?

それはバランスの取り方だと思うんですよね。ボーカルがしっかり出ていれば、クライアントさんもユーザーも誰も文句は言わないわけですよ。だからボーカルとぶつからない周波数をギリギリまで攻めてアグレッシブに作っています。あとは、声を立たせるためにほかの楽器のトランジェントを止めたりすると思うんですけど、僕はそれを一切やっていなくて。飛び出ている音も気にせず、「ボーカルの邪魔をできるもんならやってみろ」ってくらい“オラオラ感”を出してミックスしてます。そもそも声にはしっかり空間系エフェクトとハーモニックディストーション(※高調波歪み。歪みが付加されることによって倍音が強調され、豊かな響きになる。真空管やトランジスタなど、通す機材によりキャラクターが異なる)を足しているから、絶対オケに負けてないんですよ。

──そういうハーモニックディストーションを付ける際はアウトボードを使ってるんですか?

いや、逆。アウトボードでやっちゃうと、色が付きすぎちゃって奥行きの調整がしづらいんですよね。その機材が持っている奥行きになっちゃうので、全部デジタルでやってます。僕は常にボーカルを3Dにしたいと思ってミックスしてるんですけど、そういうミックスはデジタルでしかできないですね。どの曲もボーカルはパラレルコンプ(※原音とコンプレッサーをかけた音を混ぜる手法)でやっていて、コンプは10個くらいのプラグインの中から2つ3つを選んで使っています。

3Dサウンドを目指している

──アメリカのR&Bなどでは、雰囲気が単調になってしまうところを、リバーブやディレイなど空間系の抜き差しで緩急をつけ、飽きさせないようなエフェクト使いが増えています。日本のサウンドもそうなっていくと思いますか?

ならないと思いますね。アメリカは曲の雰囲気が大事なので、同じ1行をサビの中で何回でも繰り返せばいいという考え方で、ディレイで曲を作り上げています。デモの段階でディレイが入っているんですよ。でも日本では歌詞重視で、次の言葉を邪魔しちゃうからディレイはかけすぎちゃいけないという考え。だから、日本ではどのジャンルの音楽も平面的になってますよね。でも僕は3Dサウンドを目指しているから、3歩後ろくらいに空間を足しているんですよ。アメリカっぽいサウンドだったら、サビに入ったときにボーカルを横に広げる。でも日本でそれをやるとほかの楽器と歌がぶつかっちゃうから、僕はすべて後ろに飛ばすイメージで楽器にディレイを足していますね。

──このスタジオにはRUPERT NEVE DESIGNSの大型アナログミキサーが鎮座していますが、アナログミキサーを通してミックスしたりはしていますか?

ロックとかポップスの場合はコンピュータ内部でやっていて、アナログミキサーを通すことはほぼないです。広がりが出るのがアナログミキサーを通すよさだと思うので、ジャズアルバムのミックスのときはアナログミキサーに立ち上げますけど、ロックやポップスだとデジタルのほうがやりやすいです。ただそれは、ジャズの生楽器は自分で録ってるからかもしれないです。必要なときに使えるようにあらゆる機材をそろえていますけど、最近はミックス中はリバーブもコンプもEQもプラグインでアウトボードはゼロ。アナログ機材は好きですけど、今の時代には合ってないと思ってます。

練りに練られたSUGIZOのサウンド

──SUGIZOさんのソロアルバム「ONENESS M」(2017年11月リリース)はかなりアナログにこだわったそうですが。

それはSUGIZOさんが録音する際にこだわったんでしょうね。ミックスはデジタルでやってます。彼との出会いは偶然で、ジャズボーカリスト兼フリューゲルホーン奏者のTOKUのアルバムのミックスを僕が担当したんですけど、SUGIZOさんがデヴィッド・ボウイのカバー曲にフィーチャリングゲストとして参加していたんです(2017年6月リリース「Shake」収録の「Space Oddity featuring SUGIZO and Yasei Collective」)。それで「TOKUでやった空間処理を自分のアルバムにも使ってみたい」と言って依頼してくれました。SUGIZOさんのアルバムでは3曲ミックスしているんですけど、彼は空間で遊ぶのが好きなんで、ギターのトラック以外にディレイとかのエフェクターのチャンネルもかけ録りしたものを渡してくれましたね。ギターがフレーズごとに50trくらい、エフェクトとかを含めるとギターだけで120trくらい埋まってましたね。

──その量になると、ミックスがかなり困難になると思いますが、音が飽和してしまうようなことにはならなかったんでしょうか?

それだけの量があっても、それぞれ周波数的に練られて録音されていて、すべて必要なサウンドだったので問題はありませんでした。SUGIZOさんのアルバムなのでギターは立たせなきゃいけない、ゲストのボーカルも聴かせたい。なので、ボーカルをセンター、ギターをサイドに振り分けていったんですが、ほとんどのフレーズをダブルでくれたのでやりやすかったです。しかもどのパートをどこで聴かせたいか、けっこう自由にやらせてもらえました。

次のページ »
ヒップホップのテイストを盛り込んだ[Alexandros]のアルバム

音楽ナタリーをフォロー