AIの進歩は、最古の芸術にまで影響を与える
今回は、一見デジタルと縁遠い領域でも、いかにAIのインパクトが大きいかを感じて頂きたい。まずは、音楽の歴史を概観しながら、近年のデジタル変革の位置付けを探ろう。
Digital Blogsコンサルタント記事
今回は、一見デジタルと縁遠い領域でも、いかにAIのインパクトが大きいかを感じて頂きたい。まずは、音楽の歴史を概観しながら、近年のデジタル変革の位置付けを探ろう。
実を言うと、 ”○○風” となるかどうかは、作曲以上に編曲に依るところが大きいのだが、それを差し引いても世界中のBeatlesリスナーを思わずニヤリとさせる楽曲展開やフレーズがある。例えば、セクションの変わり目で長調から短調へ転調するところや、0:39~のメロディはまさに初期Beatlesの人気曲「And I Love Her」のような、ポールマッカートニー節である。
一方で、素晴らしい曲か?耳に残るか?感動を生むか?と言われれば、疑問が残るのではないだろうか。これはこの曲に限った話ではなく、作曲におけるAIの壁と言われている。工業製品デザインの草分け的存在であるデザイナー、レイモンド・ローウィによると、ポップであるためには、 ”MAYA” が大事だという。ヒットの条件は、 ”Most Advanced Yet Acceptable” であり、真新しさと馴染みの共存が重要という訳である。
つまり、既存の楽曲を大量学習したAIが創る音楽は、 ”Too acceptable” なのだろう。AIが比類なきポップメイカーとなるには、「真新しさを学ぶ」という難関を乗り越える必要がある。
AIは、既に私より ”それっぽい” 歌詞が書けそうだ。「ブルー」に秘められたダブルミーニングや、「りんごが憧れ」「バラードが落ち合う」といった擬人法も中々思いつくものではない。元々、人が歌詞を愉しむ際は、行間を埋めて各々の解釈をしており、歌詞には意味のスキマが存在するものだ。よって、少々乱暴な言い方となるが、AIが多少意味の繋がらない単語を並べても、聴き手が行間を埋めてしまうため、結果として ”それっぽく” 仕上がるのである。
次に、一般に馴染みは薄いが楽曲制作において欠かせない、後工程(編曲、ミキシング/マスタリング)に話を移そう。ここは、何と言ってもAIが本領を発揮する領域である。作曲・作詞以上に曲の ”雰囲気” を決める編曲工程から見てみよう。例えば、Amper社のヒットアプリケーション「Amper Music」では、「90’s pops」「Exiting」といった指示を基に、 “いかにも” なアレンジが施される。(※正確には同ソフトは作曲も行うため、純粋な編曲システムではないが、メロディは大抵単調なものであるため、その本領は編曲部分にあると言える。)
実は、無限の可能性が漂うメロディ作り(作曲)と比べ、コードやリズムの設定、音色や伴奏作り(編曲)はパターン化しやすく、よりAI向きのプロセスと言える。詳しい音楽理論は割愛するが、 ”◯◯風” にしようとすると、自ずとコードやリズム、音色や伴奏の選択肢は限られる。例えば、4つ打ち(クラブミュージックのリズム)やシンセサイザーの音色で、ボサノバやクラシック風の曲を創ることは不可能である。
編曲以降のプロセスでは、更にAIが活躍し、既に普及段階にある。例えば マスタリングは非常に肩の凝る作業で、これまでEQ・コンプ・リミッター・マキシマイザといった大量のツールと1つ1つ睨めっこしながら行っていた。
しかし、5年前に登場したMixGenius社のクラウドサービス「LANDR」を使ったマスタリングに必要な作業は、楽曲ファイルをアップロードし、10分待つことだけだ。既に AIマスタリングは、多くのDTMソフト(音楽制作ソフト)で扱えるようになっており、実用化段階にある。
加えて、演奏や歌唱面でも、AIは素晴らしいプレイヤーだと言える。中でも、ボーカロイドは、既に人と聴き紛うほどまで進化している。Microsoft社のりんなの歌「りんなだよ」を聴いてもらえれば、 ”一聴瞭然” である。
(りんな「りんなだよ」)
一方、独創性・新規性がそれ程求められない音楽も存在する。それを、 ”デザイン” を目的とする音楽(以下、デザイン音楽)と呼びたい。例えば、ゲームや映像のBGM等がそれにあたる。耳を惹きすぎない ”それっぽい” 音楽が丁度良い場面もあるのだ。デザイン音楽については、作曲・作詞も含めた音楽制作プロセス全体がAIにより行われる日は近い。いや、実は既に来ているかもしれない。前述した「Amper Music」を含め、「Jukedeck」等、AIでBGMを作成できるサービスは続々と生まれているのである。
更にこれが進むと、自分好みの音楽・今聴きたい音楽をその場で制作するような、楽曲のパーソナライズ化も十分考え得る。実際、クリムゾンテクノロジー社の「ブレイン活性化AI楽曲生成技術=brAInMelody(ブレインメロディ)」は、人の脳波を基に、聴き手のメンタルパフォーマンスを向上する楽曲を自動生成させるAIを開発中である。同じゲーム・映像を見ていても、BGMは個人に最適化される、そんなデザイン音楽が当たり前になるだろう。デザイン音楽の品質において、人はAIに適わなくなると私は予想している。なぜだろうか。
まず、AIは人が網羅できないメロディ、和音、リズム、音色等の無限な組み合わせを基に、音楽を創れる。人の場合、どうしても製作者が持つ音楽のボキャブラリーの中から、最適な音楽を引き出すこととなる。そして、音楽のボキャブラリーは、当人が触れてきた音楽に依存せざるを得ないため、どうしても無限の組み合わせを追うことはできない。
もう1つの理由は、個人に最適な音楽をデザインするにあたり、人では到底追いきれないパーソナル情報をインプットとできることだ。例えば、個人の趣味・趣向は勿論、その日の過ごし方や気分、心拍数や体調も、 ”今、聴きたい音楽” に影響を与えるだろうが、これらはまさに膨大なデジタルデータが今後取得・蓄積されていくだろう。
このように、音楽に対しても、デジタルの波は確実に大きな変革をもたらしており、そこに生まれている/これから生まれるのは、人とAIの共存/適材適所である。衆知の通り、デジタルの活用機会は、血眼になったあらゆる企業に探されているところであるが、本当にくまなく探れていると言えるだろうか。この記事の冒頭で、「音楽にAIなんて…」と思った方は特に、今一度無意識の内に ”聖域” としている領域がないか、問うてみるのも良いかもしれない。
マネージャー中原 柊
大学卒業後、現職。
メディア、Webサービス、通信、商社、消費財などの業界を中心に、 DXや新規ビジネスの企画・立ち上げなどのテーマに従事。 デジタル・イノベーション・ラボと協力し、デジタル技術やデータを活用するプロジェクトを多数手掛ける。