1984年に世界初のサンプリング・シンセサイザー『Kurzweil K250』が発売された。この機材にはすでに人工知能が搭載されており、その学習手法はいまでいう「ディープ・ラーニング」と同じ考え方を持つ。開発者はなんと「シンギュラリティ」を唱え、GoogleでAI開発に携わったレイモンド・カーツワイル博士。さらに製作を要請したのは彼の技術に目を付けたスティーヴィー・ワンダーだった。
日本人ミュージシャンたちからは「カーツウィル」と呼称されるために、カーツワイル博士との接点は見落とされがちだが、音楽テクノロジーはAI技術の黎明期からリンクを持つ。そして現在、画像における『Stable Diffusion』や対話型AI『ChatGPT』が世間を騒がせ、なかでも生成系AIの波は音楽にも押し寄せている。近い将来、与えられたキーワード通りの音楽が数秒で生み出せる時代になるかもしれない。
そして、その分野に早くから取り組み、開発を進めてきた日本人がいる。現在は自身が運営する株式会社QosmoでAIオーディオ・プラグイン『Neutone』を手がける徳井直生氏だ。
生成系AIのなかでも、比較的好意的に取り入れられ、さまざまな機能・サービスの芽が出始めている音楽生成AI。開発視点から見た現状はどうなっているのだろうか。徳井氏と、Qosmoの開発チームのメンバーであるAndrew Fyfe(アンドリュー・ファイフ)氏にAI技術の音楽的な現状やプラグイン開発の実情などを聞いた。(小池直也)
広告の後にも続きます
・「ミュージシャンはバグですら面白がる」 研究者との認識のズレが生んだ『Neutone』
――徳井さんは、研究者であると同時にミュージシャンでもありますね? Nujabes氏とともに「Urbanforest」としてユニット活動をされていた過去もあるとか。
徳井:そうですね。研究者とミュージシャンの2足の草鞋です。大学院でAIの研究をやっていたときーーといっても当時はいまと比べると稚拙な技術でしたが、アルゴリズムを使った音楽を、Nujabesと一緒に作っていました。いわゆる“Nujabesっぽさ”からは外れた実験的な内容で、毎週水曜日の午後に彼のスタジオに行き、そこで作業して夜は飲みに行くという生活を2年くらい続けていたんです。結果、実験ばかりで曲が増えず1曲しかリリースできませんでした(笑)。彼のHDDには発表してないデータがあるはずですが……。
――過去のインタビューを見ると、ふたりで『CYCLING’74 Max/MSP』のパッチを使ってディレイの開発をしていたとか。
徳井:ヘンテコなディレイを作ったりしてましたね。プログラミング言語「Max」を使って、サンプリングした音を、ディレイを使って変則的なリズムで並べるようなものを開発していたんですよ。
――当時から「AI」というトピックがあったんですか?