DAW悪戦苦闘記

DAWやMIDIを通じてちまちまとDTMを楽しむ記録+MIDI検定1級到達記

オーディオ・サンプルで学習した自動作曲ツール

MIDIのようなシンボリック・データを学習インプットとして自動作曲する研究は割とありふれているのだが、いっそのことオーディオそれ自体をモデルに食わせて学習させるといったアプローチもありではないか、と思っていたら、先ごろOpenAIからそのものずばりな研究成果が "Jukebox" の名の下に公開されていた。これはインプット、アウトプット双方ともにオーディオとするモデルである。

openai.com

venturebeat.com

想像に難くはないが、生のオーディオ・サンプルは情報量が膨大なために、autoencoderの工夫によっていかに効率よく圧縮するかが学習促進・楽曲生成のキーとなっているようである。それでも1分尺の新たなオーディオを生成するのに9時間掛かるというから、まだまだ実用にはほど遠い。データ圧縮しているせいで生成アウトプットにノイズが多いのも問題である。

公開されている生成サンプルをいくつか聴いてみたところ、これはまるでサンプリングとかマッシュアップで合成した楽曲のようだ、という印象が強かった。つまり、特にこのツールに頼るメリットはあまりないのかも(今のところは)、という身もふたもない結論だった。

ポリリズムの設定方法 (Studio One)

本記事は一応 Studio One を前提にして書いてはいるが、他のDAWであってもおそらく編集プロセスは同様であろうと思われる。すなわち、簡単なポリリズムの展開方法について、である。

こんなシンプルな原理が今の今までなぜ気づかなかったのか、自分でも不思議な気持ちなのだが、わかってしまえば実に簡単な話である。例えば3拍子と4拍子のポリリズムは、要するに1小節を12個(またはその倍数)のグリッドに分けてしまえば、簡単に編集できる。どうやって12個に分かつかといえば、3連符のクオンタイズ入力グリッドを利用すればよい(下例参照)。

f:id:daw_jones:20200504221548p:plain

これに関して大いなるヒントを与えてくれたのは、以下に掲げる菊地成孔氏講座「モダンポリリズム」の講義であった(いくつか抜粋してYouTube上で公開されている)。音楽関連のビデオをYouTubeで渉猟していた最中にまったくの偶然に出会ったチュートリアル動画であるが、これがなかなかわかりやすい上に深く掘り下げた勉強になる。

www.youtube.com

DAWには必ず拍子設定(Studio One の場合は Time Signature)の機能が付いているはずで、これで変拍子などは簡単に編集・挿入できるわけだが、トラック横断的にすべてが一律に変更される。なので、この拍子設定機能を使って、例えばあるトラックは4拍子で、また別のトラックでは3拍子で、といったポリリズムの展開はできない。しかし特にこの機能を使用する必然性はないわけであって、上述のようにクオンタイズのグリッドを自由自在に切り替えれば小節単位であっけなく簡単に編集できてしまう。正にコロンブスの卵である。

f:id:daw_jones:20200504222231p:plain

応用すれば、4拍子と5拍子といったポリリズムも難なく実現する(下例参照)。

f:id:daw_jones:20200504223224p:plain

菊地氏が指摘するように、現代ポピュラー曲ではほぼ100%と言ってよいぐらい4/4拍子が圧倒的多数を占めていると思われるが、リズムパターンがありきたりになりがちなので、それを打破する一つのアプローチとしてポリリズムは結構創作欲を刺激するのではなかろうか。グルーブ感に豊かな多面性を持たせるテクニックとしても有用だろうと思う。ただし、あんまりやり過ぎるとアフリカ民謡みたいになってしまう罠はあるが。

最近気になった音楽やDTM関連記事など (2020年Q1)

突然降って湧いたようなコロナ禍で右往左往しているうちに今年は早くも第一四半期が終わろうとしているが、この3ヶ月で個人的に気になったDTMや自動作曲、音楽業界などの関連記事をまとめて振り返っておこうかと思う。

www.vice.com

著作権ゴロへの対抗上、単純に順列組み合わせですべてのメロディ・パターンをMIDIデータとして生成、著作権化して一般公開したという話。生成自体はニューラルネットの高級技に頼らずともPythonのmidoパッケージとか使って簡単にできそうな気はする、技術的には。これの背景には、近年音楽業界で著作権パクリ訴訟が相次いでいるという世知辛い動きがある(以下 Rolling Stone 誌の記事)。

www.rollingstone.com

さて、本ブログでも1年ほど前から随時追跡していた MIDI 2.0 の仕様がついに正式規格としてグローバルに展開し始めた。

www.dtmstation.com

DAWユーザの観点では、ベロシティやコントロール・チェンジの制御値の解像度が格段に上がる点が影響大であろう。それ以外のエンハンスメントはどちらかというとステージ実演家向けといった印象が強い。一方でMIDI検定への影響だが、学習課程や試験内容の一部が変更になる前に、まず公式ガイドブックの改訂を通じてアナウンスされるはずなので、少なくとも今年の現段階では特に浮き足立つ必要はなかろう。

次に、自動作曲といえばGoogle主導の Magenta プロジェクトであるが、Music Transformer というMIDIデータ生成ツールが公開された。ピアノ曲を右手左手両部込みでそれなりに生成してくれるという優れもの。DAWに取り込んで音源をピアノ以外に差し替えれば如何様にでもアレンジできる。

magenta.tensorflow.org

クオリティ面を考えると、プロの現場では生成データを無改変でそのまま楽曲として採用するわけにもいかず、取捨選択のプロセスが必須のようである。自動作曲全盛の時代となっても、結局のところこうした目(耳)利き能力でプロとアマの差が顕著に現れるのかもしれない。逆に言うと、それ以外の制作過程においてはますます level playing field になってきている。

magenta.tensorflow.org

自動作曲ではMicrosoftも頑張ってます、という取り組みの中でBjörkとコラボ。「NYの時間帯や、季節、そして景観の変化に応じて曲が作られ続けていく」という仕掛けだが、現代美術のインスタレーションっぽく、ちょっと手垢がついた感がある自動生成表現のような気がした。

www.gizmodo.jp

初音ミクのブーム沈静化以降ボカロはもうオワコンになってしまったのかとあまり気には留めていなかったのだが、歌声合成は知らない間に格段の進歩を遂げてまだまだ進化中と知り驚愕。これ、究極的には自分の歌声をリアルタイムでキャラクター音声に変換できるところまで行けば理想かなと。

www.dtmstation.com

次はかなりテクニカルな話。FM音源アルゴリズム選択やパラメータの設定は難度が高くて思い通りの音色編集がなかなか困難であるという欠点は Yamaha DX-7 の頃から散々揶揄されていた。であれば、表現したい楽器音色からパラメータをリバース・エンジニアリングしてしまおうという発想。

speakerdeck.com

その心はわかるがかなり難解。そもそも生楽器の再現であればサンプリング音源の技術で十分事足りると思うので、このようなアプローチは費用対効果に疑問符が付くのだが、研究題材としては面白い。

最後に、意外な事実。コロナ禍で在宅勤務や自宅ひきこもりを余儀なくされる人が全世界的に多数に上る中、Spotifyなどのstreaming再生回数は減少を見せているとのこと。逆かと思っていたらそうではなかった。理由は複合的。

www.bbc.com

Waveform Free 版が公開へ

無償版の公開は年初の業界イベント NAMM 2020 ですでに発表されてはいたようだが、Tracktion社製DAWである Waveform の無償バージョンがついにダウンロード可能となった。

www.tracktion.com

Waveformのバージョンが10から11へメジャー・アップグレードされたことに伴い、製品ラインアップが見直され、無償版はこれまでの Tracktion 7 から Waveform Free 版に置き換えられた。Waveform Free 版から有償フルバージョン(Pro版)へはスムーズに移行できる構成のようだ。これでTracktion社のDAW製品群から発祥ブランドである "Tracktion" が消滅したことになる。

bedroomproducersblog.com

私も早速自分のMacに落としてみたが、基本的なUIや操作ワークフローなどはTracktionと顕著な違いはないように見受ける。一つ大きな相違点としては、ミキサー・コンソール表示が可能となったところである(下図参照)。サード・パーティー製のプラグインは Tracktion 7 同様に組み込み使用可能であり、この点は同じ無償導入版である Studio One Prime に比べてアドバンテージがある。

f:id:daw_jones:20200321184208p:plain

その他、ちょっと試してみて個人的に気づいた点などを以下に述べる:

  • 導入環境上すでに Tracktion 7 を入れていた場合、プロジェクトやプラグインの構成データなどはそのまま引き継いでくれる。
  • ただし、プロジェクト・ファイルは Tracktion 7 とWaveform では互換性がなく、Tracktion 7 のプロジェクトを開こうとすると、Waveform 形式に変換するかどうか訊かれる。一旦 Waveform 形式に変換すると Tracktion 7 では読み取れなくなるようなので注意を要する。 また100%忠実な変換を保証しているわけでもないようなので、旧 Tracktion 7 上で重要な制作資産を抱えている場合は、Tracktion 7 をuninstallしないでそのまま Waveform と並存使用した方がよいだろう。
  • EDMやロックバンドなどの何種類かのテンプレートを参照・流用できるようになった(上例はEDMのテンプレを開いて微修正しているところ)。GarageBandのそれに近い。
  • 付属音源がおまけで利用できるようになった。減算方式アナログシンセとしては4OSC(フォーオスク)が、またドラム・サンプラーとしては Micro Drum Sampler が使える。4OSCはシンプルながらも多彩な音色合成を可能にする能力を秘めており、使い倒せばシンセはこれだけでも意外に十分かもしれない。

www.youtube.com

Learning Synths (Ableton)

今月初に日本語版が出たということで若干バズっていたAbletonの "Learning Synths" 独習教材をちょっと試してみた。

www.dtmstation.com

learningsynths.ableton.com

オーソドックスな減算方式アナログシンセの基本の基本を学ぶにはちょうどよいインタラクティブ教材だと思う(現状はウエブ版のみ)。小学生でも手軽に遊びながら学習できるのではなかろうか。無償教材なので贅沢は言えないが、将来的にはiOS/Androidネイティブ・アプリで提供されると尚よい。

ちなみにMIDI検定3級および2級の学習課程でもアナログシンセの基礎を学ぶパートはあるが、初学者が本を読むだけでは全然腑に落ちないはずなので、実際に音の変化を耳で聴いて確認しながら学習を進めるための一助になると思う。

シンセの仕組みとか音響工学の話は深掘りしていくとフーリエ解析などの理論学習にまで遡ることになるが、その辺のところはまたの機会に触れたい。

DAW国内シェア推計調査 (2020年)

間が空いてしまったのだが、毎年恒例で DTM Station 同様に実施されているSleepfreaksの本邦DAWユーザ調査結果が先月末に公表された:sleepfreaks-dtm.com

ネット上の自由アンケート調査なのでバイアスが入り込んでいることは否めず、あくまでも推計に過ぎないのだが、一つの目安にはなるだろう。各メーカーが正確な出荷本数を公表しているわけでもない状況下でマーケット・シェアの実像把握はなかなか難しい。また上記記事中でも軽くコメントされているように、日本国内と海外では人気DAWが大きく異なっている可能性がある。

DAWの人気ランキングそれ自体については、特に大きな変化やサプライズはないというのが正直な感想である。ベスト3は、相変わらず Cubase、Studio One、Logic Pro の3大ソフトで不動という感じだが、ここ1、2年で Studio One の利用者が大きく増えた(可能性がある)印象は強い。この3強ソフトの顔ぶれは当面変わることはないだろうと思われる。

一方でEDM系中心に海外では Ableton Live の人気が高いことはよく知られていると思うが、なぜか日本のユーザにはあまり浸透していないようである。逆に日本ではCubaseのユーザが多過ぎる感がある*1

本調査で私が一番驚愕したのは、実はメーカー別シェアではなく回答者性別内訳である。95%が男性というのはいくらなんでも偏りが酷過ぎやしないか。あるいはもし仮にこれがユーザの実相に近いというのであれば、DAWは女性ユーザを増やす伸び代がまだまだ手付かずで残っているということになる。ここら辺はそろそろ Logic Pro X が GarageBand を梃子にして改善を進める動きがあってほしいとも思う。

*1:老舗のCubaseは多機能ではあるものの、高価格でUIなどは若干レガシー気味なところもあり、少なくとも入門用DAWとしてはふさわしくないと個人的には思っているにもかかわらず。

ちょっと微妙な AWS DeepComposer

師走のバタバタで書きそびれてしまい、もう早くも1ヶ月前の出来事となったのでいささか旧聞に属する話題ではあるが、AWS機械学習援用の自動編曲サービス分野に進出するという興味深い動きがあった。昨年12月にラスベガスで開催された2019年度 AWS re:Invent 恒例イベントでお披露目された DeepComposer がそれである。

www.youtube.com

まだ招待制previewバージョンの段階で完全には一般公開していないらしく、今すぐ誰でもお試ししてみるということができない状況だが、サービス概要は上記お披露目デモもしくは下記記事などで把握できる。

aws.amazon.com

techcrunch.com

要するに、

  • ユーザが適当な演奏データを AWS DeepComposer に食わせると、ジャンルごとに予め訓練されたモデルがAWSクラウド上で計算処理して伴奏(ドラムやシンセなどのパート別伴奏)を付けてくれる。
  • モデルは、ユーザ固有のモデルを走らせることもできる。AWS SageMaker で調教する仕組みのようだが詳細は不明。
  • DeepComposer おあつらえのMIDIキーボード($99別売り予定)を使うことができる。

残念なことに、正直あっと驚くような仕掛けや新規性があるとも思えなかった。少なくともこの種の自動作曲をある程度リサーチしてきた人や中上級DAWユーザにとっては子供騙しのように映るかもしれない。自動作曲・編曲に関しては、やはり Google 発の Magenta プロジェクトに一日の長があると言わざるを得ないだろう。本ブログでもすでに何度か取り上げたり試したりしている。

謎なのはAWS謹製 DeepComposer 用MIDIキーボードの発売(予定)なのだが、キーボード本体にAI機能が搭載されているのであればともかくも、そうでなければ別に専用のMIDIキーボードを使わずともインプット用の優れて安価なMIDIキーボードはいくらでもある。繰り返すが、もし仮にわざわざAWSへ接続せずこのキーボード単体で(しかも$99で!!)自動作曲できるのであればスゴイとは思うけれど(実際はそうではないです)。

その辺のちょっと残念な気持ちは、下記の辛辣な批評記事で代弁されているので、英語が苦にならない人はご参考までに。

cdm.link