突然降って湧いたようなコロナ禍で右往左往しているうちに今年は早くも第一四半期が終わろうとしているが、この3ヶ月で個人的に気になったDTMや自動作曲、音楽業界などの関連記事をまとめて振り返っておこうかと思う。
著作権ゴロへの対抗上、単純に順列組み合わせですべてのメロディ・パターンをMIDIデータとして生成、著作権化して一般公開したという話。生成自体はニューラルネットの高級技に頼らずともPythonのmidoパッケージとか使って簡単にできそうな気はする、技術的には。これの背景には、近年音楽業界で著作権パクリ訴訟が相次いでいるという世知辛い動きがある(以下 Rolling Stone 誌の記事)。
さて、本ブログでも1年ほど前から随時追跡していた MIDI 2.0 の仕様がついに正式規格としてグローバルに展開し始めた。
DAWユーザの観点では、ベロシティやコントロール・チェンジの制御値の解像度が格段に上がる点が影響大であろう。それ以外のエンハンスメントはどちらかというとステージ実演家向けといった印象が強い。一方でMIDI検定への影響だが、学習課程や試験内容の一部が変更になる前に、まず公式ガイドブックの改訂を通じてアナウンスされるはずなので、少なくとも今年の現段階では特に浮き足立つ必要はなかろう。
次に、自動作曲といえばGoogle主導の Magenta プロジェクトであるが、Music Transformer というMIDIデータ生成ツールが公開された。ピアノ曲を右手左手両部込みでそれなりに生成してくれるという優れもの。DAWに取り込んで音源をピアノ以外に差し替えれば如何様にでもアレンジできる。
クオリティ面を考えると、プロの現場では生成データを無改変でそのまま楽曲として採用するわけにもいかず、取捨選択のプロセスが必須のようである。自動作曲全盛の時代となっても、結局のところこうした目(耳)利き能力でプロとアマの差が顕著に現れるのかもしれない。逆に言うと、それ以外の制作過程においてはますます level playing field になってきている。
自動作曲ではMicrosoftも頑張ってます、という取り組みの中でBjörkとコラボ。「NYの時間帯や、季節、そして景観の変化に応じて曲が作られ続けていく」という仕掛けだが、現代美術のインスタレーションっぽく、ちょっと手垢がついた感がある自動生成表現のような気がした。
初音ミクのブーム沈静化以降ボカロはもうオワコンになってしまったのかとあまり気には留めていなかったのだが、歌声合成は知らない間に格段の進歩を遂げてまだまだ進化中と知り驚愕。これ、究極的には自分の歌声をリアルタイムでキャラクター音声に変換できるところまで行けば理想かなと。
次はかなりテクニカルな話。FM音源のアルゴリズム選択やパラメータの設定は難度が高くて思い通りの音色編集がなかなか困難であるという欠点は Yamaha DX-7 の頃から散々揶揄されていた。であれば、表現したい楽器音色からパラメータをリバース・エンジニアリングしてしまおうという発想。
その心はわかるがかなり難解。そもそも生楽器の再現であればサンプリング音源の技術で十分事足りると思うので、このようなアプローチは費用対効果に疑問符が付くのだが、研究題材としては面白い。
最後に、意外な事実。コロナ禍で在宅勤務や自宅ひきこもりを余儀なくされる人が全世界的に多数に上る中、Spotifyなどのstreaming再生回数は減少を見せているとのこと。逆かと思っていたらそうではなかった。理由は複合的。