9/4「2045」at OKAZAKI LOOPS #1

2016 BLOG

いよいよ来る9/4 日曜日. 京都岡崎音楽祭 OKAZAKI LOOPSにて、人工知能DJイベント、「2045」が開催されます。2015年8月以来の1年ぶり、4回目の開催です。

2045_logo_v2-01

過去の開催についてはこちら.

M4A9564_1280

これだけ間があいた理由としては、3回やってみてその先の展開について悩みがあったというところでしょうか (一緒に2045を始めた真鍋大度くんが忙しすぎるという説も w). 選曲はなんとなくできた、センサーを使ってお客さんの動きやノリをとって選曲に生かすといったこともできた. その先に、おおっという驚き、ソフトウェアでDJをするからこそ生まれる驚きはどこにあるのか… 明確な答えを出せずにいました.

いろいろと考えた結果、初心に戻って、徳井個人とQosmoチームとしてはもともと妄想していたことを実現することに決めました。それは… 「 人と人工知能とでBack to BackでDJする」というものです。

A photo posted by Nao Tokui (@naotokui) on

知らない方のために簡単に説明すると、Back to Back(以下、B2B)とは、二人(以上)のDJが一曲(あるいは数曲)ずつ交互にかけあうというDJのスタイルのひとつ。ジャズミュージシャンのかけあいのようなものを想像してください。自分がかけた曲に対して相手が自分が想像もしてもなかったような曲をかける、それに対して自分がまた返答となる曲をかける… 「お、そうきたか. そしたらこっちはこの曲だ.」といった具合です. B2Bの面白さは、ジャズの掛け合い同様、自分の想像していたストライクゾーンのボール半個分外側にボールが返ってくる可能性にある、と言ってもいいでしょう。

2045に限らず、自分がこれまで取り組んできたプロジェクトの多くが、このボール半個分外側をどう実現するか、という点にあったといっても過言ではないかもしれません。こうした「AIに驚かされたい」という根本的な思いについては、以前にもこのブログで書きました(AIとの付き合い方) その投稿では、AIとはAlien Intelligenceだ(Kevin Kellyの言葉)、発想やそこに至るロジックが人間とは大きく異なることに価値がある、といったことを書いてます。2045での人工知能DJの立ち位置も(すくなくともQosmoチームにとっては)同じです。(注: この記事でも広い意味で人工知能/AIという言葉を使っています)

人間のDJを置き換えたいわけではなく、あくまで人に気づきを与える存在としてのAI. そうしたビジョンを明確に示すためにも、人のDJとAIのDJが並び立つようなB2Bのスタイルが最適だと考えました. さらに、今回B2Bを実現するにあたって、あえてパソコンではなく昔ながらのレコードをつかったDJにこだわりました. (ここで書いているのはQosmoチームのことです. 真鍋くん、ライゾマさんはまた別の考え方でアプローチしてます!)

A photo posted by Nao Tokui (@naotokui) on

ではなぜレコードなのか. 理由は、それがかっこいいと思ったから(笑). AIが自動的にテンポを調整してミックスする様子を見てみたい!という理由が一番正直なところなのですが、あえて答えるとしたら、不自由なレコードというフォーマットの中で人とAIが同じ土俵、同じ条件下でDJをするというのを見てみたかったといったあたりでしょうか.  AIのDJに物理的な存在感を与えたいという思いです.

レコードでDJするということは、すでにかかっている曲を聴いて、そのテンポに合わせて、次にかける曲の再生スピードをコントロールしてテンポを合わせる… といって人のDJがやっている作業と同じ作業が必要になります (ピッチ合わせという言い方もします).

PCのDJソフトウェアを使えば、勝手にテンポを合わせてスムーズに次の曲へとつないでくれます。でもそこには驚きはない. あえてレコードを使いつつ、テンポ合わせをどう実現するかというのが新しいチャレンジでした。上にあげた以前の投稿でも、人工知能とは賢そうにみえることをもうちょっとで実現できそうな仕組みのことだと書きました。自動運転でも碁でも完璧にできるようになったらもうそれは人工知能とは呼ばなくなるのです(例:オセロのアルゴリズム)。あえて、できるかできないかわからない、実際のレコードをつかったミックスに挑戦しようと思ったのもそうした背景があります。

一方でこう思う人もいるかもしれません。なぜレコードを使ったテンポ合わせがそんなに難しいのか、簡単にコントロールできても良いはずなのに…と。自動ミックスが難しい(少なくとも今はやってる人がいない)理由とそれにどうAI的にアプローチしたのかについては次のポストで書きたいと思います。選曲の方法に関しても、従来のプレイリストのログデータを解析する仕組みから離れて新しいやり方を導入しました. (畳み込みニューラルネットワークで音響的な物理量から人が聞いた時の印象を定量化することを試みてます) その辺についても説明したいと思います.

A photo posted by Nao Tokui (@naotokui) on

ここまで読まれて、センサーでお客さんの情報を取得しつつ、レコードを選んでターンテーブルでミックスする、というのはわかった. でもどうやってレコードをターンテーブルに乗せるんだろう、と疑問に思った方. 正解です w そこは人手でやります. AIが選んだレコードを数百枚あるレコードの中から選ぶ人. AIにフィードする人という図式がここでも垣間見れます.

国立近代美術館という普段とは違った雰囲気の場所でどんなイベントになるのか僕自身も楽しみにしています。まだチケットには余裕があるそうなので、ぜひお近くの方も、そうでない方も2045にぜひおいでやす。なおチケットはこちらのサイトから購入いただけます。

では京都でお会いしましょう!