MIT Tech Review Visionary Conference 2017

2400_1600-1181x787

3/6 MIT Technology Review Visionary Conference 2017に登壇させていただきました。

当日のスクリプトは Mediumの方にまとめています.

2017/4/3 アップデート.
イベントのまとめが公開されています.

LEXUS Visionary Conference Event Report #2

AI DJ 技術解説 – 9/4「2045」at OKAZAKI LOOPS #2

LOOPS_P3460714

ありがとうございました!

人工知能時代のDJ, VJ表現を考えるイベント 「2045 」を、OKAZAKI LOOPSのプログラムの一つとして、京都国立近代美術館で先の9月4日に行いました。 200名を超える方にご参加いただきました。お越しいただいた皆さま、ありがとうございました! 前回のブログの記事で告知した技術解説を(事後になってしまいましたが)書きます。

photo (c) OKAZAKI LOOPS 実行委員会

LOOPS_P3290348 LOOPS_P3320568 LOOPS_P3270205

Continue reading

9/4「2045」at OKAZAKI LOOPS #1

いよいよ来る9/4 日曜日. 京都岡崎音楽祭 OKAZAKI LOOPSにて、人工知能DJイベント、「2045」が開催されます。2015年8月以来の1年ぶり、4回目の開催です。

2045_logo_v2-01

過去の開催についてはこちら.

M4A9564_1280

これだけ間があいた理由としては、3回やってみてその先の展開について悩みがあったというところでしょうか (一緒に2045を始めた真鍋大度くんが忙しすぎるという説も w). 選曲はなんとなくできた、センサーを使ってお客さんの動きやノリをとって選曲に生かすといったこともできた. その先に、おおっという驚き、ソフトウェアでDJをするからこそ生まれる驚きはどこにあるのか… 明確な答えを出せずにいました.

いろいろと考えた結果、初心に戻って、徳井個人とQosmoチームとしてはもともと妄想していたことを実現することに決めました。それは… 「 人と人工知能とでBack to BackでDJする」というものです。

A photo posted by Nao Tokui (@naotokui) on

知らない方のために簡単に説明すると、Back to Back(以下、B2B)とは、二人(以上)のDJが一曲(あるいは数曲)ずつ交互にかけあうというDJのスタイルのひとつ。ジャズミュージシャンのかけあいのようなものを想像してください。自分がかけた曲に対して相手が自分が想像もしてもなかったような曲をかける、それに対して自分がまた返答となる曲をかける… 「お、そうきたか. そしたらこっちはこの曲だ.」といった具合です. B2Bの面白さは、ジャズの掛け合い同様、自分の想像していたストライクゾーンのボール半個分外側にボールが返ってくる可能性にある、と言ってもいいでしょう。

2045に限らず、自分がこれまで取り組んできたプロジェクトの多くが、このボール半個分外側をどう実現するか、という点にあったといっても過言ではないかもしれません。こうした「AIに驚かされたい」という根本的な思いについては、以前にもこのブログで書きました(AIとの付き合い方) その投稿では、AIとはAlien Intelligenceだ(Kevin Kellyの言葉)、発想やそこに至るロジックが人間とは大きく異なることに価値がある、といったことを書いてます。2045での人工知能DJの立ち位置も(すくなくともQosmoチームにとっては)同じです。(注: この記事でも広い意味で人工知能/AIという言葉を使っています)

人間のDJを置き換えたいわけではなく、あくまで人に気づきを与える存在としてのAI. そうしたビジョンを明確に示すためにも、人のDJとAIのDJが並び立つようなB2Bのスタイルが最適だと考えました. さらに、今回B2Bを実現するにあたって、あえてパソコンではなく昔ながらのレコードをつかったDJにこだわりました. (ここで書いているのはQosmoチームのことです. 真鍋くん、ライゾマさんはまた別の考え方でアプローチしてます!)

A photo posted by Nao Tokui (@naotokui) on

ではなぜレコードなのか. 理由は、それがかっこいいと思ったから(笑). AIが自動的にテンポを調整してミックスする様子を見てみたい!という理由が一番正直なところなのですが、あえて答えるとしたら、不自由なレコードというフォーマットの中で人とAIが同じ土俵、同じ条件下でDJをするというのを見てみたかったといったあたりでしょうか.  AIのDJに物理的な存在感を与えたいという思いです.

レコードでDJするということは、すでにかかっている曲を聴いて、そのテンポに合わせて、次にかける曲の再生スピードをコントロールしてテンポを合わせる… といって人のDJがやっている作業と同じ作業が必要になります (ピッチ合わせという言い方もします).

PCのDJソフトウェアを使えば、勝手にテンポを合わせてスムーズに次の曲へとつないでくれます。でもそこには驚きはない. あえてレコードを使いつつ、テンポ合わせをどう実現するかというのが新しいチャレンジでした。上にあげた以前の投稿でも、人工知能とは賢そうにみえることをもうちょっとで実現できそうな仕組みのことだと書きました。自動運転でも碁でも完璧にできるようになったらもうそれは人工知能とは呼ばなくなるのです(例:オセロのアルゴリズム)。あえて、できるかできないかわからない、実際のレコードをつかったミックスに挑戦しようと思ったのもそうした背景があります。

一方でこう思う人もいるかもしれません。なぜレコードを使ったテンポ合わせがそんなに難しいのか、簡単にコントロールできても良いはずなのに…と。自動ミックスが難しい(少なくとも今はやってる人がいない)理由とそれにどうAI的にアプローチしたのかについては次のポストで書きたいと思います。選曲の方法に関しても、従来のプレイリストのログデータを解析する仕組みから離れて新しいやり方を導入しました. (畳み込みニューラルネットワークで音響的な物理量から人が聞いた時の印象を定量化することを試みてます) その辺についても説明したいと思います.

A photo posted by Nao Tokui (@naotokui) on

ここまで読まれて、センサーでお客さんの情報を取得しつつ、レコードを選んでターンテーブルでミックスする、というのはわかった. でもどうやってレコードをターンテーブルに乗せるんだろう、と疑問に思った方. 正解です w そこは人手でやります. AIが選んだレコードを数百枚あるレコードの中から選ぶ人. AIにフィードする人という図式がここでも垣間見れます.

国立近代美術館という普段とは違った雰囲気の場所でどんなイベントになるのか僕自身も楽しみにしています。まだチケットには余裕があるそうなので、ぜひお近くの方も、そうでない方も2045にぜひおいでやす。なおチケットはこちらのサイトから購入いただけます。

では京都でお会いしましょう!

[テスト] 人工知能(無能?)カラオケ!! – 畳み込みニューラルネットワークによる動画の情景解析に基づく歌詞の自動生成

karaoke_loading_720

そういえば… 年末にWIREDさんの忘年会にDJとして参加しました. 僕がいつものようにレコードを使ってDJしていたところ、レコードを裏返して針を落とした瞬間、かぶりつきで見ていた学生と思しき女性に驚かれました.「裏があるなんてすごいですね!」と声をかけてきたので、「カセットとかレーザーディスクとかにも裏があったでしょ. あれといっしょだよ」と返したところ、「レーザーディスクってなんですか??」 と真顔で聞かれました. そこか…..

閑話休題

 

少し前に告知しましたが、1月末にeAT金沢に参加してきました. 今日はその夜の余興での発表について書きます. 題して、

昭和後期の民俗学的映像データ再活用をめぐって – 畳み込みニューラルネットワークによる情景分析とその応用」Nao Tokui, et al

小難しく書いてますが、要するに人工知能(ニューラルネットワーク)に昔のレーザーディスクカラオケのベタな映像の情景を分析させて、映像に写っているものから歌詞を(なんとなく)自動生成. 人間ががんばって歌う… という実験です. 当然生成される歌詞は毎回違います. メロディーは知っているとはいえ初見で見せられた歌詞を歌わないといけないという、なんとも歌い手泣かせな無茶振り企画. くどいですが、あくまで余興です! (でも、そちらがむしろそっちが本番?)

eATのイベント自体に誘ってくれた電通の菅野くん(@suganokaoru)と、夜の部でなにかやろっかという話になったときに、映像データを学習してなにかできたらいいよねという話をしていたところから始まりました。直接的に影響を受けたプロジェクトはこちらです. 先日ライゾマの機械学習ワークショップでも来日していたKyle McDonaldくんの実験.


NeuralTalk and Walk from Kyle McDonald on Vimeo.

ご存知の通り、Deep Learning特に畳み込みニューラルネットワーク(CNN)を使った画像解析技術の進歩には目覚しいものがあります. 特に昨年話題になったのは、CNNを使って画像を解析し何が写っているかを判別するだけでなく、さらにその情景を自然言語で記述する、という論文、システムです.

Deep Visual-Semantic Alignments for Generating Image Descriptions – Andrej Karpathy, Li Fei-Fei
http://cs.stanford.edu/people/karpathy/deepimagesent/

 

Screen Shot 2016-02-10 at 9.23.31 AM

サンプルのコードがNeuralTalkとしてgithubで公開されてます.

NeuralTalk2 by Andrej Karpathy
https://github.com/karpathy/neuraltalk2

このNeuralTalkのモデルをラップトップコンピュータで動かしてWebカメラと繋ぐと、カメラで見ている町中の光景をニューラルネットワークでリアルタイムに記述するシステムができます.

それが上の動画です. また、Kyleくんの機械学習ワークショップでは ライゾマの登本さんが日本語のキャプションをつけるopenFrameworksのサンプルを公開されています.

精度の高さ(“ホットドックを食べる人”というキャプションが出た時の本人の驚き方が最高!) もさることながら、MacBook Proでリアルタイムに動くということも衝撃でした(あくまで学習済みのモデルを使う場合で学習自体には相当時間がかかります)。

また、どのような情景がCNNにとって認識しやすいのかというところに興味を惹かれました。学習時につかったサンプル写真に含まれている対象を認識しやすいのは、容易に想像がつきます. さらに、認識した光景から、コンピュータが勝手にストーリーを想像したらどうなるだろうか…

「ストーリー性と映像の関係がある程度ルースで、解釈の余地が残されている、それでいて人が見たときに共通理解としてのストーリーが簡単に見えてくるような映像ってなんだ??」…と考えてきたところで、冒頭のレーザーディスクの話とつながりました。そうだ、昔のコテコテ、ベタなカラオケの映像をコンピュータに見せてみよう!!

ということで作ったのが今回のシステムです.

diagram

  1. NeuralTalkで映像にキャプションをつける -「ギターを弾く男性」
  2. キャプションの文章から特徴的な単語を抽出 -「ギター」
  3. 関連語/類義語をランダムに選ぶ(WordNet) – 「メロディー」「バンド」「音楽」など
  4. 3の単語を含む歌詞の断片をJ-POPの歌詞DBからランダムに選ぶ – 「愛のメロディー♫」
  5. 4のフレーズと音韻的に同じ長さで韻をふむ歌詞を同じデータベースから選ぶ – 「雨のキャンディー♪」
  6. 4と5のフレーズをつなげる -「愛のメロディー♫ 雨のキャンディー♪」

とまぁこんな流れです. 歌詞をつくる部分はまだまだ荒削りで、生成というよりは検索に近いですね. (RNNで歌詞のDBの文字列の並びを解析させて、文字列を生成するというのもやってみました。日本語っぽいフレーズが生成されることはされるのですが、日本語にはない単語を吐きだすことがあり、かなり歌いにくい、ということで今回は見送りました. 辞書をつかってフィルタをかけるなどの処理をすれば、RNNからの生成も使えるようになるかもしれません。)

文字数はなんとなくこのくらいかなという範囲で決めているだけで、音楽的な解析をやってるわけではありません. 映像の色のヒストグラムが大きく変化した=新しい場面に切り替わったと判断して、歌詞を生成するタイミングとしています.

そしていよいよ… 実際のカラオケの模様です. 左上に出ているのがNeuralTalkで生成した映像のキャプションです. これだけ荒っぽい実装でも、見ての通り、大盛り上がりでした! eATに来ている大人たちが遊び方をよく知ってる人たちだった…というのもありますが(eATの楽しさについてはまた記事を書きたいところです)、人間の適応力ってすごいですね。見たことがない歌詞でもそれなりに歌えてしまいます. Yesterdayの映像から歌詞を生成して日本語で歌うといったこともできました.

 

別の例. このときは左上に歌詞を表示しています. ところどころに絶妙な歌詞が生まれてます.
(泣き崩れる女性の絵に”泣いていい、泣いていたよ、巻き戻す、愛の中に”)

 

人間はカラオケのベタな映像をみたときに、なんてわかりやすい映像なんだろうと思います. この人間が思うコテコテ感、ベタ感. じつはかなりハイコンテクストでコンピュータにはぜんぜんわからない… AIがストーリーを理解するためには何が必要なのか、まだまだ先は長いですね.

(とはいえ、改めて昔のレーザーカラオケの映像を見返してみると、歌詞の内容とはまったく関係のないものが多いことにきづきました. バブルの名残の時代だったからでしょうか、制作チームが海外ロケに行きたかっただけなのではないかというものも少なくありません(笑)

先日のCNNによる白黒映像の自動着色は、ある種の想像力をコンピュータに与えることなのではないかと思っているのですが、今回のプロジェクトはもう一歩進めて、空想力を与える試みといってもいいかもしれません。適度な飛躍が起きる仕組みをどのように組み込んでいくかに面白みがありそうです。

AIの真面目な研究をやっている方には遊びのようにしかみえないかもしれませんが、意外とこういう遊びの中に、人工知能のような人間以外の新しい知性のかたちとの付き合い方のヒントが隠されているように思います. 今後もいろいろと遊んで行きたいと思ってます!

最後に… 発表の場を与えてくれた電通の菅野くん、こころよくカラオケに参加してくださったみなさま、ありがとうございました! 来年もまたバージョンアップしたカラオケとともに、eATでお会いしましょう!

CREDIT:

NeuralTalk2の実装:  ml-notebook https://github.com/kylemcdonald/ml-examples

歌詞生成システム: 山田興生

関連リンク:

Generating Stories about Images – Recurrent neural network for generating stories about images
https://medium.com/@samim/generating-stories-about-images-d163ba41e4ed
[テスト] 畳み込みニューラルネットワークを用いたモノクロ動画の自動彩色
http://naotokui.net/2016/01/auto-color-cnn-jp/

出演情報 – 1.30 eAT金沢 / 2.13-14 Yahoo! Hack Day 2016

今月末から来月にかけて二つのイベントに出演します.

Screen Shot 2016-01-25 at 4.28.39 PM

eAT 2016 in Kanazawa – 金沢
http://eat-project.jp
2
016.1.29-30

金沢で生まれ、隣の松任市で生まれ育った私としては、以前から気になっていたイベントです。

金沢発のエレクトロニックアートの祭典として、1997年の開催以来、国内外のクリエイターや学生、IT関連の仕事にたずさわる人たちの相互交流の場として19年に渡り開催してきました。 
「金沢から、夢のリンクを世界へ」をコンセプトに、人と人を金沢でつなぎ、エレクトロニックアートの新たな交流の創出を生みだしてきました。

「eATは楽しい」「集まる人が濃すぎる」「飯と酒がうまい」という噂をずっと聞いてました。いつか参加したいと思っていたのですが、ようやくその願いがかないました。今回は二日目 30日土曜日の15時からのeATalk3、電通クリエイティブテクノロジスト菅野薫さん、BCL主宰バイオアーティスト福原志保さんとともにトークセッションに参加します。昔からの友人とのセッションということで非常に楽しみです。eATalk1には高校の同級生の塩冶くんや以前未来館の展示でお世話になった内田さんも出演予定。新幹線も通ったことだし、ぜひ気軽に金沢に遊びに来て欲しいです。

 

Screen Shot 2016-01-25 at 4.23.06 PM

Yahoo! HackDay 2016 – 秋葉原
http://hackday.jp/
2016.2.13-14

Yahoo! Japanさん主催の日本最大級のハッカソン. こちらは審査員としての参加です.

 

六本木アートナイト 2015 -「六本木ダークナイト」 organized by 真鍋大度(Rhizomatiks)

スクリーンショット-2015-04-15-0.55.39.png

六本木アートナイト内のトークセッションに出演

ライゾマティクス・真鍋大度がオーガナイズする、テクノロジー・アートのちいさなカンファレンス。日本のテクノロジー・アートの最前線で活躍するアーティスト・キュレーター・研究者らが、テクノロジー・アートの過去・現在・未来について忌憚なく意見を交わすパネルディスカッションを行います。出演はライゾマティクスより真鍋大度と石橋素、久保田晃弘(多摩美術大学)、畠中実(ICC)、クワクボリョウタ、八谷和彦、徳井直生、澤井妙治、福原志保(BCL)、馬定延、落合陽一、齋藤あきこら。日本のテクノロジー・アートはクール・ジャパンなキラキラ魔法の遊園地?ジャンルを超えて未来を考えるセッションです。

http://www.roppongiartnight.com/2015/programs/387

2045 Generation #2

Visualization of DJ Playslist

2月13日の第一回目からはや1ヶ月半 (第一回の模様 via @miyuhosoi).  4月3日金曜日に「2045」 vol.2を開催します.  今回は場所を表参道 IDOL (骨董通りの無印良品の地下. ライゾマさんの忘年会をやったスペースです) に移し、キャパシティを数倍に広げて万全の体制でお送りします.

2045_logo

Facebookのイベントページ

 

今回のゲストは evala くん.

“ELEVENPLAY、Perfume、YourCosmosなどのプロジェクトで書き下ろしたアルバム未発表のダンストラックによる2045スペシャルセットをプレイ予定だ。”

だそうです!

僕と浦川のDJ/VJユニットThe Modern Timesはデータ駆動型のDJData-driven DJというコンセプトを掲げて、さらにアルゴリズムを洗練させる方向で進めています. 前回は過去のプレイリストのネットワークをたどっていくかたちでDJをしましたが、今回はもう一歩踏み込んで楽曲の解析を行いました.

DBに入っている60数万曲を解析には、まるまる一週間もの時間がかかりました (非力なiMacでやってたというのもありますが…). テンポや音量、スケールなどはもちろん、推定されるアコースティック⇄電子楽器の割合、ボーカルの割合などなどといった12個の指標を各曲に対して割当て、これらをもとに12次元のデータとしてクラスタリングを行いました. 各クラスタには似たような性格の音を持った曲が入っているはず…という目算です.  以下のプレイリストは 実際にできあがったクラスタのひとつに含まれている曲です. いかがでしょうか?

 

また、DJプレイリスト(約5万のDJセット、計60万曲)のアーカイブ・データの可視化にもチャレンジしてみました. プレイリストデータ内で前後して使われいるアーティストの間をつないでいくと、見事に三つの大きなかたまりが現れました.  曲が連続する回数が多いアーティストほど近くに、頻繁に使われるアーティストほど大きく表示されています.

djnetwork

 

右下の一番大きなグループがテクノ、ハウス(Slam、Carl Craig…) 左上がEDM系(Tiesto, Avicii) 左下がドラムンベース(Noisia )など.

同じ四つ打ちでもハウス・テクノ系のDJとEDM系で選曲に大きなギャップがあるのがよくわかります。 EDMクラスターとハウス・テクノクラスターの間にFat Boy SlimやDaft Punkなどが位置しているのも面白いですね。SkrillexはEDMクラスターとD&Bクラスター、両方で使われてます. よく見ると右下にデトロイトテクノクラスター、その上にスウェディッシュテクノのクラスターがあるのがわかります.

一番真ん中は King of Pop. Michael Jackson!!

スクリーンショット 2015-04-02 12.39.04 PM

 

Google Map的にこのグラフをブラウズできるページも作成
http://naotokui.net/upload/2045_gmap/index.html

スクリーンショット 2015-04-02 3.07.36 PM

 

今回はクラスタの情報と前回使ったプレイリストの情報. 2つのレイヤーで曲をつないでいきます.

またフロアの状況をデータとしてDJにフィードバックする仕組みにもアップデートを加えてます. iBeaconをつかってフロアのどの位置(フロア、ラウンジ、バー etc)にお客さん集まっているかといったデータも取得します(Kenta Watashimaくん担当). (たとえば、自分のDJのときにどんどんバーに人が流れて行ってるというもの数字で可視化されることになるのでDJとしてはちょっと怖いですね… )

 

Daito Manabe率いるライゾマチームもなにか新しいことを企んでいることでしょう!もちろんレジデントの人間DJ代表、Setuya Kurotakiのおしゃれなプレイもお見逃しなく.

今週の金曜日はお花見からの2045で!! お待ちしております。

Facebookのイベントページ

2045 – ありがとうございました!

OLYMPUS DIGITAL CAMERA

昨夜「2045」に足を運んでくださったみなさま、ありがとうございました!  #ai2045 

まずはお詫びから。会場のキャパシティを大きく超える数の方々に足を運んでいただき、入場制限をかける結果となってしまいました。せっかく来ていただいたのに、会場に入れなかったみなさま、申し訳ありませんでした。KATAのスタッフのみなさんも、全員に入っていただけるようにとご尽力いただいたのですが….   ほんとにごめんなさい。

このイベントのアイデアは昨年末くらいからあたためていました。1月後半から本格的に動き出し、2週間ほど前に告知をして、突貫でなんとか開催までこぎつけました。第一回目の今回は、DJの実験のためのプラットフォームをつくること、そしてなによりもイベントをスタートすること自体に重きを置いていました。お客さんの体の揺れ具合、音楽の好みなどをiPhoneから取得して、選曲にフィードバックする仕組み。選曲した曲を実際にミックスするソフトウェアに送りこむ仕組みなどを最低限用意するところまではなんとかこぎ着けました(必ずしも想定した通りに動いていたわけではないのですが…)。今回つくったプラットフォームをベースに、次回以降新しい試みをためしていけそうです。

一方で、何が起きているのかお客さんにきちんと伝えられていなかったのではないかという反省もあります。実験の性質上、致し方ない部分もありますが、プロセスをよりわかりやすく可視化する方法を探っていきたいです。

自分自身はというと… 去年の春から考えていたアイデアをやっと現場で試すことができたことに満足しています! 自分だったらぜったいかけないであろう曲が選ばれたりしたかと思うと、最後の最後にAphex Twinとミニマルハウスのミックスになったり… 間違いなくやってる本人が一番楽しかったはず(笑  ただ、今から振り返ると、もっと冒険してもよかったのかな(=より自動化をすすめる)とも思います。DJとしてまとめようとしすぎましたね。

いろいろと問題はありましたが、まずは「音楽の実験する場」を始められたことに感謝してます. 今後、定期的に続けて行きますのでよろしくお願いします。参加者も募集しています! 実験したいこと、アイデアがあればぜひお声がけください。

次回は4月の予定です!

 
2045 – ユーザに配布した専用アプリの加速度センサーの値から推定する「盛り上がり度合い」の推移

 

人工知能DJイベント「2045」にThe Modern Timesとして参加

Annex-ChaplinCharlieModernTimes_01.png

2045_logo

「2045」、いよいよ本日開催です!

 

今回僕は、DJユニット「The Modern Times」として、Qosmoの浦川通(@torutoru)とともに参加します.

The Modern Timesでは、ソフトウェアが半自動的に選曲し、人間のDJ=徳井がソフトウェアの薦める曲をミックスしています. 浦川はソフトウェア内での選曲プロセスの可視化を試みます。

 

もともと、今回のイベントを企画するにあたって、僕自身の念頭にあった問題意識は次のようなものでした:

 

  • 「ネットワークを介して世界中のありとあらゆる音楽に自由にアクセスできるようになったとき、DJやVJといった表現はどう変わるのか? 」
  • 「数に際限のないレコード箱を手にしたときに、DJは果たして選曲できるのだろうか?」

 

アメリカ滞在中にSpotifyを使った際に、あまりに選択肢が多すぎて戸惑ってしまった経験もベースになっています。

 

準備をはじめるにあたって、まずは有名DJのプレイリストのデータをひたすら集めるところから始めました。現時点で、約150万曲を含む15万件のDJセットのデータが集まっています。このデータをもとに、DJが現在かけている曲の後によくかけられている曲を、次の曲の候補として算出し、DJに提示します. プレイリストからプレイリストへとジャンプしながらたどって行くようなイメージです. 候補を提示されたDJは、オンライン上のストリーム音源をその場でダウンロードしてミックスして行きます. その中にはたくさんの知らなかった曲が含まれていることでしょう.

現状では、データ量がそれなりに大きいだけで、過去にだれかがやった選曲の範疇を超えるものではないのですが、今後は各楽曲を解析し(テンポ、スケール、パワー、生楽器かどうか、歌の有無 etc)、選曲・曲の並べ方のパターンの機械学習する方向に発展させて行きたいと思っています. ただ単純に統計的な処理をするだけでは、凡庸で平均的な選曲で終わってしまう可能性もあります. データを使いつつ、選曲に個性を持たせるにはどうしたらよいか… 今後の鍵になりそうです.

 

人間のDJが思いもつかなかった選曲を人工知能が提示する、セレンディピティがうまれ、それがフロアにも伝わっていく…  そんな機械と人間の共生関係の実現可能性を探るユニットです! 乞うご期待!!

 

参考:「バベルのタワーレコード」

 

Qosmoオフィスにて絶賛開発中

 

 

 

 

 

 

 

REZONANZ at UNIT

人工知能ラップグループ、Your Cosmosのメンバーとして、11月29日に代官山UNITで開催されるRESONANZに参加します。歌詞の生成部分を担当しています。

http://www.unit-tokyo.com/schedule/2014/11/29/141129_rezonanz_1.php
 

YourCosmos

サウンド・アーティストのevalaによるヒップホップコンテクストによるダンスミュージックトラックの上で、過去に存在したあらゆるリリックをデータベース化することで学習したソフトウェアがライムを紡ぎ出し、インターネット上を行き交うテキストとオーディエンスからの反応からリアルタイムにコールアンドレスポンスの形でフリースタイルのラップを生成、パフォーマンスを行う。 

真鍋大度(Rhizomatiks) : Concept/Programming
evala(port、ATAK): Music
堀井 哲史 (Rhizomatiks) : Visual/Programming
比嘉 了 (Rhizomatiks) : Visual/Programming
登本 悠介 (Rhizomatiks) : Visual / Programmer
菅野 薫(dentsu):Lyric Generation
徳井 直生(Qosmo): Lyric Generation
山田 興生: Lyric Generation