What’s new

最新情報

おすすめ記事:

Mailing List:

当Webサイトは現在大幅なアップデート作業中です. サイトの更新やイベント等の情報をメールで受け取りたい方は、ぜひこちらにご登録ください. (もちろん、スパムすることはありません!)


「The Latent Future -潜在する未来-」 ICC OpenSpace 2017にて展示中.

DSC02353

2017年5月27日より、ICC OpenSpace 2017 未来の再創造 にて、Qosmoの新作展示がスタートしました。

「The Latent Future – 潜在する未来」と題した本作は、ニュース記事しか知らないコンピュータが、この世界の「ありえたかもしれない過去、ありえるかもしれない未来」を夢想し続ける…という作品です。
http://www.ntticc.or.jp/ja/archive/works/the-latent-future/

映像の中の3D空間には,過去に実際に起きたニュースのほかに,無限に近いさまざまな文章が埋め込まれています.その現実のニュースから「ありえた/ありえる」かもしれないニュースが生成されます.

この作品は,言語モデルの中に畳み込まれた,無限に近い文章の組み合わせ可能性に着目し,現在インターネット環境などに顕著に表れている,真実と虚構とがないまぜになってしまう現実社会の脆さを考えようとするものです.過去の大量のニュースを学習した人工知能(AI)は,Twitterからのニュースフィードを常に受け入れ,ニューラル・ネットワークの中に埋め込まれた「すでにある」,しかし「まだ起きていない」,オルタナティヴなもうひとつのニュースを生成し,提示し続けます.そこには,ホルヘ゠ルイス・ボルヘスの小説「バベルの図書館」に登場する,表現可能な全ての組合せを収めた図書館のごとく,組み合わせにより生成された大量の架空のニュースが含まれ,虚構と事実の間に揺らぎをもたらします.

表示されている3D空間は,各文章が持つ高次元の特徴ベクトル(文章の特徴を数列に変換したもの)を,3次元でマッピングしたもので,空間内での距離が文章間のセマンティック(意味的)な距離に対応しています.

 

作品のアイデアは言語モデル自体の面白さから着想しました。

単なる数字の列 (といっても2000次元以上のベクトルですが)から、無限に近い多様な文章が生みだされるということに美しさを感じました。この高次元のベクトル空間(ちなみにこの空間のことをLatent Space, 特徴量のことをLatent Featuresと呼びます)に埋まっている文章、「すでにそこにあるのに、まだない」記事を、日々流れてくるニュースの見出しを手がかりに、掘り起こしていく

ボルヘスの「バベルの図書館」(アルファベットの可能な組み合わせの本がすべて所蔵されている)の中を探索するようなイメージでしょうか。

そんな僕の漠然としたイメージを、昨年からQosmoに加わった堂園翔矢が見事なグラフィックにしてくれました。 インターンの二人の大学生 Robin Jungersと 梶原 侑馬 のサポートも不可欠でした. さらにサウンドは、2004年のICCでの初めての展示の時もいっしょだった 澤井妙治にお願いしました。

Continue reading

“Sonic Pendulum” with Yuri Suzukiの舞台裏 – ミラノデザインウィーク

Milano 4 aprile 2017
Corso Venezia, 11
Audi City Lab

先日のミラノデザインウィークで発表したSonic Pendulumについてまとめました.

Yuri Suzukiくんが主体となったインスタレーションに、主にサウンド生成のアルゴリズムの部分で参加しました。

一番最初にYuriくんからこのプロジェクトの話を持ちかけられたときに、「振り子型のスピーカーを並べた音響作品」という大枠のアイデアと「AI」「環境」「人と自然、歴史と先進性のバランス」といった作品を表現するキーワードがいくつかありました.

そんな中、わりとすぐに Autoencoderを使ったらどうかと思いついたのを覚えています.

Autoencoderはニューラルネットワークの一種で、入力したデータをより少ない次元で表現した上で、入力に近いデータを出力するように学習を進めるモデルです. 入力したデータをそのまま出力することにどういう意味があるのかと思われると思いますが、入力したデータをより少ない次元で表現することを学ぶことで、データの中に隠れた構造を学習することが期待できます。
Continue reading

Qosmo AI-DJプロジェクト – 詳細をまとめました.

aidj11

人工知能DJイベント「2045」から派生したAI DJプロジェクト. レコードを使いつつ、人とAIでBack 2 BackでDJをするというスタイルで少しずつ更新を続けてきました。

2017年2月17日の渋谷WWWの模様をまとめた動画 を中心に、本プロジェクトの骨子をまとめました (Yansu Kimさん、ありがとうございました! )

AI DJ PROJECT – A dialogue between AI and a human

http://qosmo.jp/aidj/

AI DJ Project – A dialogue between AI and a human” is a live performance featuring an Artificial Intelligence (AI) DJ playing alongside a human DJ. Utilizing deep neural network technology, the AI system selects and mixes songs and performs other musical tasks. Playing back to back, each DJ selects one song at a time, embodying a dialogue between the human and AI through music.

AIと表現の今を伝えるWebサイト – “Create with AI”を始めました!

creaete_ic_0327

AIと「表現」、人間の「創造性」の未来を考える上で興味深い「論文」「デモ」「作品」「記事」などを紹介するサイト、Create with AIをローンチしました!   AIによる表現に興味のあるクリエイター、アーティスト、あるいはAI研究者を主な対象とし、今、何が起きているかを毎日少しずつ伝えるリンク集を目指しています.

http://createwith.ai/

もともとは普段自分が調べている論文をそのままにしておくのはもったいない! というわりと単純な理由が動機になっています.   ローンチから一週間でライターも7名以上に増えました.  やはりこの分野に対する興味の広がりを感じます.

createwithAIfull

スクリーンショット 2017-04-03 17.20.48 スクリーンショット 2017-04-03 17.20.22

 

サイトの概要についてはこちらをごらんください.
http://createwith.ai/about/

TwitterアカウントFacebookページも合わせてよろしくお願いします.

 

尊敬するJohn Maedaさんにツイートしてもらえたのも個人的にはすごく嬉しいです!

 

MIT Tech Review Visionary Conference 2017

2400_1600-1181x787

3/6 MIT Technology Review Visionary Conference 2017に登壇させていただきました。

当日のスクリプトは Mediumの方にまとめています.

2017/4/3 アップデート.
イベントのまとめが公開されています.

LEXUS Visionary Conference Event Report #2

発表されました! – BRIAN ENO’S “THE SHIP” – A GENERATIVE FILM

以前このサイトでも予告したプロジェクト(The Ship Project with Brian Eno – Cannes Creative Lions 2016) がリリースされました!

BRIAN ENO’S “THE SHIP” – A GENERATIVE FILM
http://theship.ai/

Continue reading

AI DJ 技術解説 – 9/4「2045」at OKAZAKI LOOPS #2

LOOPS_P3460714

ありがとうございました!

人工知能時代のDJ, VJ表現を考えるイベント 「2045 」を、OKAZAKI LOOPSのプログラムの一つとして、京都国立近代美術館で先の9月4日に行いました。 200名を超える方にご参加いただきました。お越しいただいた皆さま、ありがとうございました! 前回のブログの記事で告知した技術解説を(事後になってしまいましたが)書きます。

photo (c) OKAZAKI LOOPS 実行委員会

LOOPS_P3290348 LOOPS_P3320568 LOOPS_P3270205

Continue reading

9/4「2045」at OKAZAKI LOOPS #1

いよいよ来る9/4 日曜日. 京都岡崎音楽祭 OKAZAKI LOOPSにて、人工知能DJイベント、「2045」が開催されます。2015年8月以来の1年ぶり、4回目の開催です。

2045_logo_v2-01

過去の開催についてはこちら.

M4A9564_1280

これだけ間があいた理由としては、3回やってみてその先の展開について悩みがあったというところでしょうか (一緒に2045を始めた真鍋大度くんが忙しすぎるという説も w). 選曲はなんとなくできた、センサーを使ってお客さんの動きやノリをとって選曲に生かすといったこともできた. その先に、おおっという驚き、ソフトウェアでDJをするからこそ生まれる驚きはどこにあるのか… 明確な答えを出せずにいました.

いろいろと考えた結果、初心に戻って、徳井個人とQosmoチームとしてはもともと妄想していたことを実現することに決めました。それは… 「 人と人工知能とでBack to BackでDJする」というものです。

A photo posted by Nao Tokui (@naotokui) on

知らない方のために簡単に説明すると、Back to Back(以下、B2B)とは、二人(以上)のDJが一曲(あるいは数曲)ずつ交互にかけあうというDJのスタイルのひとつ。ジャズミュージシャンのかけあいのようなものを想像してください。自分がかけた曲に対して相手が自分が想像もしてもなかったような曲をかける、それに対して自分がまた返答となる曲をかける… 「お、そうきたか. そしたらこっちはこの曲だ.」といった具合です. B2Bの面白さは、ジャズの掛け合い同様、自分の想像していたストライクゾーンのボール半個分外側にボールが返ってくる可能性にある、と言ってもいいでしょう。

2045に限らず、自分がこれまで取り組んできたプロジェクトの多くが、このボール半個分外側をどう実現するか、という点にあったといっても過言ではないかもしれません。こうした「AIに驚かされたい」という根本的な思いについては、以前にもこのブログで書きました(AIとの付き合い方) その投稿では、AIとはAlien Intelligenceだ(Kevin Kellyの言葉)、発想やそこに至るロジックが人間とは大きく異なることに価値がある、といったことを書いてます。2045での人工知能DJの立ち位置も(すくなくともQosmoチームにとっては)同じです。(注: この記事でも広い意味で人工知能/AIという言葉を使っています)

人間のDJを置き換えたいわけではなく、あくまで人に気づきを与える存在としてのAI. そうしたビジョンを明確に示すためにも、人のDJとAIのDJが並び立つようなB2Bのスタイルが最適だと考えました. さらに、今回B2Bを実現するにあたって、あえてパソコンではなく昔ながらのレコードをつかったDJにこだわりました. (ここで書いているのはQosmoチームのことです. 真鍋くん、ライゾマさんはまた別の考え方でアプローチしてます!)

A photo posted by Nao Tokui (@naotokui) on

ではなぜレコードなのか. 理由は、それがかっこいいと思ったから(笑). AIが自動的にテンポを調整してミックスする様子を見てみたい!という理由が一番正直なところなのですが、あえて答えるとしたら、不自由なレコードというフォーマットの中で人とAIが同じ土俵、同じ条件下でDJをするというのを見てみたかったといったあたりでしょうか.  AIのDJに物理的な存在感を与えたいという思いです.

レコードでDJするということは、すでにかかっている曲を聴いて、そのテンポに合わせて、次にかける曲の再生スピードをコントロールしてテンポを合わせる… といって人のDJがやっている作業と同じ作業が必要になります (ピッチ合わせという言い方もします).

PCのDJソフトウェアを使えば、勝手にテンポを合わせてスムーズに次の曲へとつないでくれます。でもそこには驚きはない. あえてレコードを使いつつ、テンポ合わせをどう実現するかというのが新しいチャレンジでした。上にあげた以前の投稿でも、人工知能とは賢そうにみえることをもうちょっとで実現できそうな仕組みのことだと書きました。自動運転でも碁でも完璧にできるようになったらもうそれは人工知能とは呼ばなくなるのです(例:オセロのアルゴリズム)。あえて、できるかできないかわからない、実際のレコードをつかったミックスに挑戦しようと思ったのもそうした背景があります。

一方でこう思う人もいるかもしれません。なぜレコードを使ったテンポ合わせがそんなに難しいのか、簡単にコントロールできても良いはずなのに…と。自動ミックスが難しい(少なくとも今はやってる人がいない)理由とそれにどうAI的にアプローチしたのかについては次のポストで書きたいと思います。選曲の方法に関しても、従来のプレイリストのログデータを解析する仕組みから離れて新しいやり方を導入しました. (畳み込みニューラルネットワークで音響的な物理量から人が聞いた時の印象を定量化することを試みてます) その辺についても説明したいと思います.

A photo posted by Nao Tokui (@naotokui) on

ここまで読まれて、センサーでお客さんの情報を取得しつつ、レコードを選んでターンテーブルでミックスする、というのはわかった. でもどうやってレコードをターンテーブルに乗せるんだろう、と疑問に思った方. 正解です w そこは人手でやります. AIが選んだレコードを数百枚あるレコードの中から選ぶ人. AIにフィードする人という図式がここでも垣間見れます.

国立近代美術館という普段とは違った雰囲気の場所でどんなイベントになるのか僕自身も楽しみにしています。まだチケットには余裕があるそうなので、ぜひお近くの方も、そうでない方も2045にぜひおいでやす。なおチケットはこちらのサイトから購入いただけます。

では京都でお会いしましょう!