TouchDesigner+Laser

LINEで送る
Pocket

最近TouchDesignerを触り始めています。

ノードベースのプログラミング環境はどうもしっくりこず・・・
forループをどうするの?とか細かい条件分岐があった場合どうするの?
Quartz Composerとかvvvvとか、TouchDesignerも。昔Commertial Lisense買ってたのに何も使わないままでしたがふとしたきっかけでTouchDesignerを触った時に思った以上に簡単だったので本格的に始めることにしました。

で、まずは音に合わせて反応するようなものを作りました。

で、さらにそれをレーザーに置き換えてみました。

TouchDesignerではetherdreamが使えます。これが安定してビームを作りやすくなるとついにPangolin以外の選択肢ができることになり個人的には楽しみです。

これから音と外部機器との連携を強化していきたいと思っています。

※勉強するなら松山先生のブログとかいいんじゃないでしょうか。
http://www.shuhei-matsuyama.com/single-post/2015/12/17/TouchDesigner-%E3%81%A8%E3%81%AF%EF%BC%9F%E3%80%80%E4%BD%95%E3%81%8C%E3%81%A7%E3%81%8D%E3%82%8B%E3%81%AE%E3%81%8B%EF%BC%9F

hololensを試していました。

LINEで送る
Pocket



先日一週間ほどhololensを借りることができました。
最終的には中途半端な話になってしまいそうですが触ってみたので記録を残しておこうと思います。

って前置き無しなのも良くないのでそれなに?って言う方。
hololensの凄さはこの動画を見ると伝わるはずです。

ここ最近はOculusHTC ViveのようなVR機器やgoogle glassなどのメガネ系デバイスが出てきていますが、それらとは一線を画し、別の方向性での未来を感じることができるものでした。

違いとしては、

  • メガネ系デバイスで当然レンズの向こうが見えるので現実世界の上に映像(CG)を重ねることができる
  • リアルタイムで現実世界の形状を認識するので、テーブルの裏側にキャラクターが隠れたり、壁からモンスターが出て来るというような現実世界とリンクしたコンテンツを制作できる
  • hololens単体で動作する(PCが入っている)ので別途スマホを用意したりごついPCとケーブルでつなぐ必要がない。→ワイヤレスなので自由に空間を動き回ることができる!

というところでしょうか。

個人的にはリアルタイムで形状を認識している(メッシュを生成している)というだけで大興奮なのですが、VRのように視界すべてが映像で閉じられた別世界になるのではなく、現実世界を利用できるので「そこにいるから、hololensをつけているから体験できること」というコンテンツを作ることができるので大人数で体験する演劇やライブなどでも有効な使い方があるのではないかと思っています。




で、どんな感じでつくるのかな?ということでUnityで試してみました。

VRが流行ることでより五感を使った体験が重要度を増していると感じているのでhololensの音ってどんな感じだろうと思って音を使った何かを作ろうとしました。

目標としたものは
「壁や床などからボールが自分に飛んできて、それをひたすら避けるゲーム(?)」
です。

開発情報はやはり中村さんの記事を参考にしました。
さすがのスピード、さすがの充実感。
http://www.naturalsoftware.jp/entry/2016/04/07/093200

いざ作るぞ!と気持ちは高まったものの環境構築とかインストールに時間がかかってしまい、
結局本格的に試すまで進められなかったのですが、いざ作ってみると

  • 壁から向かってくるボールのスピードを速くしたかったが音にそこまでの指向性を感じられなかったのでよくわからないまま常にキョロキョロしないとかわすことができなかった
  • 素早くキョロキョロするとなるとhololensの視野角の狭さが気になってしまった(音がなっている方向を向いているつもりでも小さめの視野角にボールがなかなか入らず、音のなる方を向いているのにボールを発見できずに全然かわせない)

ということを嫌というほど実感することができました。(さらに動画まで撮り忘れてしまった・・・)

とはいえどまだまだ開発途中のデバイス、これからデバイスの性能も向上するだろうし、楽しみです。
なんというかSF映画で見た世界を突然現実に体験することができ、また自分がそのコンテンツを作ることができると思うとこれからワクワクしてたまりません。

で、こんなところで時間が無くなりそうだったのでタップするとボールがまっすぐ飛んでいって、壁に跳ね返る、というだけのものを作って一旦返却。

これだけでも現実世界のものにCG世界のオブジェクトが跳ね返り、そこから音がなっていることくらいはわかるようになります。

また借りる機会はあるのでもっと色々と作ってみて経験を積もうと思います。
もっとちゃんとしたアプリを作りたいと思いました。

なんだかんだ新しいことが多く覚えることも新しいことに触れるたびに増えて大変はありますが、新しいもの、未来を感じることができて幸せです。

また借りる機会ができたらもうちょっと音の面も深堀していこうと思います。


#VRもいじってるのにいきなりこっち書くのも順番すっ飛ばしている気がしますが、そちらは後日ということで。
#自宅の風景が映ってしまうのちょっと恥ずかしいですね・・・

SummerSonic2016

ss2016
LINEで送る
Pocket

ちょくちょくお誘いいただくBENZENE by VMTTさんからお誘いいただいてサマソニのSonic Stageのヘッドホンデコレーションのシステムを制作しました。

さすがにこの規模の会場でやるということで仕込み日に無事動作しているのを確認するまでは心配性の性格が出てきていましたが、動作を確認して一安心。

システムとしては、

  • Unity上で画面に表示する映像を表示、
  • 映像や機能を切り替えるためのUIを追加
  • 4chでオーディオをPAさんに出力
  • 照明さんへDMXで制御信号を送り、コントロール

これら全てをUnityアプリ側から制御しました。
今回は映像はミラーリングでしたがLEDにマッピングするので空いた箇所にボタンなど諸々詰め込むことができたので困ることもなかったです。

IMG_1019

今回は使わなかったですが、インタラクティブに制御するために外部から制御できる仕組みも用意していたのでまたこの先使えるといいなあ。


ここからはサマソニ感想文になるのですが・・・・

ちなみにSonicステージは1日目はヘビーロック系が多くて、2日目はMETAFIVEが出てたり昔たくさん聴いていたThe 1975がトリだったりと個人的にも好きなアーティストがたくさん出ていて楽しかったです。

ちょっと時間ができたときに他のステージやお店で食べたりしたのですが、楽しかったです。

こちらはサイレントディスコのあるフロア。ミラーボールで照らされてきれいでした。
ミラーボール

やはりサイレントディスコは楽しかったです。ヘッドホンが昔からすると光ったりで進化していました。
silent disco

これが一番すきだったいちごけずり!暑くなった体には凍ったイチゴを削ったものがたっぷり入っていて、上にはクリーム、下にはシロップと食べていてずーっと美味しかったです。
いちごけずり

機会ありがとうございました!

hi-farm.net

Touch Board試しています。

LINEで送る
Pocket

たまたま見かけて面白そうだったTouch Boardを購入。
早速試してみました。

Touch Boardとは

ロンドンにある、Bare Conductiveという会社が販売している、タッチセンサーと音楽関連に向いているArduinoベースのデバイスです。
昔はKickStarterで出資を募っていたようです。


簡単に書くと

赤枠がタッチセンサーになっていて、これを指だったり導電インクを塗ったところを触ったりすることでOnになって音を鳴らすことができます。
touchboard_touchsensor

入出力のピンがArduino Unoくらいあるのと、3.3V出力もできるのでさらなるセンサーや機器と連携することが簡単にできそうでとても楽しみです。

簡単に音を鳴らすことができる手軽さと、外部との連携の可能性という意味での拡張性が両立していて良いなと思っています。(お値段が高いけど・・・)


どんなことができるか?

どんなことができるか?はこの動画がわかりやすいと思います。
ぼくは単体で購入しました。


MIDIコントローラーにする

この動画のようにSDカードに入れた音を鳴らすこともできるので簡単な楽器はすぐに作ることができるのですが、個人的にはやはり拡張性、というところでMIDIコントローラーになる機能に魅力を感じました。

MIDIコントローラーにする方法はこちらを参照にしました。
http://www.bareconductive.com/make/touch-board-ableton-live/
(また後日もう少し詳しくかければと・・・)

で、簡単ではありますが試してみたのがこの感じです。見てみると音が変わると同時に画面上のつまみが動いているのもわかると思います。

なんかテルミンらしき文字も見えたのでもうちょっと探っていこうと思います。

いろいろと夢が膨らんできますね。
なんかデモ作れたらまた公開します。


購入先

ちなみに日本ではスイッチサイエンス様から購入できます。僕もここから買いました。


リンク

LED制御装置をちょっと改良しています。

LINEで送る
Pocket

そういえばブログは随分と書いてなかったなあ、ということで。
LED制御機器が今まで大きかったのでもうちょっと小さくするべく改良中です。
こちらの写真。
右側は今まで使っているもの、左側が今回作っているもの。
今まではポケットに無理やり入れられるようなサイズでしたが、これなら簡単に入ります。

IMG_0880

PC新調しました。

LINEで送る
Pocket

ずっとMacユーザーだったのですが、ここしばらくの仕事内容を振り返るとMac:2,Win:8みたいな割合だったのと、Macでハイパワーなノートパソコンは出ないだろう(出ても後悔することはないだろう)、ということでWindowsマシンにしました。

そしたら当然いろいろとインストールする必要が出てくるのですが、割と多かったのでメモとして。
わかってはいたけどフルセットになるには結構な時間がかかるなあ。

・各バージョンのUnity
・visual studio
・openframeworks
・ableton live
・max for live
・arduino
・サクラエディタ
・thunderbird
・arduino
・MVN Studio
・astah-community
・kinect sdk
・hololens
・git
・WinSCP

・Quickshow
・Beyond

・adobe製品もろもろ
・LibreOffice
・dropbox
・chrome
・evernote

LASA安全管理責任者に合格しました。

LINEで送る
Pocket

ライブやエンターテインメントの場でのレーザー利用に関する認定資格であるLASA安全管理責任者の試験に合格しました。
この資格がないと使ってはいけない、というわけではないですが一定の知識があるという認定であるのと、会場によってはこの資格を持っていると会場とのやりとりがスムースになるというものです。

とはいえいろんなシーンでレーザーを使うべく精進していきますのでよろしくお願いいたします。

レーザー制御ソフトを作っています。

LINEで送る
Pocket

こんにちは。
どうも記事をなかなか書かなくなってしまうのですが、最近作っているものを簡単に書いておきますね。

ここしばらく、レーザーやLED関連のお仕事が少しずつ増えていて、もちろん普通に演出パターンを考えて、光を作り、設営を行って実際にオペレーションすることもすごい好きなのですが、せっかくプログラムを生業としているからにはと思い、レーザー制御ソフトを作っています。

デモ動画をあげてますのでこちらをごらんください。

仕組みとしてはこういう感じです。

私が作っているのは真ん中の解析ソフトです。
映像はSyphonで受ければなんでも対応可能なので、VJソフトを使えばエフェクトもかけた状態で処理できますし、Syphonで送ればKinectのDepthでもなんでもレーザーに変換することが可能です。

まだ若干不安定だったり、追加したい機能があるのである程度まで作れれば実戦投入をしようと思います。

プチリニューアル

LINEで送る
Pocket

webサイトをプチリニューアルしました。

シンプルなデザインなのは同じですが、画像を増やし自分がお請けしている仕事範囲がわかるようにaboutにまとめました。

また、言語や技術からはその技術とどのように接しているのか、を書いております。
こちらは順次追記予定ですのでお楽しみにしてください。

MYOでレーザーをちょっと操ったことと気づいたこと。

LINEで送る
Pocket

こんばんは。
先日、1/30に前々からちらっと声はかけてもらっていたこちらのイベントでレーザーをやってきたのですが、せっかくなので先日届いたMyoを使えないかと思い立って実験もしてきましたのでその感想でも書いておきます。
こちらのイベントでした。Wombは相当久々。( http://iflyer.tv/ja/event/217868/

MYOとは筋電をとってジェスチャーの認識やら手の向きとかを取得できる腕輪のデバイス。
この動画で一時期すごい話題になりました。
https://www.thalmic.com/en/myo/

Kinectと違ってカメラでないので向きを気にしなくて良いのと、腕に巻くだけという気軽さからかなり使えるんではないかと思って注文しました。

すごい派手なところではこんな使われ方をしています。

まあとはいえ実際に動画のようにデバイスが使えるようになるにはかなりの苦労やノウハウが必要なのはいつものこと。
本番導入する前に現場で一度試してみよう、ということでとりあえず作ってみました。

やっていることは、腕のX, Y, Zの回転とジェスチャーを使って制御のon/offとキューの切り替えを実装して挑みました。
機能的には、
・Y軸の回転→レーザーの明るさの制御
・Z軸の回転→レーザーのキューのZ軸方向の回転
・手を握る→回転を使った制御のon/off切り替え(トグル)
・手を右へ動かす→次のキューへ移動
・手を左へ動かす→一つ前のキューへ移動
という感じです。
このジェスチャに合わせてMIDIを送るだけです。

で、やってみたのがこんな感じです。動画は朝方のクローズ直前くらいにブースから出てフロアで切り替えてたのですごいわかりにくいですね。すみません。

実際にやってみると複数ジェスチャを組み合わせてやるには誤認識が多くてあんまり使えなかったけど、Y軸方向の回転を使うのは比較的思い通りに動かせました。

気をつけたほうがいいなあ、と思ったのは、
・回転を使う場合、当然ながら人の可動域は体の柔らかさによっても異なるし、360度の回転なんてできるもんじゃないので反応する範囲をどう設定するかが大事。
・回転のon/offは初めはダブルタップ(親指と中指を素早く2回触れるジェスチャ)にしていたのですが誤認識が多かった。(手を右に動かすジェスチャの時に特に多かった。これは僕の動き方の問題とは思いますが)
・特にZ軸の回転をさせようと思った時に多かったのですが、人の体なんで当然Z軸の回転をさせようとしてもXY軸も動くわけで、ぐるぐる回すつもりが明るさが変わってしまうということがありました。

このへん改善してもうちょっといろんなものを制御しようと思います。

よかったのは、当たり前ではあるけどピークタイムでも混線もなく無事に動作したこと。VJブースがフロア前方で、フロアであれば後ろの方でも全く問題ありませんでした。

Arminのも仕組みとしてはわかるので改善してこういうのやりたいなあ。どなたかやりません??