頼朝の窟 2017

LINEで送る
Pocket

去年に続いて今年もやってきました。
湯河原町で開催されるプロジェクションマッピングのイベント。

今年はプロジェクションマッピングやレーザー、照明、音響に加えてドローンが登場します。
僕は今回はレーザーとドローンにつけるLEDを担当しています。
なかなかUFO感のある面白い感じになっていましたのでよろしければどうぞ。

以下、紹介文です。

■『頼朝の窟~2017~ 』概要
源頼朝のゆかりの地「湯河原」そこに伝わる逸話を、ドローンを使った立体的な光の演出、立体
音響を使った臨場感のある音響システム、そして幕山の岩肌へのプロジェクションマッピングとい
う、先端技術を用いて豪快に演出します。
【光】・・・ LEDとフレッシュライトを積んだドローンが幕山の空間 に飛び交い、音楽に合わせてフラッシュライトや、山中に仕込んだ照明 を使った立体的な光の演出。
【映像】・・・ 山の岩壁からは巨大な源頼朝が岩を壊して出てくると いう迫力ある演出を映画並みのハイエンドCG映像を使ったプロジェク ションマッピングで演出。
【音】・・・ 立体音響システムを組み、山中の自然空間全体を包み込 むダイナミックな音とリアルな定位感により臨場感溢れる音響演出。

<日時>
■実施日程:2017年3月8日(水)から 12日(日)まで 19:00~、19:30~、20:00~ (上映時間:16分)
■会場:幕山公園(湯河原梅林) 神奈川県足柄下郡湯河原町鍛冶屋 951-1

■アクセス:
電車ご利用の場合:
・小田急ロマンスカーで新宿→小田原70分
・東海道本線 東京→湯河原105分 熱海→湯河原5分 小田原→湯河原20分
自家用車ご利用の場合: ・東京→湯河原(東名厚木IC・小田原厚木道路経由)約2時間
●「梅の宴」開催中(平成29年2月4日~3月12日)は、湯河原駅から臨時直通バスが運行されます。

< Line up >
企画演出:馬場隆之 制作:株式会社インテグラル・ヴィジョン・グラフィックス 音楽・音響効果制作:A.Mochi、Iida Kazuyuki ドローン:トライポッドワークス株式会社、Dアカデミー株式会社
レーザー, LED :武内 満
音響(PA)照明 統括ディレクター :大村 圭祐
音響(PA):大内 健司 <株式会社 sound design.>
照明:住山 徹<株式会社 クリエイティブ・アート・スィンク>
特殊効果:小林 定嗣<株式会社ギミック>、石川 卓人<株式会社ギミック>
映像機材協力:アークベル株式会社

<平成28年度の動画>
【頼朝の洞(The Cave of Yoritomo)】
■ ショートバージョン – Short version
https://www.youtube.com/watch?v=I64yjHWQ17I

リアルタイムレーザー by Beyond

LINEで送る
Pocket

この動画のように、Pangolin Beyondでリアルタイムに映像をレーザーに変換する方法がわかったので記事を書きます。
(今までetherdreamでもやってきましたが、スキャナーのクオリティが思ったより出せなく実践で安心して使えませんでした。)

必要なもの:

  • Pangolin Beyond(Ultimate) Tracerの機能が使えるバージョン
  • ManyCamなどのバーチャルカメラのプログラム

概要:

  • Webcamの入力をリアルタイムにレーザーにするBeyondのTracerを使う。
  • Webcam入力としてManyCamなどのソフトを使い、画面の指定した領域をWebcam入力として扱う。

手順

手順1:

Pangolin Beyondを入手します。Tracerの機能が必要なのでUltimateバージョンが必要です。

手順2:

ManyCamをダウンロード、インストールします。
https://manycam.com/ (ManyCamはアドウェアをインストールするなど挙動が心配なところがあるので不安な方は別の方法を探してください。私はアドウェアをアンインストールしました)
DirectShowに詳しい方はこちらを使うとよいかもしれません。
https://www.codeproject.com/Articles/437617/DirectShow-Virtual-Video-Capture-Source-Filter-in

ここではManyCamの場合で説明します。Standardライセンスを購入しました。

手順3:ManyCamの設定

ManyCamを起動し、VirtualCamの設定をします。
並んでいる矩形を右クリック→Desktop->Custom Areaなどを選択します。
すると、画面上に矩形が現われてその領域をWebcam入力として扱うことができます。
manycam

手順4:映像を開く

矩形領域にレーザーにしたい映像を表示させます。

手順5:BeyondのTracerを開く

メニューのEdit->Tracerから開きます。その時、Empty Queを選択した状態で開くとよいでしょう。

tracer_menu

手順6:Webcam設定を開く

メニューから選んだらRealtime Video Tracerウィンドウが開くので「Trace」ボタンをクリックし、Tracingウィンドウを開きます。
Tracingウィンドウを開いたら「Device」をクリックします。

webcam

手順7:VirtualCamを選ぶ

ManyCamなどで作成したVirtualCam(ここでは”ManyCam Virtual Webcam”)を選択します。解像度が大きすぎると動作が重くなるのでマシンスペックに合わせて調整してください。

selectwebcam

以上です!
これで設定すると画面の指定した範囲をリアルタイムにレーザー化することが可能です。

TouchDesigner+Laser

LINEで送る
Pocket

最近TouchDesignerを触り始めています。

ノードベースのプログラミング環境はどうもしっくりこず・・・
forループをどうするの?とか細かい条件分岐があった場合どうするの?
Quartz Composerとかvvvvとか、TouchDesignerも。昔Commertial Lisense買ってたのに何も使わないままでしたがふとしたきっかけでTouchDesignerを触った時に思った以上に簡単だったので本格的に始めることにしました。

で、まずは音に合わせて反応するようなものを作りました。

で、さらにそれをレーザーに置き換えてみました。

TouchDesignerではetherdreamが使えます。これが安定してビームを作りやすくなるとついにPangolin以外の選択肢ができることになり個人的には楽しみです。

これから音と外部機器との連携を強化していきたいと思っています。

※勉強するなら松山先生のブログとかいいんじゃないでしょうか。
http://www.shuhei-matsuyama.com/single-post/2015/12/17/TouchDesigner-%E3%81%A8%E3%81%AF%EF%BC%9F%E3%80%80%E4%BD%95%E3%81%8C%E3%81%A7%E3%81%8D%E3%82%8B%E3%81%AE%E3%81%8B%EF%BC%9F

LASA安全管理責任者に合格しました。

LINEで送る
Pocket

ライブやエンターテインメントの場でのレーザー利用に関する認定資格であるLASA安全管理責任者の試験に合格しました。
この資格がないと使ってはいけない、というわけではないですが一定の知識があるという認定であるのと、会場によってはこの資格を持っていると会場とのやりとりがスムースになるというものです。

とはいえいろんなシーンでレーザーを使うべく精進していきますのでよろしくお願いいたします。

レーザー制御ソフトを作っています。

LINEで送る
Pocket

こんにちは。
どうも記事をなかなか書かなくなってしまうのですが、最近作っているものを簡単に書いておきますね。

ここしばらく、レーザーやLED関連のお仕事が少しずつ増えていて、もちろん普通に演出パターンを考えて、光を作り、設営を行って実際にオペレーションすることもすごい好きなのですが、せっかくプログラムを生業としているからにはと思い、レーザー制御ソフトを作っています。

デモ動画をあげてますのでこちらをごらんください。

仕組みとしてはこういう感じです。

私が作っているのは真ん中の解析ソフトです。
映像はSyphonで受ければなんでも対応可能なので、VJソフトを使えばエフェクトもかけた状態で処理できますし、Syphonで送ればKinectのDepthでもなんでもレーザーに変換することが可能です。

まだ若干不安定だったり、追加したい機能があるのである程度まで作れれば実戦投入をしようと思います。

MYOでレーザーをちょっと操ったことと気づいたこと。

LINEで送る
Pocket

こんばんは。
先日、1/30に前々からちらっと声はかけてもらっていたこちらのイベントでレーザーをやってきたのですが、せっかくなので先日届いたMyoを使えないかと思い立って実験もしてきましたのでその感想でも書いておきます。
こちらのイベントでした。Wombは相当久々。( http://iflyer.tv/ja/event/217868/

MYOとは筋電をとってジェスチャーの認識やら手の向きとかを取得できる腕輪のデバイス。
この動画で一時期すごい話題になりました。
https://www.thalmic.com/en/myo/

Kinectと違ってカメラでないので向きを気にしなくて良いのと、腕に巻くだけという気軽さからかなり使えるんではないかと思って注文しました。

すごい派手なところではこんな使われ方をしています。

まあとはいえ実際に動画のようにデバイスが使えるようになるにはかなりの苦労やノウハウが必要なのはいつものこと。
本番導入する前に現場で一度試してみよう、ということでとりあえず作ってみました。

やっていることは、腕のX, Y, Zの回転とジェスチャーを使って制御のon/offとキューの切り替えを実装して挑みました。
機能的には、
・Y軸の回転→レーザーの明るさの制御
・Z軸の回転→レーザーのキューのZ軸方向の回転
・手を握る→回転を使った制御のon/off切り替え(トグル)
・手を右へ動かす→次のキューへ移動
・手を左へ動かす→一つ前のキューへ移動
という感じです。
このジェスチャに合わせてMIDIを送るだけです。

で、やってみたのがこんな感じです。動画は朝方のクローズ直前くらいにブースから出てフロアで切り替えてたのですごいわかりにくいですね。すみません。

実際にやってみると複数ジェスチャを組み合わせてやるには誤認識が多くてあんまり使えなかったけど、Y軸方向の回転を使うのは比較的思い通りに動かせました。

気をつけたほうがいいなあ、と思ったのは、
・回転を使う場合、当然ながら人の可動域は体の柔らかさによっても異なるし、360度の回転なんてできるもんじゃないので反応する範囲をどう設定するかが大事。
・回転のon/offは初めはダブルタップ(親指と中指を素早く2回触れるジェスチャ)にしていたのですが誤認識が多かった。(手を右に動かすジェスチャの時に特に多かった。これは僕の動き方の問題とは思いますが)
・特にZ軸の回転をさせようと思った時に多かったのですが、人の体なんで当然Z軸の回転をさせようとしてもXY軸も動くわけで、ぐるぐる回すつもりが明るさが変わってしまうということがありました。

このへん改善してもうちょっといろんなものを制御しようと思います。

よかったのは、当たり前ではあるけどピークタイムでも混線もなく無事に動作したこと。VJブースがフロア前方で、フロアであれば後ろの方でも全く問題ありませんでした。

Arminのも仕組みとしてはわかるので改善してこういうのやりたいなあ。どなたかやりません??

レーザーショー

LINEで送る
Pocket

いろいろてんこもりな感じですが、これくらいレーザーを使い込んだショーやってみたいものです。