Realtime laser by Beyond

LINEで送る
Pocket

Like this video, I found the way to conevrt video to laser in realtime, so write this article.
(I did it by etherdream before, but the quality of the scanner could not be used more reliably with practice than I thought.)

Required:

  • Pangolin Beyond(Ultimate) : enable “Tracer”
  • Virtualcam software like ManyCam

Overview:

  • Use Tracer function by Beyond that converts webcam input to laser in realtime.
  • Some screen area handles as webcam input by using Manycam.

Steps

Step1:

Get Pangolin Beyond. You must use Ultimate version of Beyond because you need “Tracer” function.

Step2:

Donwload and install Manycam.
https://manycam.com/
(ManyCam may install some adware, so you must uninstall adware and some doubt programs.If you avoid Manycam, You may download and install other application. I uninstalled adware.)

If you are good at Directshow, this may be useful:
https://www.codeproject.com/Articles/437617/DirectShow-Virtual-Video-Capture-Source-Filter-in

I explained using Manycam.I bought Manycam “Standard” license.

Step3: setting ManyCam

Launch Manycam and configure VirtualCam.

Right-click on the side by side rectangle → Desktop-> Custom Area and so on.
A rectangle appears on the screen, and you can treat that area as Webcam input.
manycam

Step4: open video

Display the image/video you want to convert to laser is located in the rectangular area.

Step5: Open Tracer

Open from the menu Edit-> Tracer. At that time, you should open it with Empty Que selected.

tracer_menu

Step6: open Webcam setting in Beyond

When you select from the menu, the “Realtime Video Tracer” window opens, so click the “Trace” button to open the Tracing window.
Open the Tracing window and click “Device”.

webcam

Step7: select Virtualcam

Select VirtualCam (“ManyCam Virtual Webcam” here) created with ManyCam etc. If the resolution is too large, the operation becomes heavy, so adjust it according to the PC specifications.

selectwebcam

That’s all!
By setting this, it is possible to laserize the designated range of the screen in real time.

TouchDesigner+Laser

LINEで送る
Pocket

Recently I began to touch TouchDesigner.

I do not get used to Node-based programming environment…
How about a for loop? What if you have a fine conditional branch?
Also Quartz Composer, vvvv, TouchDesigner. Although I bought a Commercial Lisense a while ago I kept not using anything but it was easier than I thought when touching TouchDesigner as a trigger, so I decided to start earnestly.

At first, I made something that reacts to the sound.

And I tried replacing it with a laser.

You can use etherdream in TouchDesigner. At last it will be a choice other than Pangolin as this will make it easier to make the beam steady and I am looking forward to it personally.

I am planning to strengthen cooperation between sound and external equipment from now on.

Shuhei Matsuyama’s blog is a good starting point to study TouchDesigner.
http://www.shuhei-matsuyama.com/single-post/2015/12/17/TouchDesigner-%E3%81%A8%E3%81%AF%EF%BC%9F%E3%80%80%E4%BD%95%E3%81%8C%E3%81%A7%E3%81%8D%E3%82%8B%E3%81%AE%E3%81%8B%EF%BC%9F

developping laser control software

LINEで送る
Pocket

I’m developing software to control laser beam because I get laser-related jobs gradually.
I want to control laser at will because I’m a programmer.(Of cource, I love to think what laser beam is attractive and to create laser beam and to operate it.)

I uploaded demo movie below:

I’m developing laser-analyzing app, that is receiveing picture(movie) via Syphon, and convert it to laser beam.
This app analyzes “Syphon” movie. So this app can convert to laser beam what type of movie via Syphon.
If you want to use Kinect depth picture.

In near future, I use in live scene.

MYOでレーザーをちょっと操ったことと気づいたこと。

LINEで送る
Pocket

こんばんは。
先日、1/30に前々からちらっと声はかけてもらっていたこちらのイベントでレーザーをやってきたのですが、せっかくなので先日届いたMyoを使えないかと思い立って実験もしてきましたのでその感想でも書いておきます。
こちらのイベントでした。Wombは相当久々。( http://iflyer.tv/ja/event/217868/

MYOとは筋電をとってジェスチャーの認識やら手の向きとかを取得できる腕輪のデバイス。
この動画で一時期すごい話題になりました。
https://www.thalmic.com/en/myo/

Kinectと違ってカメラでないので向きを気にしなくて良いのと、腕に巻くだけという気軽さからかなり使えるんではないかと思って注文しました。

すごい派手なところではこんな使われ方をしています。

まあとはいえ実際に動画のようにデバイスが使えるようになるにはかなりの苦労やノウハウが必要なのはいつものこと。
本番導入する前に現場で一度試してみよう、ということでとりあえず作ってみました。

やっていることは、腕のX, Y, Zの回転とジェスチャーを使って制御のon/offとキューの切り替えを実装して挑みました。
機能的には、
・Y軸の回転→レーザーの明るさの制御
・Z軸の回転→レーザーのキューのZ軸方向の回転
・手を握る→回転を使った制御のon/off切り替え(トグル)
・手を右へ動かす→次のキューへ移動
・手を左へ動かす→一つ前のキューへ移動
という感じです。
このジェスチャに合わせてMIDIを送るだけです。

で、やってみたのがこんな感じです。動画は朝方のクローズ直前くらいにブースから出てフロアで切り替えてたのですごいわかりにくいですね。すみません。

実際にやってみると複数ジェスチャを組み合わせてやるには誤認識が多くてあんまり使えなかったけど、Y軸方向の回転を使うのは比較的思い通りに動かせました。

気をつけたほうがいいなあ、と思ったのは、
・回転を使う場合、当然ながら人の可動域は体の柔らかさによっても異なるし、360度の回転なんてできるもんじゃないので反応する範囲をどう設定するかが大事。
・回転のon/offは初めはダブルタップ(親指と中指を素早く2回触れるジェスチャ)にしていたのですが誤認識が多かった。(手を右に動かすジェスチャの時に特に多かった。これは僕の動き方の問題とは思いますが)
・特にZ軸の回転をさせようと思った時に多かったのですが、人の体なんで当然Z軸の回転をさせようとしてもXY軸も動くわけで、ぐるぐる回すつもりが明るさが変わってしまうということがありました。

このへん改善してもうちょっといろんなものを制御しようと思います。

よかったのは、当たり前ではあるけどピークタイムでも混線もなく無事に動作したこと。VJブースがフロア前方で、フロアであれば後ろの方でも全く問題ありませんでした。

Arminのも仕組みとしてはわかるので改善してこういうのやりたいなあ。どなたかやりません??

レーザーショー

LINEで送る
Pocket

いろいろてんこもりな感じですが、これくらいレーザーを使い込んだショーやってみたいものです。