Arduinoでサーボモータを制御した時にはまったこと

LINEで送る
Pocket

レーザー話が多かったので久々に別のことを書いてみようと思います。

ArduinoはLEDの制御システムなどで良く使ってはいるのですが先日サーボーモーターを扱うことがあり、簡単に動きそうでなかなかうまくいかずはまったことがあったので、そのことを残しておきます。

【動きをもっと滑らかに、細かく制御したい – 基礎】

通常サーボモーターを動かす場合、こう記述するかと思います。

#include <Servo.h>
Servo servo;

void setup(){
    servo.attach([サーボ制御で使うピン番号]);
    angle = 120; // 0から180の値
    servo.write(angle);
}
void loop(){}

通常はこの書き方がだと角度で指定できるしとても簡単で良いのですが、もっと細かい角度で制御したい場合には

writeMicroseconds();

を使うと可能です。
ただ、この場合角度指定と違い、どの値がどの角度になるかは試してみないとわからなくなってしまいます。
リファレンスにもあるように、通常は1000から2000の範囲をとるようですが、サーボモーターによっては700から2300の値をとるものもあり、使う際にはどの範囲をとるのか検証が必要です。
実際に私が使ったものも1000から2000の範囲に収まらないものがありました。

Arduino リファレンス:
https://www.arduino.cc/en/Reference/ServoWriteMicroseconds

このようにwriteMicroseconds()は検証が面倒ですが設定できる値が細かいので動きが滑らかになります。

【連続的に動かない】

深堀りできていないですが、loop関数内で連続的に動かす場合、delay()を挟まないと動きませんでした。delayでなければ動かないというわけではないと思いますが、値を指定してから実際にその値の位置まで動くには時間がかかるため、その差を delayで埋めてあげる必要があるのではないかと思います。
これはサーボの種類やほかの実装とも関連しあうと思うのですが、私の場合はdelay(15); が必要でした。

【動きがカクカクしてしまう – 外部からの制御】

シリアルから連続的に値を受け取り、パースして得た値をもとにサーボの制御を行うプログラムを書いていました。
これでうまく動くと思っていたのですが実際は処理が重いのか、シリアルをつなぐとサーボの動きがカクカクして、外すと滑らかに動くという現象がありました。

原因は、SoftwareSerialを使っていたことでした。本来はハードウェアシリアル(TX,RXピンを使うもの)を使って通信するべきなのですが、開発中はUSB経由で値を取得してデバッグするためにハードウェアシリアルはPCと接続するために使っていました。
ただ、ハードウェアシリアルに比べてソフトウェアシリアルは相当処理が重いようで、特に標準のSoftwareSerialは調べてみるとなるべく使わないように、と書かれている記事もありました。
( https://arduino.stackexchange.com/questions/34126/whats-the-difference-between-all-the-software-serial-libraries-which-one-is-ar )

標準のSoftwareSerialの代替として
AltSoftSerial
NeoSWSerial
推奨されていましたが、私の状況では問題が改善されなかったのでデバッグの手間はかかるしプログラムの書き込みも手間がかかってしまいますが、ハードウェアシリアルを使うことにして改善しました。

とはいえこれもArduinoのスペック(秋月のArduino Pro mini 5Vを使っていました)によると思うのでサーボの数が増えるとハードウェアシリアルでもカクカクするのではないか?と懸念しています。


さらに、私のケースではサーボを6つ使い、またシリアルは無線経由で取得していたので他の問題もあったのですが、、、、、それはまた別の機会に書こうと思います。

光波(hikarinami)をスマートイルミネーションに展示、優秀賞をいただきました。

LINEで送る
Pocket

ご無沙汰しています。

突然ですが2017/11/1-5に横浜は象の鼻パークにて開催されていた「スマートイルミネーション横浜2017」( http://smart-illumination.jp/ )に、「光波(hikarinami)」を出展しました。
初めて自分の作品を作り、出展しました。
そこでとても多くのことが得られ、気持ちが高まって長文ポエムになってしまいましたが読んでいただけると想いは十分伝わるかと思います。

どういったものであるか、写真をごらんください。
hikarinami hikarinami2 hikarinami3

概要:

レーザーというと鋭い光というイメージが強いですが、光の使い方によっては柔らかな印象を与えることもできます。 本作品ではオブジェクトにレーザーが当たり、床に映る光が波のように見えることがわかります。 そこから物事は一面ではなく見え方が変わる、ということを感じられると嬉しいです。
http://smart-illumination.jp/program/samazama_na_hikari/

作品について:

皆さんがよく目にするレーザー光線はライブやクラブで見るような強い光が多いのではないかと思います。
laser
刺激的で、力強い。(そしてちょっと危ない)

この作品ではそう言った印象とは異なる使い方をしています。
レーザーを反射させることで光が波のように現れ、関わりあって複雑な模様を描き出します。
同じようで少し違う光の揺らめき。
波のように寄せては返す、を繰り返す光をぼんやり見つめて癒されるのも良し。
光る棒を振って魔法使いのようにその光をあやつるのもよし。

インタラクティブ性を楽しむことも、光の波をぼんやりと眺めることも、あるいはレーザー自体は撮影しにくい光源なので撮影にチャレンジしてみるもよし。
体験者によってコンテンツの楽しみ方が様々に異なるという作品です。

会期中のこと:

開催期間中は殆どの時間ブースにて説明や体験の補助をしつつ、たまにブースから離れて、
皆さんがどのように体験するのかを観察→翌日の開催までにアップデート
ということを繰り返していました。

初日はスティックを振るというインタラクションでは無かった(別の操作方法)し、使い方の説明文もありませんでした。

実際制作に取りかかれたのもとても遅い時期で、出展に間に合うかどうか心配な時があり、まだまだ不十分な状態だったのと、初出展でスベる、というわけではないですが全然相手にされないようなつまらないものと受け止められるのではないかという心配な気持ちとで不安なまま11/1の会期を迎えました。

が、お隣のブースで出展していたタイ人の方達がとても優しく、一人の方が褒めてくれました。
また、実際にオープンすると来場者が来てくれては声をあげて楽しんでくれたり、綺麗だとじーっとしばらく眺め続ける人、または仕組みがどうなってるんだろうかと考えながら見る方。
たくさんの方がそれぞれの方法で楽しんでくれていたり、これがすごく好きだと言ってくれる方もいて、時間が経つごとに不安が自信に変わっていきました。

数日すると、作品が育っていくような感覚になりました。
最初は作品と体験方法の説明をかなりしていたのですが、
光を見てもらおうと特に光を切り替える機能を説明せずにみなさんに綺麗な光を見てもらうと何もしないでいると、リピーターの方が来られて棒を振る。
するとそんなことができるのを知らなかった方達から「こんなこともできるのか」、や「おおおお」という声やとても喜んでもらえているような歓声が上がり、リピーターの人が指揮者としてこの作品の主役になっていました。
初めは気楽につけた機能でしたが作品にこんなに大きな影響を与えるとは自分でも思っていなくてとても面白かったです。
さらには作品自体をとても気に入ってもらえたようで、棒を振っていた人が他の人に棒の使い方を説明してくれました。するとその人が振ってくれて、光が変わると自分が光を操っているという感覚が得られて眺めているだけの時とは違う感動が得られたようで、眺める作品から体験する作品へ変化したことにも喜んでもらえたようです。
そしてそれをみた他の人が操作していた人に教えてもらって操ってまた別の人が操って、、、その姿を遠くから見ていた人が近くにきて・・・という繰り返し現象が起きていることもありました。

ブースが小さいとは言えど、人が多くて見えなくなっています。

ブースが小さいとは言えど、人が多くて見えなくなっています。

開催前は大丈夫なんだろうか?と心配していたのにこんなに楽しんでもらえて、作者が不安に思ってすみません!と心で反省していました。
と、ともにこの作品は大切にして育てようと言う気持ちも日に日に増して来ました。

そう言ったありがたい経験をたくさんさせてもらい、最終日。
今回スマートイルミネーションアワードに応募していたのですが、そのアワードの表彰式があります。

当日のオープン時間頃に審査員の方が応募者の作品を周り、審査します。
早い時間だしじっくり説明しよう、と言葉を考えていたのですがとてもありがたいことに、審査の時間で既に楽しんでくれている人が沢山いて、審査員の方への説明があまりちゃんとできず(説明する時にも来場者からの質問やどうしていいんだろうと困っている方に説明をしたりしていました)で、受賞できるかなあ、できたらうれしいなあ、くらいだったのですが結果的に屋内展示の優秀賞をいただきました。
(実は内心、うまく説明できなかった気持ちとでもその場で体験してもらえている方へサポートや説明することは根本的に大切なことだろう、という葛藤が密かにありました。)


嬉しいですね。

それも当然嬉しいのですが、授賞式が終わった後の事。

まだ展示時間が残っていたので記念撮影が終わり、持ち場に戻ろうとしていた時。

わざわざ話しかけていただいたのですが、言ってもらえた言葉が胸がつまるような想いで嬉しかったのです。
「展示していたもの、とても良かったのだけど受賞するか気になって来ちゃった!受賞できて良かったね、応援していたので受賞できたこととこうやってお話できて嬉しいです」
と言っていただけたこと。
その方曰く、自分一人だったら眺めて終わっていたけど近くにいた子どもが綺麗な光を色々とみせてくれたのが良かったのよね、と言っていただけました。
自分が気づかなかったところでここまで思ってもらえていることにとても嬉しくて嬉しくて・・・・
正直今こうやって文章を書いているだけでも思い出してグッと来ちゃってます。

改めて

改めて感想を書いてみると、嬉しかったことがいっぱいありました。

すごく心配だったけど自分が作ったものが来場者の方にとても受け入れていただいていること、
たくさんのありがたいお言葉をかけていただいたこと、
子どもや大人も自分で光を操ってみたいと思って列をなしてくれて楽しんでもらえたこと、
光を変えるたびに歓声を上げてくれる人、
光を自分で変えてすごく興奮気味に楽しんでくれる人、
綺麗と言ってじーっと見てくれる人、
じーっと結構な時間(数分〜10分とか)眺めた後に「ずっと見ていられるわ」と言ってくれる人、
思わず写真を撮りまくる人、
私が自信を持っていなかった発想力、実装力、などなど褒めてもらえたこと、
自分が楽しんだこの作品を他の人にも楽しんでもらおうと広めてくれたり、周りの人に説明することで偶然そこに居合わせた人たちが作品を通して交流が生まれていること、
自宅に欲しいと言ってくれた人、
とても素晴らしいから今度作品を見られるところがあれば必ず見に行きます、と言ってくれたこと。

まだまだ改善点や試して見たいことはあるのですが一人で自分が作ったものをここまで心を動かすことができたということがとても嬉しく、自信に繋がりました。

とても嬉しい応援のお言葉をいっぱいいただけたので、この作品をもっと大切に育ててもっと素晴らし作品になるようにアップデートし続けようと思いました。

まずは次どこで展示できるかを進めないといけないですね。
引き続きご声援お願いいたします。


会場からの風景。

会場からの風景。


余談なのですが開催地の横浜は、大学の時に住んでいた場所で、実家から始めて出て一人暮らしをした街。
大学にあまり馴染めなかった僕は、みなとみらいから石川町の元町あたりはアルバイトしていて、そこで出会う人と仲良くなって楽しい日々を過ごせた場所です。多分学校だけだったら中退して実家に帰るかで人生が大きく違っていたと思います。
そういう街や人の雰囲気含めてとても好きな場所で、思い出深い場所でこういう機会までいただけてとても素晴らしい時間を過ごすことができました。

最優秀賞ではないのでここまで書くのも気持ちが強すぎるとは思うのですが、初めてのことであまりにもたくさんのことを得られたので思わずポエムを書いてしまいました。

作品紹介。

作品紹介。わざわざ作ってもらえて嬉しいです。

さて、これからはこの作品を育てたいのともっとこういう機会を作っていきたいので発表の場を探さないといけないので色々と情報を集め始めたところですが、手探り状態です・・・

もしご興味あるかたいたらお気軽にご連絡いただきたいのと、こう言ったのがあるよ!出してみたら!と言うものがありましたらお気軽にご連絡いただけると嬉しいです。

contactやfacebook(hi-farm.net)やtwitter (@mmlemon) など。
よろしくお願いいたします。

YoutubeでPlaylistも作成しました!
https://www.youtube.com/playlist?list=PLPTUOlmJYwImy8MV0ktlbtDyNCt30PF1D

#YOKOHAMA #スマートイルミネーション #夜景 #横浜 #みなとみらい

…graphic designer…さん(@asamudayo)がシェアした投稿 –

今回はあまり余裕がなくて他の方の作品をそんなに見ることができなかったのが心残りです・・・・

IMG_8723

IMG_0803

IMG_1557

IMG_9012

自作レーザー開発進捗

LINEで送る
Pocket

ブログが長らく放置になっていました。。。(いつもですが)

去年からレーザーセットをはじめる前からずっと自家製のレーザーを作りたいと思っててずっと調べては機材を取り寄せては試していたのですが、いままではなかなかうまく行きませんでした。
レーザーを自作して何がしたいかというと、ケーブルから解放してドローンに積んだり持ち運べるようにしたいと考えていました。

今まではその電源の問題でうまい解決法が思いつかず断念していたのですが、先日AC電源を使うことができるモバイルバッテリーを発見し、ようやく形にすることができました。

その参考動画がこちら。

身につける場合には特に問題ないのですが、ドローンに積むには重量の問題もあります。
バッテリーがちょっと重たいですが合計1.6kgくらいにはなりました。
普及機だとさすがに厳しいですが大型なら積めるかと思います。
IMG_3513

とりあえずはここまでは作ることができたのでもうちょっと改善して実機につんで見たいと考えています。

頼朝の窟 2017

LINEで送る
Pocket

去年に続いて今年もやってきました。
湯河原町で開催されるプロジェクションマッピングのイベント。

今年はプロジェクションマッピングやレーザー、照明、音響に加えてドローンが登場します。
僕は今回はレーザーとドローンにつけるLEDを担当しています。
なかなかUFO感のある面白い感じになっていましたのでよろしければどうぞ。

以下、紹介文です。

■『頼朝の窟~2017~ 』概要
源頼朝のゆかりの地「湯河原」そこに伝わる逸話を、ドローンを使った立体的な光の演出、立体
音響を使った臨場感のある音響システム、そして幕山の岩肌へのプロジェクションマッピングとい
う、先端技術を用いて豪快に演出します。
【光】・・・ LEDとフレッシュライトを積んだドローンが幕山の空間 に飛び交い、音楽に合わせてフラッシュライトや、山中に仕込んだ照明 を使った立体的な光の演出。
【映像】・・・ 山の岩壁からは巨大な源頼朝が岩を壊して出てくると いう迫力ある演出を映画並みのハイエンドCG映像を使ったプロジェク ションマッピングで演出。
【音】・・・ 立体音響システムを組み、山中の自然空間全体を包み込 むダイナミックな音とリアルな定位感により臨場感溢れる音響演出。

<日時>
■実施日程:2017年3月8日(水)から 12日(日)まで 19:00~、19:30~、20:00~ (上映時間:16分)
■会場:幕山公園(湯河原梅林) 神奈川県足柄下郡湯河原町鍛冶屋 951-1

■アクセス:
電車ご利用の場合:
・小田急ロマンスカーで新宿→小田原70分
・東海道本線 東京→湯河原105分 熱海→湯河原5分 小田原→湯河原20分
自家用車ご利用の場合: ・東京→湯河原(東名厚木IC・小田原厚木道路経由)約2時間
●「梅の宴」開催中(平成29年2月4日~3月12日)は、湯河原駅から臨時直通バスが運行されます。

< Line up >
企画演出:馬場隆之 制作:株式会社インテグラル・ヴィジョン・グラフィックス 音楽・音響効果制作:A.Mochi、Iida Kazuyuki ドローン:トライポッドワークス株式会社、Dアカデミー株式会社
レーザー, LED :武内 満
音響(PA)照明 統括ディレクター :大村 圭祐
音響(PA):大内 健司 <株式会社 sound design.>
照明:住山 徹<株式会社 クリエイティブ・アート・スィンク>
特殊効果:小林 定嗣<株式会社ギミック>、石川 卓人<株式会社ギミック>
映像機材協力:アークベル株式会社

<平成28年度の動画>
【頼朝の洞(The Cave of Yoritomo)】
■ ショートバージョン – Short version
https://www.youtube.com/watch?v=I64yjHWQ17I

リアルタイムレーザー by Beyond

LINEで送る
Pocket

この動画のように、Pangolin Beyondでリアルタイムに映像をレーザーに変換する方法がわかったので記事を書きます。
(今までetherdreamでもやってきましたが、スキャナーのクオリティが思ったより出せなく実践で安心して使えませんでした。)

必要なもの:

  • Pangolin Beyond(Ultimate) Tracerの機能が使えるバージョン
  • ManyCamなどのバーチャルカメラのプログラム

概要:

  • Webcamの入力をリアルタイムにレーザーにするBeyondのTracerを使う。
  • Webcam入力としてManyCamなどのソフトを使い、画面の指定した領域をWebcam入力として扱う。

手順

手順1:

Pangolin Beyondを入手します。Tracerの機能が必要なのでUltimateバージョンが必要です。

手順2:

ManyCamをダウンロード、インストールします。
https://manycam.com/ (ManyCamはアドウェアをインストールするなど挙動が心配なところがあるので不安な方は別の方法を探してください。私はアドウェアをアンインストールしました)
DirectShowに詳しい方はこちらを使うとよいかもしれません。
https://www.codeproject.com/Articles/437617/DirectShow-Virtual-Video-Capture-Source-Filter-in

ここではManyCamの場合で説明します。Standardライセンスを購入しました。

手順3:ManyCamの設定

ManyCamを起動し、VirtualCamの設定をします。
並んでいる矩形を右クリック→Desktop->Custom Areaなどを選択します。
すると、画面上に矩形が現われてその領域をWebcam入力として扱うことができます。
manycam

手順4:映像を開く

矩形領域にレーザーにしたい映像を表示させます。

手順5:BeyondのTracerを開く

メニューのEdit->Tracerから開きます。その時、Empty Queを選択した状態で開くとよいでしょう。

tracer_menu

手順6:Webcam設定を開く

メニューから選んだらRealtime Video Tracerウィンドウが開くので「Trace」ボタンをクリックし、Tracingウィンドウを開きます。
Tracingウィンドウを開いたら「Device」をクリックします。

webcam

手順7:VirtualCamを選ぶ

ManyCamなどで作成したVirtualCam(ここでは”ManyCam Virtual Webcam”)を選択します。解像度が大きすぎると動作が重くなるのでマシンスペックに合わせて調整してください。

selectwebcam

以上です!
これで設定すると画面の指定した範囲をリアルタイムにレーザー化することが可能です。

無線機器と会場での混線問題

LINEで送る
Pocket

IoTの流行りなのかどうかはわからないですが、XBeeやBluetooth, Wifiなど最近では無線を使うことが多くなっています。
世間的な流れとしても大筋では無線化する方向になっているのではないかと思います。

今回は無線機器を使う上でいつも悩みの種になる混線の問題について書こうと思います。


私はLEDの点灯を無線で制御するシステムを作って使用しています。
それはライブなので音との同期が非常に重要です。
ということはずれたとしても0.016-0.032秒など非常に小さい誤差で無いと大きな違和感を感じるようになります。

また、LED無線制御は基本的にXBeeを使っています。
ところがXBeeは2.4GHz帯の周波数を使って通信します。
2.4GHz帯は携帯電話や各種Wifi機器(最近は5GHzのものもかなり使われるようになりましたがまだまだ主流です)、Bluetooth機器、電子レンジなどあらゆる機器が同じ周波数で動いており、場合によっては周波数帯の取り合いになってしまいます。

そういったことからもわかるように、人が沢山いるような大きな会場でのライブや展示会、などでは混線する可能性が高く、
大きい会場では事前にテストしておくようにしています。

ちなみに作った制御機器の実績としては、一番大きな会場では東京体育館でのライブでは問題なく動いていました。
もちろん人がまだ入りきっていないということや、送受信機の距離を近づけたり、他にも工夫をしました。

それよりもビックサイトなどで行われる展示会ではブース同士の距離が近い上に無線テクノロジーの展示が多く、ある意味では一番厳しい環境では無いかと思います。

しかもこればっかりは会期中でないと問題が起きないことも多く、リスク要因となります。
設営日には問題なく動いていたのにオープンした途端に動かない、動いても遅延が酷い、などといったことが発生します。

突然のトラブルで慌てないためにも、
・可能であれば事前の会期中に無線の混線度合いを確認する
・無線に障害が多い場合、有線や通信を遮断するための環境づくりなどの方法を考えておく
・周りの電波に負けないくらい高出力の無線機器を用意する

ということが必要になります。
最後のものは無線資格なしには扱うことができません。

そのために無線の資格を取得しております。
せっかく資格をとったので別の周波数帯に切り替えられるような機能をつけるなどより柔軟に対応できるようにしておきたいものです。

関連ページにも説明や関連記事のリンクを貼っていますのでよろしければご一読ください。
XBeeについて | hi-farm.net

陸上特殊無線技士3級とりました。

LINEで送る
Pocket

完全に書き漏れていたのですが、先日陸上特殊無線技士3級の資格を取りました。

といっても1日講習に行けばとれるようなものです。
LEDの無線システムを作っている上で、いつかは出力の強さや資格なしに許可されていない周波数を使えるようになりたい、と思って取りました。

直近で使う機会はまだないですが、いつか役立つのでは無いかと思っています。

TouchDesigner+Laser

LINEで送る
Pocket

最近TouchDesignerを触り始めています。

ノードベースのプログラミング環境はどうもしっくりこず・・・
forループをどうするの?とか細かい条件分岐があった場合どうするの?
Quartz Composerとかvvvvとか、TouchDesignerも。昔Commertial Lisense買ってたのに何も使わないままでしたがふとしたきっかけでTouchDesignerを触った時に思った以上に簡単だったので本格的に始めることにしました。

で、まずは音に合わせて反応するようなものを作りました。

で、さらにそれをレーザーに置き換えてみました。

TouchDesignerではetherdreamが使えます。これが安定してビームを作りやすくなるとついにPangolin以外の選択肢ができることになり個人的には楽しみです。

これから音と外部機器との連携を強化していきたいと思っています。

※勉強するなら松山先生のブログとかいいんじゃないでしょうか。
http://www.shuhei-matsuyama.com/single-post/2015/12/17/TouchDesigner-%E3%81%A8%E3%81%AF%EF%BC%9F%E3%80%80%E4%BD%95%E3%81%8C%E3%81%A7%E3%81%8D%E3%82%8B%E3%81%AE%E3%81%8B%EF%BC%9F

hololensを試していました。

LINEで送る
Pocket



先日一週間ほどhololensを借りることができました。
最終的には中途半端な話になってしまいそうですが触ってみたので記録を残しておこうと思います。

って前置き無しなのも良くないのでそれなに?って言う方。
hololensの凄さはこの動画を見ると伝わるはずです。

ここ最近はOculusHTC ViveのようなVR機器やgoogle glassなどのメガネ系デバイスが出てきていますが、それらとは一線を画し、別の方向性での未来を感じることができるものでした。

違いとしては、

  • メガネ系デバイスで当然レンズの向こうが見えるので現実世界の上に映像(CG)を重ねることができる
  • リアルタイムで現実世界の形状を認識するので、テーブルの裏側にキャラクターが隠れたり、壁からモンスターが出て来るというような現実世界とリンクしたコンテンツを制作できる
  • hololens単体で動作する(PCが入っている)ので別途スマホを用意したりごついPCとケーブルでつなぐ必要がない。→ワイヤレスなので自由に空間を動き回ることができる!

というところでしょうか。

個人的にはリアルタイムで形状を認識している(メッシュを生成している)というだけで大興奮なのですが、VRのように視界すべてが映像で閉じられた別世界になるのではなく、現実世界を利用できるので「そこにいるから、hololensをつけているから体験できること」というコンテンツを作ることができるので大人数で体験する演劇やライブなどでも有効な使い方があるのではないかと思っています。




で、どんな感じでつくるのかな?ということでUnityで試してみました。

VRが流行ることでより五感を使った体験が重要度を増していると感じているのでhololensの音ってどんな感じだろうと思って音を使った何かを作ろうとしました。

目標としたものは
「壁や床などからボールが自分に飛んできて、それをひたすら避けるゲーム(?)」
です。

開発情報はやはり中村さんの記事を参考にしました。
さすがのスピード、さすがの充実感。
http://www.naturalsoftware.jp/entry/2016/04/07/093200

いざ作るぞ!と気持ちは高まったものの環境構築とかインストールに時間がかかってしまい、
結局本格的に試すまで進められなかったのですが、いざ作ってみると

  • 壁から向かってくるボールのスピードを速くしたかったが音にそこまでの指向性を感じられなかったのでよくわからないまま常にキョロキョロしないとかわすことができなかった
  • 素早くキョロキョロするとなるとhololensの視野角の狭さが気になってしまった(音がなっている方向を向いているつもりでも小さめの視野角にボールがなかなか入らず、音のなる方を向いているのにボールを発見できずに全然かわせない)

ということを嫌というほど実感することができました。(さらに動画まで撮り忘れてしまった・・・)

とはいえどまだまだ開発途中のデバイス、これからデバイスの性能も向上するだろうし、楽しみです。
なんというかSF映画で見た世界を突然現実に体験することができ、また自分がそのコンテンツを作ることができると思うとこれからワクワクしてたまりません。

で、こんなところで時間が無くなりそうだったのでタップするとボールがまっすぐ飛んでいって、壁に跳ね返る、というだけのものを作って一旦返却。

これだけでも現実世界のものにCG世界のオブジェクトが跳ね返り、そこから音がなっていることくらいはわかるようになります。

また借りる機会はあるのでもっと色々と作ってみて経験を積もうと思います。
もっとちゃんとしたアプリを作りたいと思いました。

なんだかんだ新しいことが多く覚えることも新しいことに触れるたびに増えて大変はありますが、新しいもの、未来を感じることができて幸せです。

また借りる機会ができたらもうちょっと音の面も深堀していこうと思います。


#VRもいじってるのにいきなりこっち書くのも順番すっ飛ばしている気がしますが、そちらは後日ということで。
#自宅の風景が映ってしまうのちょっと恥ずかしいですね・・・

SummerSonic2016

ss2016
LINEで送る
Pocket

ちょくちょくお誘いいただくBENZENE by VMTTさんからお誘いいただいてサマソニのSonic Stageのヘッドホンデコレーションのシステムを制作しました。

さすがにこの規模の会場でやるということで仕込み日に無事動作しているのを確認するまでは心配性の性格が出てきていましたが、動作を確認して一安心。

システムとしては、

  • Unity上で画面に表示する映像を表示、
  • 映像や機能を切り替えるためのUIを追加
  • 4chでオーディオをPAさんに出力
  • 照明さんへDMXで制御信号を送り、コントロール

これら全てをUnityアプリ側から制御しました。
今回は映像はミラーリングでしたがLEDにマッピングするので空いた箇所にボタンなど諸々詰め込むことができたので困ることもなかったです。

IMG_1019

今回は使わなかったですが、インタラクティブに制御するために外部から制御できる仕組みも用意していたのでまたこの先使えるといいなあ。


ここからはサマソニ感想文になるのですが・・・・

ちなみにSonicステージは1日目はヘビーロック系が多くて、2日目はMETAFIVEが出てたり昔たくさん聴いていたThe 1975がトリだったりと個人的にも好きなアーティストがたくさん出ていて楽しかったです。

ちょっと時間ができたときに他のステージやお店で食べたりしたのですが、楽しかったです。

こちらはサイレントディスコのあるフロア。ミラーボールで照らされてきれいでした。
ミラーボール

やはりサイレントディスコは楽しかったです。ヘッドホンが昔からすると光ったりで進化していました。
silent disco

これが一番すきだったいちごけずり!暑くなった体には凍ったイチゴを削ったものがたっぷり入っていて、上にはクリーム、下にはシロップと食べていてずーっと美味しかったです。
いちごけずり

機会ありがとうございました!

hi-farm.net