Intel Edison勉強会に参加してきた
2015年1月30日に行われたIntel Edison勉強会に参加してきた。
現時点で公開されている発表資料はこちら。
[2015/02/09追記]
勉強会のページで発表資料が公開されていました。
Intel Edison勉強会 - 資料一覧 - connpass
個人的に勉強になったことのまとめ
個人的に面白かったり気になったりしたことをまとめておこうと思う。自分は今Edisonを持ってなくて、今回はどんなものか知りたかったのが参加した目的。
※注意:当日のメモを元に書いているので内容はあまり正確ではないと思う。正確な情報は各自調べるようにしてください。
R2ファームウェア
Intelの中の人の発表によると、近いうちにR2というEdisonの新しいバージョンのファームウェアが出るようだ。
R2ではオーディオ再生やMCU用のSDK、Bluetoothのプロファイル追加などの機能追加があるみたい。
今までBluetooth対応だと聞いていたけど、まだ完璧ではなかったらしい。でも今回みたいに色々な機能が増えたり強化されたりするということは、今後のバージョンアップでも面白そうなことができるようになったりしそうで期待できそうだ。
EdisonにはAtomとQuarkの2つのプロセッサが載ってる
ずっとEdisonはデュアルコアのAtomが載ってるだけだと思ってたけど、それとは別にMCUとしてQuarkプロセッサが載ってるようだ。QuarkではリアルタイムOSが動作するらしい。
上で書いたようにR2ファームウェアにMCU用SDKが含まれる予定で、これを使ってQuarkプロセッサ用の処理が書けるようになるようだ。リアルタイム処理が書けるようになるみたいだけど、どの程度書けるかは実際に公開されたものを使ってみて検証する必要がありそう。
mBaaS
mBaaSはニフティさんのモバイルバックエンドサービス。
mBaasとEdisonなどのIoTデバイスを組み合わせたメリットの話が勉強になった。
IoTデバイスは常時電源を使えるとは限らないし、メモリーやストレージが小さいので常時全てのデータを保存しておくことはできないから、適宜データを捨てる必要がある。また、大量のデバイス1つ1つにスマホからアクセスするのは現実的じゃない。けれどmBaaSをデバイスとスマホの間に置けば、データの保存やアクセス処理が簡単にできるようになるし、デバイスの管理もできるよ、ということだった。
それと、M2M(Machine to Machine)ではデバイスが多種類あるとプロトコルを合わせるのが難しいけども、間にクラウドサービスを挟む(M2C2M(Machine to Cloud to Machine))とクラウドでプロトコル変換を行えるので楽になるという話だった。デバイス上でたくさんのプロトコルを実装するのはスペックの制約があるしデバイスのリソースも奪うので大変だったり難しいけども、間にmBaaSを挟むことで、mBaaSで対応しているプロトコルを使ったりリソースが豊富なサーバーでプロトコルを処理できるから楽になるってことだと理解した。
クラウドサービスに詳しくないので具体的な使い方が分かって勉強になった。mBaaSはある程度は無料で使えるみたいなので、試してみると面白そうだ。
Amazon SQSとEdisonを組み合わせたデモ
Amazon SQSとEdisonを組み合わせたデモが面白かった。Amazon SQS(調べたらスケーラブルで高可用なキューサービスらしい)にメッセージを送ると、3台のEdisonのどれか1台がそのメッセージを処理するというもので、Edisonに接続されたLEDを光らせたりブザーを鳴らしたりしていた(電気ショックもあった)。
普通はデバイス側がデータを送る方だけど、今回は逆にデバイスでデータを処理するという発想で、自分が思いつかなかった考え方なのもあって面白いなと思った。
こういうアイデアを出せるようになるには実際に色々作ってみる必要があるのかなと思ったので良い刺激になった。
Henry
今のところEdisonでUSBカメラを使うにはカーネルを自分でビルドし直さないといけないが、Henryという拡張ボードを使うとUSBコネクタにUSBカメラを繋げるだけですぐに使えるらしい。
FRISKケースに入るEdison用ベース基板 Henry - ランニングエレクトロニクス
フリスクケースに入る大きさで9軸モーションセンサーを載せているようだ。他にもEdisonの使い勝手を良くする機能が載ってるみたい。
日本語の情報が少ない
発表者の人がEdisonの日本語情報が少なくてすごく苦労したと言っていた。Edisonユーザー会が出来たのも、日本語の情報を集約したりして情報を共有するのが目的の1つだと言っていた。
その他
他にも色々話を聞いたので簡単に載せておく。
- 開発環境
- XDK:Javascript用IDE。エミュレータあり。
- Eclipse:CまたはC++用
- Wyliodrin:ビジュアルプログラミング環境
- ubilinuxというEdisonで動くDebianがある。
- Edisonにはinit.dはないのでsystemdを使う。
- configure_edisonという設定スクリプトがある。
- opkgというEdison用のパッケージマネージャがある。
- 初期状態だとリポジトリが少ないので追加すると良い。
- Intel Edison Kit for ArduinoのPWM Swizzlerは、EdisonのPWM出力(4本)を拡張ボードのPWM出力(6本)のどこに振り分けるかを決める。
- ピンマルチプレックス
- EdisonのGPIOは1.8Vで大抵のセンサーを繋げるには電圧の変換が必要だけど、変換はそんなに難しくないらしい。(後で調べたら変換する部品が数百円で売ってたので挑戦してもいいかも。)
- MRAAはEdisonだけでなくRaspberry Piなどにも対応しているので、勉強しておくと他のデバイスを使う時でも役立つ。
- MRAAは「ムラー」と発音するようだ。
- EdisonはIntelがフルカスタマイズで作ったものなので完成度が高い。
感想
Edisonのソフトウェア環境はまだまだ開発中らしくバグも多いけど、開発が活発にされてるのでアップデートも頻繁に行われていて楽しそうだ。
Intelの中の人や実際にEdisonを使って勉強してる方達の話だったので、実際に役立ちそうな情報がたくさんあったと思うし、Edisonに限らずサーバーとの組み合わせとかの勉強になったり開発のモチベーションも上がったりしてとても良い勉強会だった。
主催者の方と発表者の方々ありがとうございました。
廊下の電灯を自動でOn / OffするデバイスをRaspberry Piで作った(スイッチ操作側)
自分が住んでる部屋の廊下の電灯はスイッチは玄関側に付いていて、部屋から廊下の電灯を付けるのにわざわざ玄関まで行く必要があって面倒だった。
とくに仕事から帰ってきたときが面倒で、
- 玄関から入ってすぐの廊下の電灯を点ける
- 廊下の先まで行って部屋の電灯を点ける
- 玄関まで戻って廊下の電灯を消す
- 部屋に行く
と、廊下を1.5往復する必要があった。
そこでセンサーを使って廊下に人がいるのを検知して、電灯スイッチを操作できるシステムをRaspberry Piで作ってみた。 今回は廊下の電灯スイッチを操作する側について書く。(センサー側は後日書く予定。)
設計
構成はこんな感じにした。
人の動きを検知するセンサーを、スイッチのある場所から離れた所に設置する必要があったので、センサー側と電灯のスイッチを操作する側を分けて構成した。
今回は右の赤い枠の部分の話。
廊下に入ったことをセンサー側のRaspberry PiからHTTPで通知されたら電灯をOnにする。ただし既にOnならそのまま維持して、一定時間経ったら自動で電灯をOffにする。
ハードウェア
HTTPで通知を受けるのにLANケーブルを引っ張りたくはなかったのでWifiアダプタを使った。スイッチの切替は構成図にある通りサーボで行う。
それとマイコンとサーボ剥き出しだと常用するには見た目が良くないので、モールドケースというのがスイッチカバーと同じ大きさで高さもちょうどよく、安かったので使うことにした。
左はRaspberry Piを取り付ける前。モールドケース(のフタ側)に電灯のスイッチとが入る大きさの穴を開けて、そこに合わせてプラ版でサーボを固定した。サーボは1個で電力に余裕があるのでRaspberry Piと直接接続した。高さを抑えるためにGPIOピンを横向きにするピンソケットを使ってケーブルが横に出るようにしている。
真ん中はRaspberry Piをプラ版に取り付けた後。小さいのでケースにギリギリ入る大きさ。
右は裏側の様子。この面が壁と接する。上下の穴は壁にあるスイッチカバー取り付け用のネジ穴に合わせて開けたネジ穴。
左は斜めから見た様子。ケースの高さに収まるようにRaspberry Piを上下逆さまに取り付けてる。
右はケースに収めた状態。Raspberry Pi自体はケースにギリギリ収まったけど、USBの電源コネクタがModel A+は横(HDMIコネクタと同じ辺)についてるのでケースに収まらなかったのでケースに穴を開けてUSBケーブルを接続してる。
使ったもの
- マイコン:Raspberry Pi Model A+
- サーボ:Tower Pro SG90
- Wifiアダプタ:BUFFALO 無線LAN子機 WLI-UC-GNM
- microSDカード:東芝 microSDHC 16GB(Class10 30MB/s UHS-I 防水 耐X線)
- ケース:テイシン モールドケース TB54B
- その他:
- USBケーブル
- Raspberry Pi用 L字ピンソケット2×13(26P)
- リード線
- Qiコネクタ
- 熱収縮チューブ
- プラバン
- ネジ
- ナット
- スペーサー
回路図
回路はこんな感じで作成した。サーボのVCCと5V、GND同士、信号線とGPIO18を繋いでいる。
GPIO18はPWM出力をできるピンだ。
(図のRaspberry PiはModel A+がなかったのでB+のものを使った。)
ソフトウェア
HTTPで通知を受けるためのサーバーはflask-restfulというPythonのライブラリを使って実装した。
flask-restfulは簡単にREST APIのサーバーを書けるフレームワークで、今回もサーバー部分はAPIが少ないのもあって20行程度でサクッと実装できた。 マイコンで動かすサーバープログラムは小規模なもので済むものも多いだろうからこれくらいサクッと書けるのはうれしい。
また、サーボの制御はWiringPi2-Pythonを使った。
サーボの制御は拙著でまとめてる(言語はC++だけども)ので、そのままのやり方で行った。
RaspberryPiとWiringPiでサーボを動かす - Qiita
REST API
APIは今のところスイッチのOn / Off状態の取得と設定を行うものだけ定義した。
スイッチをOnにするときは、
[URL] http://example.com/Switch
[POSTデータ] {'state': 'on'}
というリクエストを送るとサーボがスイッチをOnにして電気が点いて、自動Offまでのタイマーをスタートする。 ただし既にOn状態ならサーボは動かさず、自動Offまでのタイマーをリスタートする。 また、'on'を'off'にすればスイッチをOffにして電気が消える。
スイッチの状態を取得するときは、
[URL] http://example.com/Switch
というリクエストを送ると {'state': 'on'} というJSONデータが返ってくる。
ソースコード
https://github.com/locatw/autonek-halitch.git
設置
光が入らないので少し暗いけど、設置した様子はこんな感じ。
廊下の電灯のスイッチカバーを外した所と、設置してケースを被せる前と、ケースを被せて電源ケーブルを接続した所。
(スイッチカバーを外した状態がずいぶん雑だったんだけど、どこの家もこんなものなのか気になる。)
実際に動作してる様子。
廊下の電灯を自動On / Offするデバイス - YouTube
課題
動作音が意外と大きい
ケースに入れててもサーボの動作音とスイッチの切り替え音が結構大きくて少し気になる。ケースを密閉したりして防音する方法もあるかもしれないけど、Raspberry Piが出した熱が籠もってしまう。
ただRaspberry Pi Model A+は発熱が少なめで、ヒートシンクをつけた旧式のModel Bはアイドル状態でも触ると結構熱いけど、Model A+はヒートシンクなしでも40℃で温かい程度だった。夏はどうなるか分からないけど熱対策はやりやすそう。
REST API以外のインターフェースがない
実際に24時間動かして使ってみたら、料理したりするために台所に立つと、まだいるのに自動で電灯がOffになったり、動くとまたOnになったりして十数回スイッチが切り替わってしまってうるさかった。
人感センサーは動いた人間を検知するものなので、じっと立ってるだけだど検知しないのが原因。なので常時点灯モードみたいなのを作って切り替える機能を付ければ解決できるんだけど、この装置には現状HTTPアクセスしないと操作できないのでスマホかPCからアクセスする以外に方法がないが、わざわざスマホやPCを操作するのは少し面倒だ。
解決策として物理ボタンを付ける、タッチディスプレイをつける(PiTFTとか)、音声認識やジェスチャー認識機能をつけるとかが思いつく。
Raspberry Piの長期運用の対策
上の2つの課題があるけれどうまく動いてるのでずっと動かしておくつもり。けど、そうするとmicroSDカードの寿命が気になってくる。Linuxが動いているのでmicroSDカードにログが書き込まれるから、セルの書き換え寿命が来たらmicroSDカードを交換しないといけない。
対策としてRAMディスクを作ったり、ファイルシステムをリードオンリーにしたりする方法があるみたいなので、これもその内やっておきたい。
PiTFTを使ってみた
部屋の電気のスイッチに液晶つけて、操作パネル表示させたら面白いかなと思ってこれを買ってみた。タッチに対応してる。
https://learn.adafruit.com/adafruit-pitft-28-inch-resistive-touchscreen-display-raspberry-pi
セットアップ
セットアップ方法もリンク先に書いてある。
ただ開発に使ってるRaspberry Piではうまくセットアップできなかったので、新しくSDカードにOSをインストールしてからセットアップした。
Raspberry Piに接続するPiTFTって液晶買ってひと通りセットアップしたんだけど画面が真っ白でGUIが表示できない。一筋縄じゃいかないのか。
— loca (@locatw) 2015, 1月 10
PiTFT、OS再インストールしてセットアップしたらGUI表示されるようになったな。でも開発環境だから再インストール前の状態で使えるようにしたい。
— loca (@locatw) 2015, 1月 11
既存のRaspberry Piの環境へのPiTFTのインストールがうまくいかないから、結局新しくOSインストールしてPiTFT使うことにした。
— loca (@locatw) 2015, 1月 11
既存の環境はwin32diskimagerを使ってバックアップした。
読み込みと書き込みに少し時間かかるけど、新しいデバイスのセットアップする時にやるくらいならあまり手間にならない。
[Raspberry Pi]SDカードのディスクイメージを複製する – o24ブログ
GUIを表示してみる
セットアップができたのでwxPythonでボタンを表示してみた。
ようやくここまで出来た。ボタンをタッチすると"点灯"に変わる。GUIはwxPython使った。 https://t.co/A48JoidFfN
— loca (@locatw) 2015, 1月 11
スイッチ代わりだから大きめのボタンを表示したんだけど、どうも描画が遅くてちらつきが目立つ感じだった。
Raspberry PiでwxPython使ってトグルボタン表示させてるんだけど、どうもフリッカーが発生する。ダブルバッファリングもしてるのに。320x240のボタンだから描画に時間かかるんだろうか。
— loca (@locatw) 2015, 1月 12
Raspberry PiだとX windowは重いらしい。OpenGL使うとかしないと改善はなさそうだ。
— loca (@locatw) 2015, 1月 12
CPUで描画して遅いならGPU使えばいいじゃんと思って色々調べたら、Raspberry PiはOpenGLES2に対応してるらしい。
なのでOpenGLで描画してくれるGUIライブラリを探したらKivyというPythonのライブラリを見つけた。
Kivy: Cross-platform Python Framework for NUI Development
kivyっていうpythonのライブラリがいい感じでGUI書けそう。まだRaspberry Piでビルド終わってないからWindowsで試してるけど。
— loca (@locatw) 2015, 1月 12
でもRaspberry Piだとうまく動かなくて、また色々調べた結果、SPI接続のディスプレイにはGPUを使って描画ができないということだった。
Raspberry Piでkivyがうまく動かないな。exampleにあるやつを起動しても起動プロセスの途中で止まっちゃう。
— loca (@locatw) 2015, 1月 12
HDMIでディスプレイに繋いだらRaspberry Piでkivyの3DRenderingのexample動いた。さっき動かなかった時はHDMI繋がずにPiTFTで表示してたんだけど原因が分からん。エラー出してたわけでもないし。
— loca (@locatw) 2015, 1月 12
Raspberry PiとPiTFTでkivyが起動できない問題、やっと結論出た。PiTFTはSPIで接続してるからOpenGLES使うkivyは動かせないということらしい。HDMIでディスプレイに接続した時は動いたからあってるっぽい。https://t.co/Ad2Trut3d1
— loca (@locatw) 2015, 1月 13
結局操作パネルとして使うのは今回は見送ることにした。
はぁ、Raspberry PiでwxPython使うと描画が遅くてOpenGLES使おうとするとPiTFTだと動かせないとは。うまくいかないねぇ。
— loca (@locatw) 2015, 1月 13
PiTFTの所感
色々試して使ってみた感想としては、
- Raspberry Piのデスクトップを操作した感じではメニューなんかはパッと表示される。
- 一定時間経つと液晶のバックライトがOFFになるのは良い。
- 指だと少し強めにタッチしないと反応しないのでそこを設定で調整できたらよかったかも。スタイラスなら普通にタッチしても反応する。
- 1回タッチしただけでも2回以上選択したと判定されることが多くて、選んだつもりがないのに指の下にあったアプリケーションが起ち上がったりするのが不便。
- SPI接続だと描画が遅くて使い所が限られる気がする。HDMI接続ならOpenGLESが使えるので問題はなさそうなのに残念。
SPI接続だと描画が遅いのが一番ネックだと感じた。
今回はGUIコントロールを表示してみたけど、インフォメーションボード的な使い方だとどうなるかは興味ある。
その他
Kivyは見た目が洗練されてたのでWindowsなどで使うときは良さそうだと思った。
ブログの方針変更
今このブログとQiitaを併用していて、メインはこのブログ、Qiitaは技術Tipsという使い分けをしていたんですが、方針を変更してQiitaをメインにしようと思います。
それでこのブログは自分の考えや勉強会の感想、個人的なメモといった事を書く場にしようと思います。(技術関連の話になることは変わりません。)
自分のQiitaのページです。 https://qiita.com/locatw
今後もよろしくお願いします。
VimのフォントをConsolas+Migu1Mにする
githubで表示されるソースコードのフォントが見やすかったのでVimに設定する方法を調べてみました。
環境はWindows7 x64です。
githubのフォントを調べる
githubのソースコードのフォントを調べてみるとConsolasみたいですね。
(見た目で判断したので違うかもしれません。)
早速vimrcに設定してみると、英数字はきちんと表示されますが日本語が文字化けします。
どうもConsolasには日本語用フォントが入ってないみたいです。
日本語の表示に対応する
Windowsのフォントリンクという機能を使うと、Consolasを使いつつ日本語には別のフォントを指定できるようなのでこれを使います。
日本語フォントはMigu 1Mにしました。
フォントリンクの方法はこのページを参考にしました。
http://yutorialudra.blogspot.jp/2013/03/migu-1m-consolas.html(更新:リンク切れ)
設定手順:
- レジストリエディタで"HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\FontLink\SystemLink"を開く
- 右クリックして「新規」→「複数行文字列値」を選択する
- 名前を「Consolas」、値を「migu-1m-regular.ttf,Migu 1M」に設定する
- PCを再起動する
これで無事に日本語も表示されるようになりました。
ちょっと日本語が横に伸びてるのが気になりますけど、プログラム書いてる時はコメントくらいしか日本語はないので妥協します。