1: 2018-08-14 (火) 04:57:58 yuji | 現: 2020-12-26 (土) 15:07:58 yuji Attached file: visionkit.png |
||
---|---|---|---|
Line 1: | Line 1: | ||
* AIY Vision Kit [#sb29797b] | * AIY Vision Kit [#sb29797b] | ||
- | AIY Vision Kitは,カメラを搭載したRaspberry Pi Zero Wに,Movidius社のMyriad2が実装されたBonnetボードが含まれていて,Tensor Flowでの画像処理を効率的に実行できるらしい。 | + | #ref(aiy_vision_kit.png,,around,80%) |
+ | AIY Vision Kitは,カメラを搭載したRaspberry Pi Zero Wに,Movidius社のMyriad2が実装されたVision Bonnetボードが含まれていて,TensorFlowでの画像処理を効率的に実行できるらしい。 | ||
- | Rasberry Pi Zero Wに接続されたカメラの信号は,パススルーされてBonnetボードに接続され,信号処理される。これで,非力なRaspberry Pi Zero Wでも複雑な画像処理が出来るようになっている。 | + | カメラの信号が,Vision Bonnetボードに入り信号処理されて(またはパススルーされて),Rasberry Pi Zero Wのカメラ入力ポートに接続される。~ |
+ | これで,非力なRaspberry Pi Zero Wでも複雑な画像処理が出来るようになっている。 | ||
- | 以前に購入していたんだけど,夏休みに行っている避暑地で組み立ててみた。組み立てた後,画像を見ようとしたが,うまく見れない。どうもHDMIでディスプレーに接続しないと画像が見れないみたいだ。VNCを使っても見れなかった。 | + | AIY Vision Kitは,以前に購入していたんだけど,夏休みに行っている避暑地に持って行って組み立ててみた。 |
- | ここにはHDMIディスプレーなんてないんで,Raspberry Pi zero Wでストリーミング配信して,WEBブラウザで見るようにしてみた。~ | + | #clear |
- | uv4l-webrtc(uv4lにWebRTCを実装したextension)を使ってこれを実現してみる。 | + | |
+ | ** AIY Vition KITの組み立て [#f79505de] | ||
+ | AIY Vision Kitの中には組み立て方法が入っていなかったので,[[ここを参考>https://aiyprojects.withgoogle.com/vision/]]にして組み立てた。 | ||
+ | |||
+ | OSやサンプルプログラムもインストールされているMicroSDカード(8GB)が付属しているので,Raspberry Pi zero Wに挿入するだけ。 | ||
+ | |||
+ | #ref(visionkit.png,,80%) | ||
+ | + Vision Bonnetボード(VPU)~ | ||
+ | + Raspberry Pi zero W~ | ||
+ | + カメラ・モジュール v2~ | ||
+ | + カメラ用FPC~ | ||
+ | + 照光スイッチ~ | ||
+ | + 照光スイッチ用ケーブル~ | ||
+ | + USBケーブル~ | ||
+ | + 圧電ブザー~ | ||
+ | + LED~ | ||
+ | + 基板接続用FPC~ | ||
+ | + 照光スイッチ・ナット~ | ||
+ | + 三脚用ナット~ | ||
+ | + LEDベゼル~ | ||
+ | + 基板用スペーサー~ | ||
+ | + 書き込み済みMicroSDカード(8GB)~ | ||
+ | + 段ボール筐体~ | ||
+ | + 内部用ダンボールフレーム~ | ||
+ | |||
+ | これで,10000円以下([[Target>https://www.target.com/p/-/A-53417081]]で$89.99)で,機械学習を使用してTensorFlowでの処理を試してみることが出来る。安価なキットって思います。 | ||
+ | |||
+ | ** 電源ON [#b9b21cb7] | ||
+ | ACアダプターは付属しないので,とりあえずAndroidスマホのACアダプターを使った。~ | ||
+ | ACアダプターを接続して(電源オン),しばらくするとピーと音がして,なにか動作をはじめているみたい。~ | ||
+ | 人に向けると,照光ボタンスイッチの色が変わったりする。ボタンスイッチを押すと写真が撮れるみたいだけど・・・ | ||
+ | |||
+ | 無事,問題なく組み立てられたようだ。 | ||
+ | |||
+ | ** wifiの設定 [#a1783f4f] | ||
+ | Raspberry Pi zero WにWLANが搭載されているんで,それを使ってネットワークにつなげられるのだが,そのデバイスの設定にはAndroid端末に[[AIY Projects app>https://play.google.com/store/apps/details?id=com.google.android.apps.aiy]]をインストールすると,このアプリからWLANの設定をすることが出来た。 | ||
+ | |||
+ | Vision Bonnetにあるボタンを長押しするとAIY Projects appと接続するんで,その後アプリからWIFIアクセスポイントを指定して接続するようにする。 | ||
+ | |||
+ | WIFIアクセスポイントに接続した時にアプリ上にRaspberry Pi zero WのWLANのIPアドレスが表示されるんで,そのIPアドレスにPCからSSHを使ってリモートログイン出来るようになった。~ | ||
+ | User:pi,Password:raspberry と,使っているOSはRaspbian。 | ||
+ | |||
+ | 電源ONする前にMicroSDカードの/bootに,wpa_supplicant.confを作成しておけば,このAIY Projects appを使わなくてもいいと思う。AIY Projects appって,最初にアクセスポイントに接続するためだけの機能しかないから・・・ | ||
+ | |||
+ | ** 画像が見れない [#ja058643] | ||
+ | 組み立てた後,どうやって画像をみるんだろうと思った。上記のサイトではHDMIでディスプレーに接続するように書いてあるんで,おそらくHDMIでディスプレーに接続しないと画像が見れないんだと思う。 | ||
+ | |||
+ | VNCを使ってみたが,デスクトップ画面は表示されても,カメラの画像は表示されなかった。 | ||
+ | |||
+ | しょうがないんで,Raspberry Pi zero Wでmini-HDMIから出力される画像をキャプチャーして,それをストリーミング配信して,WEBブラウザで見ることにした。 | ||
+ | |||
+ | uv4l-webrtc(uv4lにWebRTCを実装した)を使ってこれを実現してみる。 | ||
** まずAVI Vition Kitで自動起動しているデモプログラムを止める [#z237f202] | ** まずAVI Vition Kitで自動起動しているデモプログラムを止める [#z237f202] | ||
$ sudo systemctl stop joy_detection_demo.service | $ sudo systemctl stop joy_detection_demo.service | ||
として,Joy Detection Demoプログラムを停止しておく。 | として,Joy Detection Demoプログラムを停止しておく。 | ||
+ | |||
+ | ブート時でもこのデモプログラムの起動をやめる場合は, | ||
+ | # systemctl disable joy_detection_demo.service | ||
+ | とすれば,起動しなくなる。 | ||
+ | |||
+ | ブート時に起動するようにするには, | ||
+ | # systemctl enable joy_detection_demo.service | ||
+ | とする。 | ||
** uv4l-webrtcをインストール [#n951b563] | ** uv4l-webrtcをインストール [#n951b563] | ||
- | $ curl http://www.linux-projects.org/listing/uv4l_repo/lpkey.asc | sudo apt-key add - | + | # curl http://www.linux-projects.org/listing/uv4l_repo/lpkey.asc | sudo apt-key add - |
- | $ echo "deb http://www.linux-projects.org/listing/uv4l_repo/raspbian/stretch stretch main" | sudo tee -a /etc/apt/sources.list | + | # echo "deb http://www.linux-projects.org/listing/uv4l_repo/raspbian/stretch stretch main" | tee -a /etc/apt/sources.list |
- | $ sudo apt-get update | + | # apt-get update |
- | $ sudo apt-get install uv4l uv4l-raspicam uv4l-raspicam-extras uv4l-webrtc-armv6 uv4l-raspidisp uv4l-raspidisp-extras | + | # apt-get install uv4l uv4l-raspicam uv4l-raspicam-extras uv4l-webrtc-armv6 uv4l-raspidisp uv4l-raspidisp-extras |
このようにして,インストールした。 | このようにして,インストールした。 | ||
Line 47: | Line 108: | ||
しかし,Raspberry Pi zero Wのデフォルト設定だと,HDMIでディスプレーを接続してブートしないと,アナログのビデオ出力に画面が出力されてしまう。~ | しかし,Raspberry Pi zero Wのデフォルト設定だと,HDMIでディスプレーを接続してブートしないと,アナログのビデオ出力に画面が出力されてしまう。~ | ||
- | 強制的にHDMIから画像が出力されるように,/boot/config.txtを修正する。~ | + | HDMIのディスプレーを接続しないでも強制的にHDMIから画像が出力されるように,/boot/config.txtを修正する。~ |
#hdmi_force_hotplug=1 | #hdmi_force_hotplug=1 | ||
↓ | ↓ | ||
Line 67: | Line 128: | ||
とりあえずこれでHDMIのディスプレーが無くても,VPUで処理された画像が見れるようになった。 | とりあえずこれでHDMIのディスプレーが無くても,VPUで処理された画像が見れるようになった。 | ||
- | |||
- | ** AIY Vition KITって [#fa60c688] | ||
- | - Raspberry Pi zero W~ | ||
- | - Vision Bonnetボード(VPU)~ | ||
- | - カメラ・モジュール~ | ||
- | - LED~ | ||
- | - 照光スイッチ~ | ||
- | - 段ボール筐体~ | ||
- | - 書き込み済みMicroSDカード~ | ||
- | - USBケーブル~ | ||
- | |||
- | で10000円($100以下)程度で,TensorFlowを使用した画像処理を試してみることが出来て,ストリーミング転送出来ちゃうっていう安価なキットってことがわかりました。 |