LINEで送る
Pocket

先日書いた物体認識は、

ml5.js で MobileNetというモデルを

クラウドから読み込んで動いていました。

 

さてそのMobileNetのモデルですが、

そのままでは認識精度がいまいち、

独自のモノの認識ができない、

といった問題があります。

 

今回は、このMobileNetを用いて

転移学習を行うアプリを作ってみました。

 

「転移学習」というのは、簡単にいうと、

既存の認識モデルをベースに改造をしたモデルを作ることです。

使用目的に合わせてカスタマイズする、というとわかりやすいかもしれません。

 

こちらです。パソコン用。

なお、クリックする前に使い方を説明しておきます。

クリックすると、パソコンのWebカメラにアクセスし、画面に映像を表示します。

そのカメラに向かって手で方向を指示します。

8方向ありますので、

それぞれの方向を指さしながら、

画面上の同じ方向のボタンを

それぞれ20回くらいずつ押します。

これで、その方向を示す手の画像を取り込みます。

真ん中の「〇」のボタンは、どちらの方向も指さしていない状態です。

これも、20回くらい押します(もちろん、手はどちらの方向もさしていない状態です)。

その後、画面右下の train ボタンを押すと、転移学習が行われます。

パソコンの性能にもよりますが、数十秒で転移学習が終わると思います。

その後は、指さす向きに応じて、画面のボールが移動します。

 

なお、この転移学習と認識はブラウザ上で行われています。

データがどこかにアップロードされるようなことはありませんのでご安心ください。

 

追記:

このアプリは手の画像でなくても転移学習できます。

試しに、「顔の向き」で転移学習をしてみたところ、うまく動きました。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です