2018年4月30日月曜日

AzureのCustom Vision Serviceを試したら想像以上だった

2月にJapan IT Week 関西へ赴き、主にAI関連のセミナーを受講してきたのだが、Microsoftの「AIの民主化」において、AzureのCustom Vision Serviceのデモンストレーションがそこそこの衝撃だった。セミナーではWebから適当に拾ってきたアリの画像と、とある特徴のあるアリ、それぞれ50、30枚の画像を用意し、ブラウザで登録して簡単な設定をした上で訓練開始。あっという間に必要十分と思える精度で特徴のあるアリを判別してみせた。設定は対象の写真の特徴をチェックボックスで選択するだけ。
そこそこの精度とはいえ、汎用の簡単な設定と100枚に満たない画僧だけで判別できてしまうとは。。。少なくとも百枚単位の画像データを用意し、設定値を試行錯誤するものだと勝手に思い込んでいた私には驚くべき結果だった。なので、さっそく帰るなり、手元の画像を使って試してみることに。
試してみたのは、私の住む地域で古くから伝わるジャガイモの種の識別。もともとディープラーニングの勉強の題材に使おうと種の写真をストックしておいたものがあったので、それとWeb上にあるジャガイモの画像を拝借して使用。Custom Vision Serviceの使い方などは他に譲り、試用した様子をば。


これが訓練イメージを登録したところ。左上の「honjaga」が地域の種、「potate」がWebから拝借した画像で、それぞれ58、25枚である。設定は何を選択していいのかわからなかったので汎用的に使えそうなデフォルト値(Generalだったか?)を選ぶ。じゃがいもなんて見た目にはこれといった特徴がないので、どの程度の結果が出るのか半信半疑で実行する。


適合率、再現率とも高い値。
早速、学習したモデルを使って判定を実施。まずは地元のじゃがいも。


どれも「potate」が0%。明確に判定できている。
続いて拝借したさまざまなじゃがいもの判定。


「potate」である確率が低いものがあるものの、「honjaga」の確率は全て0%。これも明確に判定できている、と言っていいだろう。
おまけ。撮影ミスで、被写体を置く手を撮影してしまったもの。指の間から辛うじてジャガイモが見えているところ。


なんと、これも「potate」の確率は0%。まあ、じゃがいも以外の特徴(背景色とか)から判別してるのだろうと思うが。。。
今回のお試しでは、地元のじゃがいもの画像が全体的に暗く土が残っているのに対し、拝借した画像の多くはきれいに洗浄されたじゃがいもで明るい画像が多かった。アルゴリズムが画像のどの特徴を捉えて判定しているかはブラックボックスだし、この結果を持って種の判定が容易に可能になったとは判断できない。しかし、当初想像していたよりもはるかに低コストで判定は可能であろう、という手ごたえが掴めたことは大きなモチベーションとなった。
ディープラーニングが「知らない人だけが損をする」時代になるのも目の前である。

0 件のコメント:

コメントを投稿

最近の投稿

セミリタイヤ

九州へ一人旅をしてきた。 過去にも自分で節目を感じるようなときに一人で遠出し、自分自身を振り返る機会を作ったことがある。今回もそういった意味もあり、過去に行きながらも時間が足りなかった熊本(阿蘇)と長崎へ。 阿蘇の風景 カルデラそのものの阿蘇の景観は他では見るこ...

人気の投稿