考察:「試行錯誤戦略」

by ご近所のきよきよ


 

 画像認識は基本的に、固まり群を見つけて、その配置関係とか形状を解析して、パターンマッチングしていくことが処理なわけです。

 画像認識の最初は画像データの2値化処理であります。この段階で、目標の図形への雑音とか、本質的でない情報とかが削られます。薄い色の罫線は無視して、明るい色の線だけを切り出すというのは2値化時の重要な処理項目です。このときに曖昧性がありますので、意味ある情報(後段の認識処理からのフィードバックで得る)が見つからない限り、試行錯誤で対応していかねばなりません。
 今、これで良いかなと思っている技術は、大局(全体のイメージ)を解析して、特異点とか、線分の集合としてデータを作り、そのデータを固まりとして分割してパターン認識(知識とのマッチング)していく、その分割の入れ子構造を管理していく、・・・そんなものかなと。これだと、解析は最小のコストで実現できますし、ほとんどをパターンマッチングの処理に振り向けることができます。大局とはフォーカスが当たったイメージ部分ということになりますが。現実に生きるロボットはそんなアルゴリズムで行けそうです。
 
 ところで、この辺の試行錯誤は高速に実施しなくてはなりません。意味ありそうな固まりは迅速に基本的な意味解析して、連想によって画面全体の一貫性評価というフィルターにかけて、有効な固まりのみを残していくということをしていかないと、データがパンクする、認識処理が実時間で行えないというトラブルに見舞われることになります。試行錯誤を有効に働かすことは連想を重視していくことなのです。解析処理もできるだけ基本的で高速に実施できるようなものにすべきです。あるいは並行処理を高度に展開していくことになります。連想の高度に並行処理です。
 
 若葉は実験システムですから、高速さは2の次として、しっかり、このモデルで画像認識ができることを実証することが目標です。3次元ですと、左右の図形の一致しているところが解析対象オブジェクトということで雑音がのぞかれます。2次元図形ですと、断線が無い固まりが最上位の図形ということで切り出すことになります。そのときには微妙な色具合なんかの違いが手がかりになります。また同じような色具合の固まりを分離するのは、太さとか(対向線の場合には間の空間を塗りつぶします)、長さとかの特異点で行うことになります。こうゆうのは曖昧性が発生しますから、試行錯誤していくことになります。
 画像処理・認識も自然言語処理とおなじく曖昧性の管理が重要な技術になります。処理はどうしても試行錯誤により、最終的な意味の統一性というものに導いて、認識事項を決定していくことになるのです。
 

おわり