考察:「ロボットアクション型プログラミング」

by ご近所のきよきよ


 

 画像認識システムの若葉を創っていてふと思ったのです。人間てどうやって画像を認識しているのかと。若葉の詳細設計書にのっとってコーディングしていくのですが、これは人間のしていることと違うかもと思ったのです。確かにシステマティックにパイプラインというかハードコーディングで処理が記述され、自動的にある程度の認識処理は為されているようです。ですが、人間の場合・・・、意識下でフォーカスを制御しながらああ解釈したら・・・こう解釈したら・・・と認識作業を制御しながらもやっています。若葉の詳細設計ですと、左上から右下に画素を逐一スキャンして解析を進めます。無論ハードコーディングな処理です。でも、人間ですと、塊をとびとびにスキャンして認識処理をしていきます。重点項目をぱっぱっと把握して、全体の画像の認識をしていくのです。自動ではない。ハードコーディングではない。


 そこで、フォーカスを起点にしたアクションとして画像認識をしていくことを考えてみました。ロボットが状況を判断しながら、ものをつかみ、所定の場所におく。所定の場所は認識結果を表すわけです。そんなプログラミング構成法です。それは下記のような画像認識用のプリミティブなアクションの連鎖として実現するものでしょう。

 

 どのプリミティブをどう適用して、どのような結果をもとめるかという一連の制御はデータとして記述していくことになります。学習機構によりデータを獲得していき、そのデータの適用は意志・評価系で選択していくことになります。

 

おわり