脳情報工学研究室 本文へジャンプ
研究内容

ロボットグループ

視覚情報処理・ロボットビジョン

・「適応的学習による自己組織化マップの自動カテゴリ分類

 本研究では,ART-2(Adaptive Resonance Theory) の追加学習機能,CPN(Counter Propagation Networks)の自己写像特性を組み合わせたネットワークを用いた,画像の自動カテゴリ分類手法を提案します.本手法では,SIFT による128 次元の特徴量から得られたコードブックに基づいた,SIFT 記述子ベクトルのヒストグラムをART,CPN に与えることにより,ART による自動ラベリング,CPN によるカテゴリ間の空間的な関係の可視化を行い,unsupervisedによる自動カテゴリ分類を可能とします.Caltech 画像セットを用いた実験から,ART の分類粒度を決定するビジランスパラメータを変更することにより,冗長なカテゴリを抑制しつつ,CPN のカテゴリマップにより,自動的にカテゴリ空間を形成できることが示せています.



・「移動ロボットのためのコンテクスト情報に基づく教師なしシーン分類

 本研究では,自律移動ロボットにおける屋内シーンの意味的な認識を目的として,事前にカテゴリ数の設定を必要としない教師なしシーン分類法を提案します.本手法では,SIFT (Scale-Invariant Feature Transform) の特徴量を用いて作成した VW (Visual Words) と,Gist の特徴量を用いて作成したブロック毎の VW を用いて,SIFT の特徴点における VW とその特徴点が含まれる Gist のブロックの VW を,2 次元ヒストグラムとして投票することにより,BoVW (Bags of VW) を作成します.更に,ART-2 (Adaptive Resonance Theory-2) の追加学習機能を用いることにより,時系列データに対して安定性と可塑性を保ちながらカテゴリの候補となるラベルを生成するとともに,CPN (Counter Propagation Networks) の教師信号として生成されたラベルを用いることにより,教師なし学習によるシーン分類を実現します.また,CPN のカテゴリマップには,シーンの空間的な位相関係が写像されるため,カテゴリ内に含まれる分類シーンの関係性が可視化されます.ロボットの位置推定とナビゲーションの評価用として公開されている KTH-IDOL データセットを用いた基礎実験では,キッチンやリビング,廊下といった意味カテゴリ単位の分類精度について評価しました.更に,独自に試作開発した移動ロボットを用いて,全方位センサから得られる視野画像列を用いた評価実験では,時系列画像に対する提案手法の教師なしシーン分類における有効性を検証しました.
   

・「顕著性に基づく関心領域の可変化による複数物体抽出

 本研究では,複数の物体が存在する画像を対象として,顕著性に基づく物体の検出,関心領域の抽出,分割の観点から,複数物体抽出法を提案し,その有効性を検証します.
 提案手法の処理手順を次に示します.始めに,顕著性マップを用いて,原画像に対して注目領域を検出します.顕著性マップでは,輝度,色,方向性の3種類の成分を基にマップを作成し,最も顕著性の高い注視点を検出します.次に,検出した注視点を基に関心領域を抽出します.関心領域の内側を物体らしい領域,外側を背景らしい領域としてGrabCutに教師データを付与します.付与された領域情報を基にGrabCutで自動的に前景領域と背景領域に分割します.その後,マスク画像を生成し,物体領域を抽出します.


・「リアルタイムロボットビジョンのための並列処理の実装

 本研究では,Ittiらにより提案された顕著性マップのリアルタイム処理の実現を目的とします.顕著性マップは,人の視覚的注意に基づくモデルであり,画像から周辺とは異なる視覚的特徴を顕著性の高い領域として抽出し,視線の移動先を予測します.評価実験用のプラットフォームには,Renesus製のSIMD(Single Instruction Multiple Data)型一次元プロセッサアレイで構成されるIMAPCAR2を用います.SIMD型プロセッサは,単一の命令で複数のデータを同時に処理する演算であり,単純命令な画像処理に適しています.評価実験では,顕著性マップと各特徴マップの逐次処理時間と並列処理時間を比較し,並列化による処理向上を示します.


・「色情報を用いたコンテクストに基づく教師なしシーン認識

 本研究では,自律移動ロボットにおける屋内シーンの意味的な認識を目的として,色情報を用いたコンテクストに基づく特徴表現による教師なしシーン認識法を提案します.本手法では,GistとHSV-SIFT(Scale Invariant Feature Transform)を用いてコンテクストに基づき特徴を表現します.更に,局所特徴であるSIFTに色情報を組み込み,コンテクストに基づき表現に取り入れることで,シーン認識における色情報の有効性を示します.


・「物体認識・シーン分類のための自律移動ロボットの製作

 本研究では,安定した安定した状態で視覚情報を得るためにステッピングモータによる安定した走行と専用の距離センサ・制御基板及び制御プログラムによる遠隔操作を必要としない自律移動型のロボットを製作します.

               

・「視覚的顕著性に基づく全方位移動電動車いすの自律移動

 本研究では,従来の車いすでは不可能である全方位移動可能な車いすの試作開発を目指します.具体的には,土佐電子製メカナムホイールの回転方向と回転速度を,RENESAS社製RX62Tマイコンを用いて制御することで,全方位移動を実現します.また,タッチパネル上に任意の部屋の見取り図を表示し,目的地を触れることで進行ルートを計算させ,距離センサ及びカメラからの情報を用い目的地を推測,障害物を回避し,到達することを目標とします.
 オートパイロットは,シーンに存在する物体をビジュアルランドマークとして利用することで,大局的な自己位置の認識をすることで実現します.ビジュアルランドマークの検出には,顕著性マップ(Saliency Map:SM)を用い,周辺とは異なる視覚的特徴を顕著性の高い領域として,ボトムアップに抽出します.なお,本研究では,時系列画像を対象とするため,同一フレーム内では復帰抑制を加えますが,連続するフレーム間では,逆に復帰を強化することで,ビジュアルランドマークを安定して検出します.


・「RoboCarを用いた自律走行のためのアクティブセンシング

 レーザレンジセンサ,ステレオカメラ,赤外線測距離センサから得られた画像を,作成したプログラムを用いて処理することにより障害物を検知し,それらの障害物を回避しながらRoboCarを自律走行させることを目的としている.



・「ランドマーク抽出と環境地図構築

 高さを変えて取得する画像からランドマークを抽出し,ロボットを自律走行させ環境地図構築を行う.



・「未知な環境地図構築に向けた自律移動プログラムの自動生成

 本研究では,災害地など人が立ち入ることができないような場所で,ロボットが自律移動を行い,その場所の環境地図を構築することを目的としています.現在,災害用ロボットは遠隔操作が主流となっていますが,この場合,操縦手の熟練度や遠隔操作できる距離などの制約があります.これを自律移動にすることでこれらの制約に縛られず,人員削減にもつながります.
 本研究では,自律移動プログラムを自動生成させるプログラムを遺伝的プログラミングでPython,OpenCV等を用いて作成しています.将来的にはロボカーへの搭載,実際に自律移動をさせることが目標です.



マルチコプタ

・「MAVを利用したオクルージョンに頑強な物体領域の抽出

 本研究では,MAVを利用して物体領域を行うことを目的としています.ロボットビジョンとしてのMAVは,アクティブビジョン特徴に優れ,対象物体をあらゆる角度からセンシ ングし,画像データを取得することができます.この多視点性は,物体認識の問題のひとつであるオクルージョンに対して,有効であることに本研究では着目しました.更に,取得 した画像を対象に,顕著性に基づく物体の分割の観点から,学習を必要としない物体領域抽出法を提案します.
 提案手法は,注視点の検出,関心領域の抽出,領域分割の3過程で構成されています.始めに,顕著性マップを用いて,原画像に対して注視点を検出します.顕著性マップは画像中から 顕著性の高い領域を注視点として自動的に検出する手法です.画像中で物体が独立して存在する場合,顕著な領域は物体に出現しやすいため,注視点を検出することで物体の存在する位置が特定可能となります.次に検出した注視点を基に,SIFT(Scale Invariant Feature Transform)を用いて物体を包含した関心領域を抽出します.関心領域抽出では,対象物体の大きさに合わせた関心領域となるように,回転や拡大,縮小に頑強なSIFTを用いました.最後に,抽出した関心領域の内側を物体らしい領域, 外側を背景らしい領域として,GrabCutに疑似的に教師データを付与することで,学習なしの物体領域抽出を実現しています.



・「マルチコプタによる環境センシング

 
本研究では,自律移動可能な飛行ロボットによる環境センシングを行うことを目的とします.飛行ロボットはenRoute社マルチコプタ「zion pro 800」を製作します.全方位移動電動車いすの進行方向へ先行して危険を事前に検知,安全な走行を実現したいと考えています.
 また,マルチコプタの利点を生かし,高所からのカメラによる撮影を行い物影の人間を発見する,ローイングの競技を支援するといったアプリケーションの開発を行います.
          

・「マルチコプタによる大型構造物のステレオ立体視

 
本研究では,マルチコプタにより,老朽化が深刻化する構造物の夜間点検を実現します.
マルチコプタに夜撮カメラを2台取り付け,ステレオマッチングから距離画像を生成し,
点検対象をリアルタイムに立体的に可視化することで,点検の効率化と事故リスク低減を目指します.


・「バッテリレスマルチコプタによる屋内環境の全方位センシング

 
本研究では,前後左右に4台のカメラを搭載したマルチコプタに電動車いすを追従・先行させ,
SLAMにより,自己位置推定と環境地図構築を同時に行い,自律移動の支援を実現します.
また,バッテリ切れによるマルチコプタの墜落を防止するため,
モビリティに搭載されるバッテリから電源コードを伸ばし,給電を行いながら飛行させます.
            

・「電動車いすの移動を支援するマルチコプタ編隊の自律飛行

 
本研究では,複数のマルチコプタを協調制御し,電動車いすを追従・先行させることで,
走行経路を広範囲かつフレキシブルにセンシングし,自律移動の支援を実現します.
特に,計算負荷が小さく,教師信号なしで物体を検出するObjectnessにより,
走行経路の人・障害物を検知し,時々刻々と変化する生活環境に対応させます.
          

・「マルチコプタによる移動体のリアルタイム自動追跡

 
本研究では,カメラを搭載したマルチコプタを使用して屋外で移動する農業用UGVを自動追跡し,
作業状況の把握や,作業計画の支援に取り組んでいます.ただし,追跡に失敗した場合は,
農業用道路を自動検出し,緊急離陸するように組み込みます.
          


離床行動予測

・「非拘束センサを用いた離床行動予測

 本研究では,被介護者の生活の質を重視した非拘束の離床予測センサシステムを提案します.また,機械学習による閾値の設定を必要としない判定手法を構築します.本手法では,ベッドに設置されたセンサの出力から被介護者の現在の姿勢を機械学習により,7パターンに分類します.
 センサには,頭部の動きに伴う加速度を検知するピローセンサ,ベッドマットに敷くパッドセンサ,転落防止柵に埋設するボルト振動センサ,ベッドのキャスタの下に敷くキャスタセンサを使用しています.パッドセンサ,ボルトセンサのデータは,有線接続によりマイコンボードに集約され,無線によってモニタリング端末に送信されます.ピローセンサは,無線通信用チップを搭載しているため直接データがモニタリング端末へ送信されます.
 機械学習には,ノイズ除去に自己組織化マップ(Self-Organizing Maps:SOM),姿勢判定に対抗伝搬ネットワーク(Counter Propagation Networks:CPN)にフィードバック結合を加えたフィードバックCPNを用いています.


・「独居老人の生活リズムに着目した見守り支援ロボット
            

 本研究では生活リズムを把握することから高齢者の体調や健康を観察し,何か異常があった場合に知らせることのできるロボットについて研究しています.この研究の目標として,生活リズムから健康状態を観察するだけではなく,表情と音声を解析し,高齢者に声掛けをすることで一人暮らしの孤独感を取り除くことも視野においています.また,この研究ではロボットを定点カメラのように使用し,定位置からカメラを稼働させ,高齢者を観察します.

図1:見守り支援ロボットのイメージ       図2:見守り支援ロボットの健康状態の管理システム

夜間農業機械

・「生物の習性を利用した夜間農業機械

 屋外無農薬栽培のために,作物に徘徊する昆虫の駆除するロボットが計画されています.
本研究では,この計画に先駆けて,夜行性の昆虫を画像処理により検出し,
昆虫の生態をパターン認識することで,効率的な駆除方法の検討に役立てます.




<学外競争的資金>

運転シーンのエピソード記憶の構築に関する研究(タカタ財団研究助成,2015年度)

自動車の自動運転・半自動運転技術のために,安全予測モデルの構築に取り組みます.
ニューラルネットワークを用いて走行環境を認識するとともに,
ドライバの視界方向や心理状態を推定することで,需要度の高いインターフェイスを実現します.


移動ロボットによる教師なし学習に基づく一般物体認識の研究(立石科学技術振興財団研究助成(A),2011年度)


適応度学習による時空間自動ラベリングの研究(科研費若手研究B,2009〜2011年度)


自律型ロボットの行動プログラミングと知能化(由利本荘市助成事業 ,2008年度)

本研究ではマインドストームを使用して、フィールド上で周囲の状況把握、障害物の認識、ボールを探し追いかける等の各シーンにおけるプログラムを組み、決められた環境にあわせて良い方法を自ら選択し適応するという知能を持ったサッカーロボットの実現や、自らバランスをとるよう制御することによって段差や坂などで凹凸のある状況でも自立可能である二点支持の車輪機構を持ったロボット(倒立振子型ロボット)等の自律型ロボット実現を目指す。さらに、これらのロボットを発展させて知能をもった車椅子などの生活支援分野への応用が考えられる。

  

イスナサイエンスロボット特集

                                         上に戻る