saidaiseeds2016-17
53/126

埼玉大学研究シーズ集2016-17■ 研究概要■ 産業界へのアピールポイント■ 実用化例・応用事例・活用例人を見れば気持ちが分かる―人間行動の画像認識コンピュータビジョン、ヒューマンロボットインタラクション、コミュニケーションロボット、非言語行動キーワード【最近の研究テーマ】●人の感情状況の変化の画像からの推定●深層学習とユーザとの対話を援用した物体認識●コミュニケーションに適したロボットの目:外観と動かし方の検討  http://www.cv.ics.saitama-u.ac.jp/久野 義徳 教授大学院理工学研究科 戦略的研究部門 感性認知支援領域人は相手を見て、その人の意図や気持ちを察して行動しています。例えば、相手が何かしようとして、うまくいっていないのを見れば、助けてあげると思います。また、表情や視線などの非言語行動を見て、相手の気持ちにあった対応をしています。このような機能をロボットに持たせれば、親しみやすく使いやすいロボットが実現できると考えられます。そこで、人間同士の場合の相互の行動のやりとり(インタラクション)を社会学の研究者と共同して調べ、そこで得られた知見に基づき動作するロボットを開発しています。そして、そのロボットの目を実現するために、ビデオカメラ等のセンサ情報から、人の検出・追跡、顔の検出や顔の向きの計測、表情の認識、身体各部の動きの認識等の研究を行っています。さらに、コンピュータでは、人が見ても分からないものも見ることができます。例えば、顔のビデオ画像から心拍数を計測する技術を開発しています(Antony Lam助教との研究)。●相手の非言語行動を認識し、適切なときに適切な非言語行動を行うことのできるロボットの技術●ビデオ画像から世界トップレベルの精度で心拍数を計測可能(ICCV2015)●コミュニケーションロボットや心拍数計測等について特許5件、出願中6件●適切な非言語行動を示すミュージアムガイドロボット(倉敷、大原美術館で実験)●認知症者のための遠隔見守りコミュニケーション支援ロボットシステム●相手の仕事の邪魔にならないとき(注意レベルの下がるとき)を捕らえて、コミュニケーションを開始できるロボット(IEEE Trans. HMS, 45/6, pp.664-675, 2015)〈顔のビデオ画像からの心拍数計測〉〈認知症者のための遠隔見守りコミュニケーション支援ロボットシステム〉情報通信技術46

元のページ  ../index.html#53

このブックを見る