インタラクティブロボット研究チーム

研究概要

日常社会で人と共生し、人にさりげない支援を行うロボットの実現を目指して、人とロボットの自然なインタラクションの原理や、人に意識させずに行動変容を促すロボットの振る舞いに関して研究開発を行います。

研究分野
  • ヒューマンロボットインタラクション
キーワード
  • ヒューマノイド
  • アンドロイドロボット
  • 人間らしい表出
  • 自然なインタラクション
  • 非言語インタラクション
  • マルチモーダルな認識と表出
研究テーマ
  • インタラクションにおける人の振る舞いのモデル化とロボットの自然な動作生成
  • マルチモーダル情報に基づく人の状態認識
  • 人の無自覚的な行動変容を促すロボットのインタラクティブな動作生成

港 隆史

港 隆史

略歴

2001年
科学技術振興事業団
2002年
大阪大学
2006年
科学技術振興機構
2011年
国際電気通信基礎技術研究所
2020年
理化学研究所

受賞歴

2016
国際電気通信基礎技術研究所 研究開発表彰 優秀研究賞
2020
国際電気通信基礎技術研究所 研究開発表彰 優秀研究賞

メンバー

石井 カルロス 寿憲
上級研究員
Liu Chaoran
研究員
境 くりま
研究員
船山 智
テクニカルスタッフI
三方 瑠祐
テクニカルスタッフI
中山 祐佳
テクニカルススタッフII
Changzeng Fu
客員研究員
Alexander Diel
訪問研究員
Bowen Wu
研究パートタイマーI
Jiaqi Shi
研究パートタイマーI
新谷 太健
研究パートタイマーI
出口 修大
研修生
Guo Houjian
研修生
田矢 奈実香
インターン

過去のメンバー

堀 勇貴
研修生(2020/08-2022/03)

研究成果

上半身のジェスチャ

インタラクションにおけるロボットの自然な動作生成に関して、ロボットの音声と同期する上半身のジェスチャ生成に取り組んでいます。人が話しながら自然にジェスチャを行ったデータを基に、音声を入力として、韻律特徴を抽出し、それを条件とした Conditional GAN(条件付き敵対的生成ネットワーク) モデルの学習を進めています。これまでに、CGエージェントの発話音声から本手法に基づいて自動的にCGエージェントの動作を生成し、被験者実験を通して人らしい動作が生成されることを確認しています。

視線制御

視線制御

インタラクションにおけるロボットの自然な動作生成に関して、ロボットが複数人と対面した対話における視線制御の研究にも取り組んでいます。人同士の複数人対話のデータに基づいて、対話の役割(話者、メインの聞き手、サブの聞き手など)に応じて、視線を合わせる率、視線を逸らす率、視線を逸らす方向の確率密度分布を学習し、視線行動モデルを構築しました。このモデルを小型ロボットの視線制御に実装し、被験者実験を通して、従来法よりも人らしい振る舞いが生成されることを確認しました。

上半身のジェスチャ

主要論文

  1. Uchida, T., Takahashi, H., Ban. M., Shimaya, J., Minato, T., Ogawa, K., Yoshikawa, Y., and Ishiguro, H.:
    "Women Don't Hesitate to Self-disclose to Robots: Gender Differences for Attitude toward Robots"
    Multimodal Technologies and Interaction, Vol.4, No.3, p.35 (2020)
  2. Zheng, X., Shiomi, M., Minato, T., and Ishiguro, H.:
    "How Can Robot Make People Feel Intimacy Through Touch?"
    Journal of Robotics and Mechatronics, Vol.32, No.1, pp.51-58 (2020)
  3. Jinnai, N., Sumioka, H., Minato, T., and Ishiguro, H.:
    "The Multi-modal Interaction through Anthropomorphically Designed Communication Medium Enhances the Self-Disclosures of the Personal Information"
    Journal of Robotics and Mechatronics, Vol.32, No.1, pp.76-85 (2020)
  4. Zheng, X., Shiomi, M., Minato, T., and Ishiguro, H.:
    "What Kinds of Robot's Touch Will Match Expressed Emotions?"
    IEEE Robotics and Automation Letters, Vol.5, Issue 1, pp.127-134 (2019)
  5. Uchida, T., Minato, T., and Ishiguro, H.:
    "Who is responsible for a dialogue breakdown? An error recovery strategy that promotes cooperative intentions from humans by mutual attribution of responsibility in human-robot dialogues"
    Frontiers in Robotics and AI, Vol.6, No.29 (2019)
  6. Ishi, CT., Minato, T., and Ishiguro, H.:
    "Analysis and generation of laughter motions, and evaluation in an android robot"
    APSIPA Transactions on Signal and Information Processing, Vol.8 (2019)
  7. Shiomi, M., Shatani, K., Minato, T., and Ishiguro, H.:
    "How should a Robot React before People's Touch?: Modeling a Pre-Touch Reaction Distance for a Robot’s Face"
    IEEE Robotics and Automation Letters, Vol.3, Issue 4, pp.3773-3780 (2018)
  8. Sakai, K., Minato, T., Ishi, CT., and Ishiguro, H.:
    "Novel Speech Motion Generation by Modelling Dynamics of Human Speech Production"
    Frontiers in Robotics and AI, Vol.4, No.49 (2017)
  9. Ishi, CT., Minato, T., and Ishiguro, H.:
    "Motion Analysis in Vocalized Surprise Expressions and Motion Generation in Android Robots"
    IEEE Robotics and Automation Letters, Vol.2, Issue 3, pp.1748-1754 (2017)
  10. Kuwamura, K., Minato, T., Nishio, S., and Ishiguro, H.:
    "Inconsistency of Personality Distortion Caused by Appearance Gap in Robotic Telecommunication"
    Interaction Studies, Vol.16, No.2, pp.249-271 (2015)

関連リンク

お問い合わせ先

takashi.minato [at] riken.jp
※[at]は@に置き換えてください。