心理プロセス研究チーム

研究概要

次世代ロボティクスとして、脳×心×AIによる脳型AIを目指すため、人間の心(感情、認知、行動)のメカニズムを計算論的に解明する研究を行います。

研究分野
  • 実験心理学
  • 基盤/社会脳科学
  • 知能ロボティクス
キーワード
  • 感情
  • 表情
  • 社会的相互作用
  • ヒューマンロボットインタラクション
  • 脳画像
研究テーマ
  • 心の計算論的解明と情報系研究者との協働によるロボット認知機能の実現
  • ロボットの動作言動に対する心理学的評価と改善案の提案
  • 心理学と情報学の境界領域、特に感情コミュニケーションに関する学際的研究の推進

佐藤 弥

佐藤 弥

略歴

2005年
京都大学霊長類研究所
2010年
京都大学白眉センター
2014年
京都大学大学院医学研究科
2017年
京都大学こころの未来研究センター
2020年
理化学研究所

受賞歴

2011年
日本心理学会国際賞奨励賞

メンバー

Chun-Ting Hsu
研究員
下川 航
テクニカルスタッフI
難波 修史
客員研究員
宇佐美 勝
研究パートタイマーII
川村 直也
研究パートタイマーII兼研修生
崎山 めぐみ
研究パートタイマーII
Dongsheng Yang
研修生
Budu Tang
研修生
Anna Kelbakh
研修生

過去のメンバー

齊藤 章江
研究員(2020/06-2024/03)
難波 紗央里
研究パートタイマーI(2021/04-2023/03)
加藤 礼奈
研究パートタイマーII(2020/07-2022/01)
Zhang Junyao
研修生(2023/10-2024/03)

研究成果

ウェアラブル筋電図装置による感情価センシング

(Sato, Murata, Uraoka, Shibata, Yoshikawa, & Furuta: Sci Rep)

日常生活における生理指標を用いた感情センシングは、実用的に意義深い。先行研究は、感情の活性度を反映する自律神経系活動を計測するウェアラブル装置を開発している。しかし、ウェアラブル装置で感情価が調べられることを示した研究はない。

この目的のため我々は、皺眉筋(CS)および大頬骨筋(ZM)の筋電図を計測するウェアラブル装置を開発した。

この有効性を実証するため、実験1で、伝統的な有線装置と我々のウェアラブル装置を用いて、感情的フィルムを見ている間の表情筋筋電図を計測した。被験者はフィルムをもう1度見て、初回の主観的な感情価を連続的に評定した。有線装置とウェアラブル装置はともに、皺眉筋と大頬骨筋の筋電図が、感情価に対してそれぞれ負と正の関係にあることを示した。

実験2で、ウェアラブル装置を用いて、Wiiボーリングをプレー中の表情筋筋電図を計測した。また録画画面を見ながらプレー中の感情価を評定した。皺眉筋および大頬骨筋の筋電図は、感情価とそれぞれ負と正の関係を示した。

こうした結果から、ウェアラブル装置による表情筋筋電図計測で、主観的な感情価がセンシングできることが示唆される。

ウェアラブル筋電図装置による感情価センシング

ライブ動的表情に対するビデオの場合より増幅された感情・運動反応

(Hsu, Sato, & Yoshikawa: Sci Rep)

表情は感情の非言語コミュニケーションにおいて不可欠の役割を果たしている。先行の心理学研究は、写真あるいはビデオの表情を呈示することにより、自動的に様々な反応(感情や表情模倣など)が喚起されることを報告している。しかし、そうした高度に統制された実験手続きは、実際の社会的相互作用の迫真性を欠くかもしれない。

この研究では、ライブ表情を呈示できる画像装置を用いて、モデルの実際の快・不快の動的表情あるいは事前に録画された表情動画を、被験者に呈示した。感情価と活性度の主観評定および大頬骨筋と皺眉筋の表情筋筋電図が計測された。

主観評定から、快感情のライブ表情に対してビデオ表情より、感情価と活性度が高いことが示された。表情筋筋電図から、快感情のライブ表情に対してビデオ表情より、モデルの表情と一致する表情筋活動がより強く喚起されることが示された。

こうした知見から、ライブの社会的相互作用における表情は、先行の実験データが示すよりも強く感情と表情模倣を引き起こすことが示唆される。

ライブ動的表情に対するビデオの場合より増幅された感情・運動反応

主要論文

  1. Sato, W., Shimokawa, K., Uono, S., & Minato, T. (2024). Mentalistic attention orienting triggered by android eyes. Scientific Reports, 14, 23143.
  2. Sato, W., & Saito, A. (2024). Weak subjective–facial coherence as a possible emotional coping in older adults. Frontiers in Psychology, 15, 1417609.
  3. Namba, S., Sato, W., Namba, S., Diel, A., Ishi, C., & Minato, T. (in press). How an android expresses “now loading…”: Examining the properties of thinking faces. International Journal of Social Robotics.
  4. Zhang, J., Sato, W., Kawamura, N., Shimokawa, K., Tang, B., & Nakamura, Y. (2024). Sensing emotional valence and arousal dynamics through automated facial action unit analysis. Scientific Reports, 14, 19563.
  5. Sato, W. (2024). Advancements in sensors and analyses for emotion sensing. Sensors, 24, 4166.
  6. Namba, S., Saito, A., & Sato, W. (2024). Computational analysis of value learning and value-driven detection of neutral faces by young and older adults. Frontiers in Psychology, 15, 1281857.
  7. Kawamura, N., Sato, W., Shimokawa, K., Fujita, T., & Kawanishi, Y. (2024). Machine learning-based interpretable modeling for subjective emotional dynamics sensing using facial EMG. Sensors, 24, 1536.
  8. Sato, W., Usui, N., Kondo, A., Kubota, Y., Toichi, M., & Inoue, Y. (2024). Impairment of unconscious emotional processing after unilateral medial temporal structure resection. Scientific Reports, 14, 4269.
  9. Ishikura, T., Sato, W., Takamatsu, J., Yuguchi, A., Cho, S.-G., Ding, M., Yoshikawa, S., & Ogasawara, T. (2024). Delivery of pleasant stroke touch via robot in older adults. Frontiers in Psychology, 14, 1292178.
  10. Schiller, D. et al. (2024). The Human Affectome. Neuroscience and Biobehavioral Reviews, 158, 105450.
  11. Huggins, C. F., Williams, J. H. G., & Sato, W. (2023). Cross-cultural differences in self-reported and behavioural emotional self-awareness between Japan and the UK. BMC Research Notes, 16, 380.
  12. Namba, S., Sato, W., Namba, S., Nomiya, H., Shimokawa, K., & Osumi, M. (2023). Development of the RIKEN database for dynamic facial expressions with multiple angles. Scientific Reports, 13, 21785.
  13. Diel, A., Sato, W., Hsu, C.-T., & Minato, T. (2023). Asynchrony enhances uncanniness in human, android, and virtual dynamic facial expressions. BMC Research Notes, 16, 368.
  14. Sato, W., & Yoshikawa, S. (2023). Influence of stimulus manipulation on conscious awareness of emotional facial expressions in the match-to-sample paradigm. Scientific Reports, 13, 20727.
  15. Hsu, C.-T., & Sato, W. (2023). Electromyographic validation of spontaneous facial mimicry detection using automated facial action coding. Sensors, 23, 9076.
  16. Saito, A., Sato, W., & Yoshikawa, S. (2023). Sex differences in the rapid detection of neutral faces associated with emotional value. Biology of Sex Differences, 14, 84.
  17. Saito, A., Sato, W., & Yoshikawa, S. (2023). Autistic traits modulate the rapid detection of punishment-associated neutral faces. Frontiers in Psychology, 14, 1284739.
  18. Diel, A., Sato, W., Hsu, C.-T., & Minato, T. (2023). Differences in configural processing for human vs. android dynamic facial expressions. Scientific Reports, 13, 16952.
  19. Hsu, C.-T., Sato, W., & Yoshikawa, S. (2024). An investigation of the modulatory effects of empathic and autistic traits on emotional and facial motor responses during live social interactions. PLoS One, 19, e0290765.
  20. Saito, A., Sato, W., & Yoshikawa, S. (2024). Altered emotional mind-body coherence in older adults. Emotion, 24, 15-26.
  21. 佐藤弥・神原誠之 (2023). ロボットによる社会的アロスタシスの調節. BRAIN and NERVE, 75, 1219-1222.
  22. Diel, A., Sato, W., Hsu, C.-T., & Minato, T. (2023). The inversion effect on the cubic humanness-uncanniness relation in humanlike agents. Frontiers in Psychology, 14, 1222279.
  23. Sato, W., Nakazawa, A., Yoshikawa, S., Kochiyama, T., Honda, M., & Gineste, Y. (2023). Behavioral and neural underpinnings of empathic characteristics in a Humanitude-care expert. Frontiers in Medicine, 10, 1059203.
  24. Sato, W., & Kochiyama, T. (2023). Crosstalk in facial EMG and its reduction using ICA. Sensors, 23, 2720.
  25. Sato, W.*, Kochiyama, T.*, & Yoshikawa, S. (* equal contributors) (2023). The widespread action observation/execution matching system for facial expression processing. Human Brain Mapping, 44, 3057-3071.
  26. Ishikura, T., Yuki, K., Sato, W., Takamatsu, J., Yuguchi, A., Cho, S. G.. Ding, M., Yoshikawa, S., & Ogasawara, T. (2023). Pleasant stroke touch on human back by a human and a robot. Sensors, 23, 1136.
  27. 佐藤弥 (2023). 食の感情センシング. 電子情報通信学会技術研究報告, 2023-CVIM-232, 1-5.
  28. Sato, W. (2023). The neurocognitive mechanisms of unconscious emotional responses. In: Boggio, P. S., Wingenbach, T. S. H., da Silveira Coelho, M. L., Comfort, W. E., Marques, L. M., & Alves, M. V. C. (eds.). Social and affective neuroscience of everyday human interaction: From theory to methodology. Springer. pp. 23-36.
  29. Yang, D., Sato, W., Liu, Q., Minato, T., Namba, S., & Nishida, S. (2022). Optimizing facial expressions of an android robot effectively: A Bayesian optimization approach. 2022 IEEE-RAS 21st International Conference on Humanoid Robots (Humanoids), 542-549.
  30. 山内翔太郎・澤邊太志・佐藤弥・藤本雄一郎・神原誠之・加藤博一 (2022). 人の 「話しながらなでる」 動作の解析に基づくロボットによるタッチケアの評価. 電子情報通信学会技術研究報告, 122, 18-22.
  31. Saito, A., Sato, W., Ikegami, A., Ishihara, S., Nakauma, M., Funami, T., Fushiki, T., & Yoshikawa, S. (2022). Subjective-physiological coherence during food consumption in older adults. Nutrients, 14, 4736.
  32. Sato, W., Uono, S., & Kochiyama, T. (2022). Neurocognitive mechanisms underlying social atypicalities in autism: Weak amygdala's emotional modulation hypothesis. In: Halayem, S., Amado, I. R., Bouden, A., & Leventhal, B. (eds.). Advances in social cognition assessment and intervention in autism spectrum disorder. Frontiers Media. pp. 32-40.
  33. Hsu, C.-T., Sato, W., Kochiyama, T., Nakai, R., Asano, K., Abe, N., & Yoshikawa, S. (2022). Enhanced mirror neuron network activity and effective connectivity during live interaction among female subjects.Neuroimage, 263, 119655.
  34. Sato, W., & Kochiyama, T. (2022). Exploration of emotion dynamics sensing using trapezius EMG and fingertip temperature. Sensors, 22, 6553.
  35. Sawada, R., Sato, W., Nakashima, R., & Kumada, T. (2022). How are emotional facial expressions detected rapidly and accurately? A diffusion model analysis. Cognition, 229, 105235.
  36. Namba, S., Sato, W., Nakamura, K., & Watanabe, K. (2022). Computational process of sharing emotion: An authentic information perspective. Frontiers in Psychology, 13, 849499.
  37. Sawabe, T., Honda, S., Sato, W., Ishikura, T., Kanbara, M., Yoshikawa, S., Fujimoto, Y., & Kato, H. (2022). Robot touch with speech boosts positive emotions. Scientific Reports, 12, 6884.
  38. Namba, S., Sato, W., & Matsui, H. (in press). Spatio-temporal properties of amused, embarrassed and pained smiles. Journal of Nonverbal Behavior.
  39. 魚野翔太・佐藤弥 (2022). 自閉スペクトラム症における表情認知の障害と表情 表出の特異性. 脳神経内科, 97, 31-37.
  40. Saito, A., Sato, W., & Yoshikawa, S.(2022). Rapid detection of neutral faces associated with emotional value among older adults. Journal of Gerontology: Psychological Sciences, 77, 1219-1228.
  41. Sato, W., Namba, S., Yang, D., Nishida, S., Ishi, C., & Minato, T.(2022). An android for emotional interaction: Spatiotemporal validation of its facial expressions. Frontiers in Psychology, 12, 800657.
  42. Uono, S., Sato, W., Kochiyama, T., Yoshimura, S., Sawada, R., Kubota, Y., Sakihama, M., & Toichi, M.(2022). The structural neural correlates of atypical facial expression recognition in autism spectrum disorder. Brain Imaging and Behavior, 16, 1428-1440.
  43. Saito, A., Sato, W., & Yoshikawa, S.(2022). Rapid detection of neutral faces associated with emotional value. Cognition and Emotion, 36, 546-559.
  44. 浦岡泰之・吉田康紀・村田耕一・木瀬香保利・北河茜・冨田定・古田雅史・務中達也・岡田志麻・佐藤弥 (2021). マルチデバイス生体計測システムHuME(Human Metrics Explorer)TMの開発と応用. 島津評論, 78, 245-254.
  45. Sato, W., Ikegami, A., Ishihara, S., Nakauma, M., Funami, T., Yoshikawa, S., & Fushiki, T.(2021). Brow and masticatory muscle activity senses subjective hedonic experiences during food consumption. Nutrients, 13, 4216.
  46. Namba, S., Sato, W., & Yoshikawa, S.(2021). Viewpoint robustness of automated facial action unit detection systems. Applied Sciences, 11, 11171.
  47. Sato, W.(2021). Color's indispensable role in the rapid detection of food. Frontiers in Psychology, 12, 753654.
  48. Uono, S., Sato, W., Sawada, R., Kawakami, S., Yoshimura, S., & Toichi, M.(2021). Schizotypy is associated with difficulties detecting emotional facial expressions. Royal Society Open Science, 8, 211322.
  49. Sato, W., Usui, N., Sawada, R., Kondo, A., Toichi, M., & Inoue, Y. (2021). Impairment of emotional expression detection after unilateral medial temporal structure resection. Scientific Reports, 11, 20617.
  50. Huggins, C., Cameron, I.M., Scott, N.W., Williams, J.H., Yoshikawa, S., & Sato, W. (2021). Cross-cultural differences and psychometric properties of the Japanese Actions and Feelings Questionnaire (J-AFQ). Frontiers in Psychology, 12, 722108.
  51. Namba, S., Sato, W., Osumi, M., & Shimokawa, K. (2021). Assessing automated facial action unit detection systems for analyzing cross-domain facial expression databases. Sensors, 21, 4222.
  52. Zickfeld, J.H., van de Ven, N., Pich, O., Schubert, T.W., Berkessel, J.B., Pizarro, J.J., Bhushan, B., Mateo, N.J., Barbosa, S., Sharman, L., K ökönyei, G., Schrover, E., Kardum, I., Aruta, J.J.B., Lazarevic, L.B., Escobar, M.J., Stadel, M., Arriaga, P., Dodaj, A., Shankland, R., Majeed, N.M., Li, Y., Lekkou, E., Hartanto, A., Özdoğru, A.A., Vaughn, L.A., Espinozay, M.C., Caballero, A., Kolen, A., Karsten, J., Manley, H., Maeura, N., Eşkisu, M., Shani, Y., Chittham, P., Ferreira, D., Bavolar, J., Konova, I., Sato, W., Morvinski, C., Carrera, P., Villar, S., Ibanez, A., Hareli, S., Garcia, A.M., Kremer, I., Götz, F.M., Schwerdtfeger, A., Estrada-Mejia, C., Nakayama, M., Ng, W.Q., Sesar, K., Orjiakor, C., Dumont, K., Allred, T.B., Gračanin, A., Rentfrow, P.J., Sch önefeld, V., Vally, Z., Barzykowski, K., Peltola, H.R., Tcherkassof, A., Haque, S., Śmieja, M., Su-May, T.T., IJzerman, H., Vatakis, A., Ong, C.W., Choi, E., Schorch, S.L., Páez, D., Malik, S., Kačmár, P., Bobowik, M., Jose, P., Vuoskoski, J., Basabe, N., Doğan, U., Ebert, T., Uchida, Y., Zheng, M.X., Mefoh, P., Šebeňa, R., Stanke, F.A., Ballada, C.J., Blaut, A., Wu, Y., Daniels, J.K., Kocsel, N., Burak, E.G.D., Balt, N.F., Vanman, E., Stewart, S.L.K., Verschuere, B., Sikka, P., Boudesseul, J., Martins, D., Nussinson, R., Ito, K., Mentser, S., Çolak, T.S., Martinez-Zelaya, C., & Vingerhoets, A. (2021). Tears evoke the intention to offer social support: A systematic investigation of the interpersonal effects of emotional crying across 41 countries. Journal of Experiment Social Psychology, 95, 104137.
  53. Nishimura, S., Nakamura, T., Sato, W., Kanbara, M., Fujimoto, Y., Kato, H., & Hagita, N. (2021). Vocal synchrony of robots boosts positive affective empathy. Applied Sciences, 11, 2502.
  54. Sato, W., Murata, K., Uraoka, Y., Shibata, K., Yoshikawa, S., & Furuta, M. (2021). Emotional valence sensing using a wearable facial EMG device. Scientific Reports, 11, 5757.
  55. 斉藤章江・佐藤弥 (2021). 高齢者の表情処理. エモーション・スタディーズ, 6, 44-49.
  56. Sato, W., Yoshikawa, S., & Fushiki, T. (2021). Facial EMG activity is associated with hedonic experiences but not nutritional values while viewing food images. Nutrients, 13, 11.
  57. Nishimura, S., Kimata, D., Sato, W., Kanbara, M., Fujimoto, Y., Kato, H., & Hagita, N. (2020). Positive emotion amplification by representing excitement scene with TV chat agents. Sensors, 20, 7330.
  58. Sato, W., Kochiyama, T., & Yoshikawa, S. (2020). Physiological correlates of subjective emotional valence and arousal dynamics while viewing films. Biological Psychology, 157, 107974.
  59. Sato, W., Rymarczyk, K., Minemoto, K., & Hyniewska, S. (2020). Cultural differences in food detection. Scientific Reports, 10, 17285.
  60. Hsu, C.-T., Sato, W., & Yoshikawa, S.(2020). Enhanced emotional and motor responses to live vs.videotaped dynamic facial expressions. Scientific Reports, 10, 16825.
  61. 佐藤弥 (2020). 表情処理の神経時空間ダイナミクスの探究. 基礎心理学研究, 39, 92-95.
  62. Sato, W., Uono, S., & Kochiyama, T. (2020). Neurocognitive mechanisms underlying social atypicalities in autism: Weak amygdala’s emotional modulation hypothesis. Frontiers in Psychiatry, 11, 864.
  63. Sato, W. (2020). Association between dieting failure and unconscious hedonic responses to food. Frontiers in Psychology, 11, 2089.
  64. Sato, W., Minemoto, K., Sawada, R., Miyazaki, Y., & Fushiki, T. (2020). Image database of Japanese food samples with nutrition information. PeerJ, 8, e9206.
  65. Sato, W., Minemoto, K., Ikegami, A., Nakauma, M., Funami, T., & Fushiki, T. (2020). Facial EMG correlates of subjective hedonic responses during food consumption. Nutrients, 12, 1174.
  66. Saito, A., Sato, W., & Yoshikawa, S. (2020). Older adults detect happy facial expressions less rapidly. Royal Society Open Science, 7, 191715.
  67. Williams, J., Huggins, C., Zupan, B., Willis, M., Van Rheenen, T., Sato, W., Palermo, R., Ortner, C., Krippl, M., Kret, M., Dickson, J., Li, C S R., & Lowe, L. (2020). A sensorimotor control framework for understanding emotional communication and regulation. Neuroscience and Biobehavioral Reviews, 112, 503-518.
  68. Sato, W.*, Kochiyama, T.*, Uono, S., Sawada, R., & Yoshikawa, S.(* equal contributors) (2020). Amygdala activity related to perceived social support. Scientific Reports, 10, 2951.
  69. Kong, F., Heller, A.S., van Reekum, C.M., & Sato, W. (2020). Editorial: Positive neuroscience: the neuroscience of human flourishing. Frontiers in Human Neuroscience, 14, 47.

関連リンク

お問い合わせ先

wataru.sato.ya [at] riken.jp
※[at]は@に置き換えてください。

Top