3種類のロボットの「キー技術」の紹介

ニコラ/Nikola

人の表情筋の動きの再現
心理学と解剖学の知見に基づいて人の表情筋と同じ動きが出せるよう設計したアクチュエーター(空気圧で動く「モーター」)。
世界最大級の多さとなる35個を人等身大の頭部に実装。
ニコラ
人が認識可能な感情表現
人が認識できる形での感情表出がロボットでできていることを、世界に先駆けて実証。
2022年、まずは「基本6感情(怒りや驚きといったシンプルな感情)」について発表。 2025年には、13の「複雑感情」についても発表。
ニコラ
目の動きの再現
人の対話状況に依存した視線行動、人の個性に依存した視線行動をモデル化し、モデルに従って動作させることで人間らしい自然な視線行動を実現。
頭部の動きの再現
ロボットの発話音声に同期してリアルタイムにロボットのロボット頭部のうなずき動作を生成するシステムを実装。
口の動きの再現
ロボットの発話音声に同期してリアルタイムにロボットの口唇動作を生成するシステムを実装。

エアトロ/Aetro

自律的補助
筋電やカメラ情報を用いて装着者の動作意図を推定し、ヒトの動作に合わせてロボットが支援動作を生成。
空気圧人工筋による動作補助
油圧や電動モーターではなく空気圧人工筋を用いることで、動作力を確保しつつ軽量化を実現。
さらに、無制御時には外部からの力で簡単に関節が動く(モーター駆動の場合は、通常、無制御時には外部からの力で簡単に動かすことは困難)。
動作補助具の軽量化
動作補助を行う機体に軽量なフレームを用い、空気圧人工筋による駆動により、装着部分を軽量化。
俊敏な動作の補助
意図推定結果に合わせて事前に導出した制御則を適切に組み合わせることで、動作補助駆動を瞬時に生成。

インディ/Indy

家庭への進出を目指した各要素技術の統合
人が生活する環境での移動に適し、かつ、人間との自然なコミュニケーションを実現するため、子どもサイズに以下記載の機能を搭載。
複数音源に対応する音声認識
「マイクロホンアレイ(分散配置型複合マイク)」による音声データと「LiDAR(レーザーによるレーダー)」もしくは外部カメラによる画像データを組み合わせることで、複数話者(複数音源)が同時に発声しても、音声を分離して精確に認識する。用途に応じて音声認識の言語モデルに対するチューニングを実施。
物体の関係性も含む画像認識
「可視光・距離計測カメラ」を用いて、検出した物体についての物体同士の関係性(例えば、位置関係・意味関係)を瞬時に解析し、その場の状況(シーン)を理解。
例えば、姿勢、ジェスチャその他の人の状態を認識したり、注視するべき対象を推定する。
記憶
自身の記憶を「ナラティブ」(物語)として系統的に保存、整理。これらを利用して個々の人や個々の状況に合わせた行動を選択。
状況に合わせた応答
オープンかつ日本語に強い言語モデル「llm-jp-3-13b」を基盤に、その場の状況に合わせた推論、応答を行うための最適化(ファインチューニング)を独自に実施。文脈に合わせた応答を高い精度で実現。
2024年9月25日「LLM-jp-3 1.8B・3.7B・13B の公開」(国立情報学研究所 大規模言語モデル研究開発センター)
高速化・小型化
「記憶」を持ち、外部ネットワークに依存せずに行動制御を行うシステムを外部配置し、ロボットとは無線により通信。これにより、ロボット本体内部の計算機を小型化するとともに、応答を高速化。
ジェスチャの実装
人が生活する環境でコミュニケーションに不可欠な「ジェスチャ」を試験的に実装
表情の実装
人との自然なコミュニケーションに不可欠な「表情」を簡易的に実装。
大容量蓄電池
人が生活する環境での自発的な長時間の活動を実現。
不倒性 ※プロトタイプバージョンの性質
振り子のように重力を利用した上体のデザインを採用することで、安定かつ省エネルギーな自己復元機構とコンプライアンス(柔らかい応答性)を持つ上半身を実現。人との身体的な接触(衝突)における衝撃を軽減するとともに、柔らかいフィジカルなインタラクションを実現。

Top