2003年10月納入 |
オメガスペースと多様なデバイスを組み合わせ、手話によるコミュニケーションの 認知構造を多角的に検証・研究するためのシステムを構築しています。 |
位置角度センサー付きのサイバーグローブ2個と頭部の位置角度センサーにより、 手話の動きをリアルタイムにCG化しています。 また、両目まぶたに4個の筋電センサーを配することでまばたきをCGに反映させることができます。 さらに、鼻孔の温度変化や胸郭の伸びを測定し、呼吸の計測をして います。(同システムが2基、導入されています。) |
キャラクターとの会話も可能です。リアルタイムはもちろん時間の変化(リズム・タイミング)・情報の遮断(動きの制限)など、加工したデータと会話することで、手話が言語として認知される過程に関する研究を行っています。 声に個性があるように、手話においても親しい間柄であれば、CG化された手話を見て個人の特定ができるそうです。 リズムやタイミング、各分の動作における微妙差異を、データから読み取ることでその認知構造を解明しようとしています。 |
制御用PC(右側モニター)では、更新レートの違う各センサーの 信号を、タイムコードを利用して一元管理することが可能となって おり、手話の認知構造を詳細に検証する上での、貴重なデータと なっています。 |
|