2019年04月25日
  コラム

ロボットで探る心理学 第2回 子どもの「まなざし」から学ぶ

東北大学 大学院 教育学研究科 教授 小嶋 秀樹

 

こんにちは。小嶋秀樹です。子どもの「心とコミュニケーションの発達」をロボットで再現するという研究をしています。

 

前回は,わたしたちの「まなざし」が心の窓になっていることを,ロボットとの「アイコンタクト」実験をとおしてご紹介しました。誰でもロボットに見つめられると,そのロボットに「心」や「意識」があると感じてしまうのです。

 

今回は,より複雑な「まなざし」のやりとりを取り上げます。まずは,こちらの動画をご覧ください。子ども型ロボット「インファノイド」との「まなざし」のやりとりの様子です。

<動画:「まなざし」のやりとり>

 

インファノイドは,人の顔を見つけると,その顔に視線を向けます。これが「アイコンタクト」でしたね。こうすることで,インファノイドは顔のアップを撮影することができます。

 

続いて,この顔画像から,人の注意の方向を読み取ります。ほんとうは視線(瞳)の方向を読み取りたかったのですが,カメラ画像だけでは安定して計測できなかったため,ここでは顔の方向をコンピュータで読み取り,それを「注意の方向」としました。

 

注意の方向が読み取れたら,人の顔からその方向に沿った直線が出ていると想定して,その直線上にある対象物を探していきます。目立つ色をもつ物体や,動きのある物体などを見つけると,それを「注意の対象物」として凝視します。

 

<写真:共同注意の成立>

この状態(写真),つまり二人(人でもロボットでもよい)が同じ対象物に視線を向けることを,心理学では「共同注視」と呼んでいます。より一般的には,複数の主体(人など)が,同じ対象(物や出来事など)に注意や意識を向けることを意味し,こうして結びつけられた注意を「共同注意」と呼んでいます。

 

この「共同注意」は,ことばの発達に不可欠です。

 

先ほどの動画では,「まなざし」のやりとりと並行して,声や表情のやりとりも行われていました。インファノイドは,人と一緒に対象物(ぬいぐるみ)に視線を向けます。このとき,対象物から得られる知覚情報(色・形状など)は,二人のあいだで共有されます。共同注意をとおして,ことばを全く使わずに,たくさんの情報を共有できるのです。

 

この共有された情報に上乗せするかたちで,人はことばを発しています。「ウサギさん」とか「かわいいね」のようにです。インファノイドも,共同注意を維持しながら,人の発した声をオウム返しのように模倣しています。このような行為(注視と発声など)のループの中に,人がもっている知識(ことば+文化)が導入されていき,それを少しずつインファノイドが学習していくのです。(図)

 

<図:共同注意を介したことばや文化の学習>

 

上の説明で,「人」を「養育者」とし,「インファノイド」を「子ども」と読み替えてみてください。人間の子どもも,親をはじめとする養育者との視線のやりとり,声のやりとりをとおして,ことばを学んでいきます。もちろん,ことばだけではありません。表情や身体動作をとおして,対象物への価値づけや具体的な行為といった文化全般を学んでいくことにもつながります。

 

このように,「まなざし」のやりとりは,子どものことばの発達,より一般的にはコミュニケーション能力の発達に大きな役割を果たしているようです。小さな子どもと接するときには,声のわかりやすさだけでなく,「まなざし」をわかりやすく伝えることにも心がけてみたいと思いました。

 

 

【プロフィール】

小嶋 秀樹 (こじま ひでき)

東北大学 大学院 教育学研究科 教授

専門は認知科学。ロボット工学と心理学の両面から子どものコミュニケーション発達を研究しています。自閉症療育やそのためのロボットの活用にも興味をもっています。

関連記事

新着記事