日常の場面で見ているところは?

 ChatGPTなど生成AI(人工知能)が発展する中、バーチャルを用いた環境で子育てを試みることなど、新しい関わり方が多くみられるようになってきています。

しかし、最近の研究では直接、大人とのやりとりすることが発達には重要であるといった報告が散見されます。

 では、実際の関わりの中で「子どもは大人の動きのどこを見て、行動を理解しているのか?」
これまでは、この問いに答えるため、多くの研究は写真や動画を見せて視線を分析してきました。

 今回は、写真や動画のような設定された刺激ではなく、自然な大人との関わりの中で子どもは、何処を見ているのかを調べた研究を紹介したいと思います。 https://pmc.ncbi.nlm.nih.gov/articles/PMC7262731/

 この研究の手続きは、幼児が家族や大人と積み木遊び、ブロック、絵本、共同作業など、日常的な活動を普段どおりに行います。その際、自由に遊んでいるときに、子どもの頭部に軽量のヘッドマウント式アイトラッカーを装着し、そのアイトラッカーで、どこを注視しているか(凝視点)・視線がどの方向に移動したか(サッケード)・視野の中にどんな物や人が映っているか(第一人称視点映像)をリアルタイムで記録しています。

図1 アイトラッカーの装着の様子

研究者は、その記録した映像をフレーム単位で解析し、視線が 「顔」「手」「対象物」「周囲の環境」 のどこに向けられているかを分類しました。

設定は、テーブルを挟んでおもちゃで遊ぶ床の上でおもちゃで遊ぶ絵本で遊ぶの3つの場面でした。

図2 設定 テーブルを挟んでおもちゃで遊ぶ    床の上でおもちゃで遊ぶ         絵本で遊ぶ

「結果」 多くの大人は「子どもはまず顔を見る」と考えがちですが、研究の結果は少し違っていました。

① 遊びや作業の場面では、手と対象物の方を長く見ていた

対象物に手を伸ばす前や物を操作する直前、移動方向を変える前に視線が動くようで「顔を見る時間」は、動きの少ない会話場面のときに増える。

つまり、子どもは“大人が何をしているか”を理解するとき、相手の顔ではなく動作の中心(手の動き・対象物)を優先的かつ予測的に見るという視線戦略を使っていることが明らかになりました。


②視線の切り替えが非常に速い

アイトラッカーによる分析では、子どもは1秒以内に複数の場所へ視線を動かすことが多く、「手 → 物 → 顔 → 手」
といった形で、目的に応じて視線を素早く切り替えていました。

このことは、子どもが世界を単なる瞬間の連続ではなく、一連のストーリーとして理解しながら見ていることを示しています。


③状況に応じて注視点の優先順位が変わる

さらに興味深いのは、子どもの視線は場面に応じて柔軟に“見る場所”を変えていたことです。

共同作業(積み木、制作など) → 手元や対象物を見る割合が増える

会話中心の場面 → 大人の顔を見る割合が増える

以上より、子どもは状況判断に合わせて、注意の焦点を自主的に調整していることがわかります。

 今回の論文から推測する関わり方のポイントを上記の赤で示した文から考えますと、対象物の理解においても操作を観察することが重要だという点、また瞬間ではなく一連のストーリーとして理解するという観点から普段、療育などで使われている絵カードから、対象物を理解するのは難しいことが推測されます。

 私たちが療育の中で用いる名詞の絵カードは、子どもたちが対象物(名詞)の一連の操作と時間の経過から理解した上のものであると意識して使うことが重要で、絵カードを用いて理解してもらうだけでなく実際の操作を提案する必要があると思います。

前回のブログで書いた手でどれだけ物を探索したか」が語彙の発達に影響するとも関係があるなと感じました。