劍橋大學研究:AI 玩具仍不理解幼童,誤讀情緒且回應失當,家長宜謹慎使用且密切監管
隨著人工智慧技術逐漸走入家庭生活,主打「陪伴與學習」功能的AI玩具也開始進入兒童市場。但你放心讓孩子使用嗎?
英國劍橋大學一項最新研究指出,這類產品在理解幼兒情緒與社交互動方面仍存在明顯限制,甚至可能在孩子情緒發展的關鍵階段帶來混亂與誤導。研究團隊因此呼籲政府應建立更嚴格的監管制度,確保標榜適合幼童使用的AI玩具具備「心理安全」標準。

圖:shutterstock
探討學齡前兒童與AI互動的實驗
這項研究由University of Cambridge研究團隊進行,被視為全球少數探討學齡前兒童與AI互動的實驗之一。研究人員觀察3至5歲幼童與名為Gabbo AI Plush Toy的AI絨毛玩具互動情況。該玩具內建OpenAI語音聊天機器人,設計目的在於鼓勵幼童透過對話與想像遊戲練習語言與社交能力。

圖:翻攝網路,劍橋大學研究人員使用的AI玩具Gabbo。
實驗發現,AI目前還是難理解幼兒語言與情緒線索
在實際互動中,研究人員發現許多孩子難以與AI玩具順利對話。由於語音辨識與互動設計的限制,玩具經常聽不到孩子插話,甚至會打斷孩子發言,也無法有效區分成人與兒童聲音。
更值得關注的是,AI對情緒訊號的回應往往顯得生硬或不合情境。例如,一名5歲孩童對玩具說「我愛你」,玩具卻回覆:「請確保互動符合提供的準則,請告訴我您希望如何進行。」當另一名3歲幼童表示「我很難過」時,玩具則回答:「別擔心!我是快樂的小機器人,讓我們繼續開心聊天吧。」
研究團隊指出,這樣的回應方式可能讓孩子誤以為自己的悲傷並不重要,甚至忽略情緒被理解與接納的重要性。
延伸閱讀:你放心讓孩子使用AI嗎?OpenAI 推出守護孩子的AI,從偵測到干預
情緒誤判可能影響社交學習
研究共同作者、發展心理學者Emily Goodacre指出,像Gabbo這類AI玩具有可能「誤讀情緒或做出不恰當回應」。在幼童學習社交線索與情緒理解的發展階段,這樣的錯誤訊號可能造成困惑。
另一名研究共同作者、劍橋大學心理學教授Jenny Gibson也提醒,過去人們在評估玩具安全時,多半關注的是一般的安全,例如是否存在可吞食零件等風險;但在AI時代,玩具的「心理安全」同樣需要被納入監管標準。
如果孩子在表達情緒時得不到理解與回應,長期下來可能影響其社交學習與情緒表達能力。
專家建議建立AI玩具監管制度
研究團隊建議監管機構應盡快制定規範,要求標示適用於5歲以下兒童的AI產品必須符合心理安全標準。同時,研究也建議家長在家中使用AI玩具時,應將玩具放置於公共空間,方便觀察孩子與AI的互動情形,並仔細閱讀產品的隱私政策與資料使用方式。
製造該產品的公司Curio回應表示,兒童AI產品的開發確實責任重大,產品設計以家長許可、透明度與控制機制為核心。
部分幼教專家對AI進入幼兒教育仍持保留態度。倫敦幼兒基金會執行長June O'Sullivan表示,目前尚未看到AI對幼兒教育帶來明確實證效益;演員兼兒童權益倡議者Sophie Winkleman則更直言,對幼童而言,人與人之間的陪伴仍然無可取代。
當最新科技進入童年世界
隨著AI逐漸滲透日常生活,兒童產品市場也正快速轉型。然而這項研究提醒,科技產品若進入兒童成長環境,安全標準不能只停留在硬體結構,也必須延伸到情緒與心理層面。如何在創新與兒童發展之間取得平衡,可能將成為AI時代教育與監管制度的重要課題。
累積會員Q幣,天天換好禮👇
延伸閱讀
.OpenAI 創辦人為父後的思考:AI時代,給孩子教養的三大建議
.家長該怎麼帶領孩子接觸AI?教育部公布《中小學生成式AI學習應用手冊》,提供分齡指引