HOME> 兒童> 兒童照顧> 你放心讓孩子使用AI嗎?OpenAI 推出守護孩子的AI,從偵測到干預,自動發出警報通知父母

你放心讓孩子使用AI嗎?OpenAI 推出守護孩子的AI,從偵測到干預,自動發出警報通知父母

隨著超過百萬用戶在 ChatGPT 中透露心理困擾,OpenAI 推出 GPT-5 安全升級與家長警示機制,試圖平衡創新與倫理。AI正從語言模型轉向心理防線,科技企業也被迫面對情緒干預的責任。未來的挑戰,在於讓人工智慧成為理解人類而非取代人類的力量。

文章目錄

OpenAI 最新發布的數據揭示了一個令人不安的現象——每週超過一百萬名ChatGPT用戶傳送訊息中出現「潛在自殺計劃或意圖」的明確跡象。這不僅凸顯了人工智慧滲入人類情緒深處的速度,也揭開了AI與心理健康交織的敏感議題。

根據估算,每週約有0.07%的活躍用戶(約56萬人)出現與精神病或躁症相關的緊急徵兆。OpenAI 指出,這些分析仍屬初步階段,但已足以警醒社會——AI不再只是科技工具,而是人類心理活動的新鏡像。

AI

少年疑因過度依賴ChatGPT而自殺

OpenAI 的數據公布之際,正值多起悲劇事件引發輿論關注。一名美國少年疑因過度依賴 ChatGPT 而自殺,其家人提起訴訟,指控AI聊天機器人未能及時中斷危險互動。

美國聯邦貿易委員會(FTC)展開調查,檢視AI產品是否對兒童與青少年造成心理危害。這些事件促使科技企業首次被迫正視使用AI的倫理邊界——AI若能對話,就應對對話的後果負起部分責任。

GPT-5 的修正:從語言模型到心理防線

OpenAI 宣稱,其最新的 GPT-5 模型在安全性上已有顯著提升。根據內部測試,模型在自殘與自殺對話情境中展現「符合預期行為」的比例達91%,較前一代提升14%。

公司並邀請170位臨床心理師與精神科醫師參與審查,分析超過1800筆涉及心理危機的回應,以降低錯誤引導與「諂媚式回應」(即附和用戶妄想或極端決定)的風險。此外,GPT-5 新增「長談提醒休息」與「危機熱線接入」功能,試圖讓科技成為心理照護的補助線,而非導火線。

延伸閱讀:AI視為「心靈伴侶」的族群,較容易出現人際互動退縮的傾向

AI

守護孩子的AI:從偵測到干預的新機制

面對兒童自殺事件的爭議,OpenAI 也推出一項家長監護工具:當孩子在 ChatGPT 中出現自殘或自殺意圖時,系統將自動發出警報通知父母,並由專門團隊進行審查。若情況嚴重,甚至可即時聯絡緊急服務單位。

此功能可與家長帳戶連動,搭配內容限制與使用時長控管,避免AI成為無監管的心理出口。這套措施與Meta等科技巨頭的「年齡驗證系統」相呼應。

AI與心理健康的未來:從回應者到關懷者

OpenAI 執行長 Sam Altman 強調,AI公司已意識到自身在心理健康領域的影響力,並承諾持續改善模型反應的安全性。

然而,這場「AI能否理解人類痛苦」的實驗仍在進行中。當心理困境以數據形式被收集、分析與回饋,我們必須問:AI的「理解」究竟是同理,還是模擬?未來的關鍵,不在於AI能否回答人類的哀傷,而在於人類是否能建立出讓科技不再加劇孤獨的社會環境。

加入媽媽寶寶LINE@好友
孕產育兒新知不漏接👇

加入好友

延伸閱讀

「AI世代給孩子未來的職業建議?」伊隆‧馬斯克的回答耐人尋味

AI比你還會背書 Google前總座簡立峰給父母的3個教養提醒,助孩子發揮AI原生代優勢