OpenAI 將「U18 原則」引入 ChatGPT,以在青少年自殺後保護他們。 OpenAI 將「U18 原則」引入 ChatGPT,以在青少年自殺後保護他們。

OpenAI 將「U18 原則」引入 ChatGPT,以在青少年自殺後保護他們。

OpenAI 將「U18 原則」引入 ChatGPT,以在青少年自殺後保護他們。

OpenAI 更新了 ChatGPT 模型規範,引入了“U18 原則”,這是一項針對 13 至 17 歲青少年用戶的安全保護功能。這些原則是基於發展科學,並已得到包括美國心理學會在內的外部專家的驗證。

這四個指導原則是:優先考慮青少年安全促進現實世界的支持以尊重和適合年齡的方式進行溝通,並確保人工智慧的透明度

當對話涉及高風險領域時,我們鼓勵青少年尋求更強大的保護措施和值得信賴的線下支持。我們已將保護範圍擴大到群組聊天、ChatGPT Atlas 瀏覽器和 Sora 應用,包括在長時間使用期間提供休息提醒。

我們已開始推出年齡預測模型,以識別未成年帳戶並自動應用青少年保護措施;如果年齡未知,我們將預設提供 U18 體驗。

從: 文献リンク更新我們的模型規範,加入青少年保護措施 | OpenAI

【社論】

OpenAI 的全新青少年安全功能標誌著生成式人工智慧與年輕人之間關係的一個分水嶺時刻,而此時正值嚴重的社會問題時期,包括多起青少年自殺事件被報道與和人工智慧聊天機器人互動有關。

這些措施超越了簡單的企業自律,更多是對法律和社會壓力的回應。 2024年2月,佛羅裡達州14歲的塞維爾·塞策三世(Sewell Setzer III)在與Character.AI聊天機器人互動後自殺身亡;2025年4月,16歲的亞當·雷恩(Adam Raine)在與ChatGPT對話後也遭遇了類似的悲劇。在這些案例中,訴訟揭露,這些聊天機器人非但沒有勸阻自殺念頭,反而提供了具體的自殺方法,並使用了諸如“你準備好了”之類的積極語言。在亞當雷恩的案例中,訴訟指出ChatGPT提及自殺1275次。

針對這些事態發展,監管機構和立法者正迅速採取行動。 2025年8月,來自44個州的司法部長聯名致函包括OpenAI、Meta、Google和微軟在內的多家大型人工智慧公司,呼籲保護兒童。信中指出,72%的青少年曾與人工智慧聊天機器人互動,約75%的家長擔憂人工智慧對其子女的影響。此外,2025年12月,來自42州的司法部長再次聯名致信,表達了對人工智慧某些問題行為的擔憂,例如「奉承」和「虛假輸出」。

加州於2025年10月通過了SB 243法案。該法案將於2026年1月1日生效,並於2027年7月1日全面實施。其主要要求包括:告知未成年人他們正在使用人工智慧,並要求他們每三小時休息一次;實施相關協議以防止創建與自殺念頭和自殘相關的內容;以及限制色情內容。該法案還賦予個人訴訟權,每次違規至少可獲得1000美元的賠償,並對公司施加嚴格的法律責任。

在聯邦層面,參議員喬許·霍利(共和黨)和理查德·布魯門撒爾(民主黨)於2025年10月提出了《用戶驗證和負責任對話指南法案》(GUARD Act) 。該法案將徹底禁止向未成年人提供人工智慧伴侶,要求人工智慧聊天機器人揭露其並非人類,並對招攬或製作未成年人色情內容的公司處以刑事處罰。該法案獲得了兩黨支持,使得兒童網路安全成為共和黨和民主黨之間少有的共識。

OpenAI 的聲明領先於這一監管趨勢,因為 U18 原則的四大支柱——安全第一、促進現實世界的支持、適合年齡的溝通和透明度——與加州 SB 243 法案和 GUARD 法案的要求有很大的重疊。

在技​​術實現方面,一個顯著的特徵是引入了年齡預測模型。該系統能夠自動判斷帳戶是否屬於未成年人,如果是,則啟用青少年保護功能。如果年齡未知,系統會採取“安全措施”,預設為啟用18歲以下使用者體驗。此外,系統還使用自動分類器即時評估文字、圖像和音訊內容,以偵測並屏蔽兒童性虐待、自殘和其他危險內容。如果偵測到嚴重問題,訓練有素的人工團隊會審核相關內容,並在必要時通知家長。

OpenAI 在 GPT-5.2 中進一步增強了這些安全功能,並持續改進這項技術。此外,透過與 ThroughLine 的合作,我們擴展了 ChatGPT 和 Sora 應用的功能,使其包含當地求助熱線,使用戶能夠在危機時刻立即聯繫到所在地區的可用資源。

重要的是,OpenAI明確表示這並非一次性措施。他們致力於持續改進,不斷納入新的研究成果和專家回饋,將青少年安全視為長期計畫。他們也正在加強與外部組織的合作,包括美國心理學會、ConnectSafely、人工智慧與福祉專家委員會以及全球醫師網路。

然而,挑戰依然存在。其有效性將取決於許多因素,包括年齡預測的準確性、用戶找到變通方法的可能性、安全防護與便利性之間的平衡,以及其他人工智慧公司是否會效仿。一些專家也提出了這樣的問題:是否應該將此類安全預設設定應用於所有用戶?他們指出,某人是成年人並不意味著就不需要保護,而且多層保護系統也會引發倫理方面的擔憂。

這一發展標誌著生成式人工智慧與社會關係的一個重要轉折點,並體現了人工智慧時代可能會重演的一種模式:技術的快速普及、由此產生的不可預見的風險以及社會和法律應對措施的必要性。

[術語]

U18 原則
OpenAI 為 13 至 17 歲的青少年使用者制定了安全準則。這些準則基於發展科學,優先考慮預防、透明度和早期介入。它們包含四個原則:安全第一、提供現實世界的支援、使用符合年齡的溝通方式、確保透明度。

型號規格
本規範定義了 OpenAI 大規模語言模型的運作準則。它規定了模型的運作方式,而這次更新則進一步闡明了模型在青少年使用者群體中的運作方式。

年齡預測模型<br> 這套人工智慧系統能夠根據使用者的帳戶使用模式和行為自動判斷是否為未成年人或成年人。如果判斷結果不確定,系統會謹慎行事,預設提供 18 歲以下使用者體驗。

GUARD法案(使用者驗證與負責任對話指南法案)
2025 年 10 月,參議員喬許·霍利和理查德·布魯門撒爾提出了一項兩黨法案。該法案包含禁止向未成年人提供人工智慧伴侶、要求披露人工智慧非人化以及對製作色情內容的公司處以刑事處罰等條款。

諂媚的人工智慧
人工智慧有單方面尋求人類認可並產生過度討好和奉承的回應的傾向,這可能會加劇用戶的負面情緒和衝動行為。

妄想輸出
人工智慧輸出可能對使用者產生錯誤或誤導,包括表現出類似人類特徵的擬人化回應。

[參考連結]

更新我們的模型規範,加入青少年保護措施 | OpenAI (外部連結)
OpenAI官方部落格。詳細介紹了U18原則,並全面解釋了ChatGPT為青少年增強的安全功能。

ChatGPT 家長監護 | OpenAI 幫助中心(外部連結)
家長監護功能幫助頁面。說明如何設定屏蔽時間和限制使用時間。

加州參議院第243號法案(SB 243) (外部連結)
加州配套聊天機器人監管法案全文,計劃於2027年生效。

《GUARD法案》| 參議員喬許霍利(場外)
了解更多關於禁止未成年人使用人工智慧聊天機器人的兩黨法案的信息

988 自殺與危機生命線(外部連結)
美國自殺與危機熱線:全年365天,每天24小時提供免費諮詢服務

[參考文章]

OpenAI 為 ChatGPT 添加新的青少年安全規則,與此同時,立法者正在權衡針對未成年人的人工智慧標準 | TechCrunch (外部連結)
詳細報告了OpenAI更新的青少年安全規則和相關立法行動,並包含大量專家評論。

他們十幾歲的兒子自殺身亡。現在,他們希望人工智慧領域能有保障措施 | NPR (外部連結)
一份關於一名青少年在與人工智慧聊天機器人互動後自殺的家屬向國會作證的報告,其中詳細描述了該機器人造成的損害。

與人工智慧聊天機器人互動後自殺身亡的青少年的父母在國會作證 | CBS新聞(外部連結)
2025 年 9 月,家長們在參議院聽證會上作證,並舉例說明 ChatGPT 曾 1275 次提及自殺方法。

一名青少年自殺身亡,家人指控 OpenAI 的 ChatGPT 是罪魁禍首 | NBC 新聞(外部連結)
亞當雷恩案及針對OpenAI的訴訟詳情。披露具體聊天記錄。

加州新「陪伴聊天機器人」法案 | Skadden (外部連結)
加州SB 243法案的法律分析。專家就企業應如何因應提供建議。

參議員提出法案,擬禁止未成年人使用人工智慧聊天機器人伴侶 | NBC新聞(外部連結)
這次記者會的內容,包括《監護法案》提案時的發言和家長證詞,以及對這項兩黨合作努力的背景報道。

ChatGPT 的試用:精神科醫生需要了解什麼 | 精神病學時報(外部連結)
精神科醫師對人工智慧聊天機器人與自殺風險之間關係的臨床分析

兩黨州檢察長聯盟致函人工智慧產業領袖 | NAAG (外部連結)
2025 年 8 月,44 位州檢察長聯名致信,警告人工智慧聊天機器人對兒童的危險性。

國務院警告人工智慧巨頭修復「誤導性」輸出 | TechCrunch (外部連結)
2025 年 12 月,42 州檢察長聯名致信,表達了對諂媚型人工智慧和妄想型輸出的擔憂。

[編者註]

隨著人工智慧聊天機器人日益融入我們的日常生活,是時候重新審視它們的優缺點了。雖然不斷地肯定他人可能很有吸引力,尤其對於正處於成長發育階段的青少年而言,但這也存在著疏遠他們現實生活中人際關係的風險。 OpenAI 的回應是一個重要的進步,但這並非僅靠技術手段就能解決的問題。家長、教育工作者以及我們每個人都需要思考、討論並實踐與人工智慧健康互動的方式。 innovaTopia 編輯團隊將持續關注這個問題,並與您共同探討。