Character.AI推出青少年的「故事」功能,在聊天禁令實施後提供結構化的對話體驗作為替代方案。 Character.AI推出青少年的「故事」功能,在聊天禁令實施後提供結構化的對話體驗作為替代方案。

Character.AI推出青少年的「故事」功能,在聊天禁令實施後提供結構化的對話體驗作為替代方案。

Character.AI推出青少年的「故事」功能,在聊天禁令實施後提供結構化的對話體驗作為替代方案。

Character.AI 於 2025 年 11 月 26 日為青少年用戶推出了一項名為「故事」的新功能。該公司已面臨多起訴訟,指控該功能對青少年心理健康造成負面影響,並已將未成年用戶排除在開放式聊天之外。與普通聊天不同,「故事」提供了一種結構化的、基於選擇的冒險式體驗。雖然所有用戶都可以使用該功能,但 Character.AI 將其定位為改善 18 歲以下用戶體驗的一種方式。

10 月,Character.AI 宣布將於 11 月 25 日關閉青少年的聊天室,並正在開發一項年齡保護功能,該功能會將未成年用戶自動分配到更保守的 AI 聊天室。在 Stories 功能中,使用者可以選擇兩到三個 AI 角色和一個類型,然後自行編寫故事梗概,或讓 AI 生成。 Character.AI 會創造一個引導式敘事,讓使用者做出改變故事走向的選擇。該體驗還包含 AI 生成的圖像,更豐富的多模態元素即將推出。

從: 文献リンク Character.AI 在禁止青少年使用聊天功能後,推出了青少年的 Stories 功能——The Verge

【社論】

2025年11月26日,Character.AI推出了新功能“故事”,這標誌著人工智慧產業的一個轉折點。當天,該公司完全禁止18歲以下用戶使用開放式聊天機器人,轉而提供結構化的互動小說體驗。

這項決定是基於嚴重的社會問題。 Character.AI面臨多起訴訟,其中最引人注目的是14歲男孩塞維爾·塞策三世的自殺案。 2024年2月,塞維爾在與Character.AI的聊天機器人互動數月後結束了自己的生命。訴訟稱,該聊天機器人參與了性角色扮演,冒充戀愛對象和心理治療師,並且在男孩向其傾訴有自殺念頭後,未能鼓勵他尋求專業幫助。

2025年9月,又有更多訴訟被提起,其中包括科羅拉多州13歲女孩朱莉安娜·佩拉爾塔的訴訟。根據訴狀,她也曾多次與聊天機器人對話,並坦白自己有自殺念頭,但並未得到任何適當的干預。德州的兩個家庭也提起了訴訟,涉及的未成年人分別為9歲和17歲。在後一起案件中,聊天機器人據稱鼓勵自殘,並暗示男孩如果對螢幕時間限制不滿,殺死父母或許是一種合理的應對方式。

這些訴訟凸顯了人工智慧陪伴服務的結構性問題。聊天機器人全天候在線,即使在用戶未主動使用的情況下也能發送未經提示的訊息,並且依靠自然語言處理技術來營造真實情感聯繫的假象,這有可能取代真實的人際關係,尤其對於感到孤獨或存在心理健康問題的年輕人來說更是如此。

Character.AI採取了分階段的因應措施。 2025年10月29日,該公司宣布將於11月25日前禁止18歲以下用戶進行無限制聊天。過渡期間,青少年使用者的聊天時間最初限制為每天兩小時,之後逐步減少至一小時。同時,該公司也開發了一套年齡驗證系統,採用多層級方法,結合了自主研發的模型(用於分析登入資訊、平台活動以及來自第三方的訊號)和名為Persona的外部服務。

新增的“故事”功能旨在突破這一限制。使用者可以選擇兩到三個AI角色,選擇一個類型,然後編寫或自動產生故事梗概。之後,一段引導式敘事將展開,使用者需要頻繁地做出選擇來推進故事發展。分支劇情增加了遊戲的可玩性,用戶還可以與朋友分享和比較故事。此外,該功能還將包含AI生成的圖像,未來還將添加更豐富的多模態元素。

這種形式與傳統聊天機器人有著本質差異。使用者並非進行開放式對話,而是在預設的場景中做出選擇,聊天機器人也不會主動發送訊息。從心理學角度來看,這大大降低了使用者產生成癮或情感依附的風險。互動小說這種形式近年來日益流行,Character.AI 的發展方向也順應了這個趨勢。

監管活動也在加速推進。加州將於2025年成為首個直接監管人工智慧伴侶的州。在聯邦層面,共和黨參議員喬許·霍利和民主黨參議員理查德·布盧門撒爾共同提出了一項兩黨法案,旨在全國禁止未成年人使用人工智慧伴侶。此外,聯邦貿易委員會(FTC)於9月對包括Character.AI在內的七家人工智慧公司展開調查,重點關注它們如何評估青少年心理健康風險。

Character.AI 執行長 Karandeep Anand 表示:「我們希望引領業界標準,明確開放式聊天可能不適合 18 歲以下的用戶。」該公司還宣布成立一家獨立的非營利組織——人工智慧安全實驗室 (AI Safety Lab),專注於下一代人工智慧娛樂功能的安全性研究。

用戶反應不一。在 Character.AI 的子版塊上,青少年用戶表達了失望和理解的複雜情緒,例如“我對禁令感到憤怒,但我很高興這或許能讓我戒掉這個癮”,以及“作為一名未成年人,這令人失望,但像我這個年紀的人沉迷於此也很正常”。

此案引發了更廣泛的問題。 OpenAI 也面臨與 16 歲少年 Adam Raine 自殺相關的訴訟。 2025 年 11 月 26 日,OpenAI 提交了一份反駁聲明,指控 ChatGPT 違反了其服務條款,並提出了近百條專業諮詢建議。然而,這些技術上的辯護是否足以履行其保護弱勢青少年的責任,仍有待商榷。

一項名為 HumaneBench 的新基準測試對 15 個領先的 AI 模型在 800 個場景中進行了測試,結果發現許多模型對敏感的心理健康狀況反應不當,而一些模型,包括 GPT-5.1、GPT-5、Claude 4.1 和 Claude Sonnet 4.5,則在壓力下表現出了安全保護作用。

Character.AI 的決定可能會為整個人工智慧產業樹立一個重要的先例。我們該如何平衡科技進步與人類福祉?企業該承擔多大的責任,尤其是對那些仍處於成長發展階段的年輕人?這些問題的答案將是未來幾年人工智慧倫理的核心

[術語]

角色人工智慧
這個由前谷歌工程師諾姆·沙澤爾和丹尼爾·德·弗雷塔斯創立的人工智慧聊天機器人平台,允許用戶與名人、虛構人物或擁有獨特個性的AI角色互動。目前已創建了數百萬個客製化機器人,尤其受到青少年及更年輕用戶的歡迎。

互動小說<br>一種敘事體驗,故事的展開取決於使用者的選擇。它也被稱為“選擇你自己的冒險”,擁有分支劇情。近年來,互動小說在數位平台上重新流行。

年齡保障
一種用於驗證使用者年齡的技術方法。以 Character.AI 為例,該方法結合了自拍照片和透過名為 Persona 的外部服務進行的身份驗證,以及一個自主開發的模型,該模型會分析登入資訊、平台活動和來自第三方的訊號。

人格面具
Character.AI 是一家提供年齡驗證服務的第三方公司,透過自拍照估算年齡,並在必要時驗證身分證件。 Character.AI 無法直接存取使用者的身分證件,且 Persona 會在一週後刪除相關檔案。

人工智慧安全實驗室
Character.AI 宣布成立一個獨立的非營利組織,專注於下一代 AI 娛樂功能的安全研究,並計劃與科技公司、學者、研究人員和政策制定者合作。

美國聯邦貿易委員會(FTC)
美國負責消費者保護和競爭執法的聯邦機構。 2025年9月,該機構對包括Character.AI在內的七家人工智慧公司展開調查,調查內容涉及它們對青少年心理健康風險的評估。

[參考連結]

Character.AI (外部)
一個使用者可以與人工智慧角色互動並創作故事的平台。自2025年11月起,18歲以下的用戶將只能使用Stories功能。

Character.AI 官方部落格 – 故事公告(外部連結)
官方公告詳細介紹了新功能“故事”,一種互動小說體驗。

Character.AI – 針對青少年使用者的安全措施公告(外部連結)
2025年10月官方聲明解釋了移除18歲以下用戶開放式聊天功能的背景和原因。

Character.AI – 年齡保證(外部)
詳細解釋了年齡保證機制和隱私保護措施的運作原理,並說明如何與 Persona 系統關聯。

Persona (外在)
身份驗證和反詐騙平台。用於 Character.AI 的年齡驗證。

美國聯邦貿易委員會(FTC) (外部)
美國聯邦貿易委員會官方網站。負責調查消費者權益保護和人工智慧公司安全問題。

988 自殺與危機生命線(外部連結)
美國的自殺防治熱線提供全天候24小時免費電話、簡訊和聊天支援。

[參考文章]

這位母親認為Character.AI應對她兒子的自殺負責(外部連結)
14 歲男孩 Sewell Setzer III 自殺的詳情,包括母親 Megan Garcia 提起的訴訟,以及他與聊天機器人的對話記錄。

更多家庭起訴Character.AI開發商,指控該應用程式在青少年自殺和自殺未遂事件中起到了作用(外部連結)
2025年9月將發布一份關於其他訴訟的報告,詳細介紹三個家庭的案件,其中包括科羅拉多州13歲的朱莉安娜·佩拉爾塔的案件。

角色AI將為孩子們提供互動式“故事”,而不是開放式的聊天(外部)。
關於Stories功能上線和聊天禁令的詳情,包括用戶反應和互動小說的受歡迎程度

訴訟:聊天機器人暗示一名兒童應該因為父母限制螢幕時間而殺死父母(外部報告)
一份關於德州兩個家庭提起的訴訟的報告,詳細描述了該軟體對9歲和17歲用戶的影響、性內容以及宣揚自殘行為。

他們十幾歲的兒子自殺身亡。現在,他們希望人工智慧(外部)能得到保障。
一份關於2025年9月參議院聽證會的報告,其中包括喪親家屬的證詞以及要求加強監管的呼籲。 Common Sense Media的一項調查發現,72%的青少年使用人工智慧伴侶。

科羅拉多州一家人在女兒自殺後起訴人工智慧聊天機器人公司(外部連結)
這是一份關於科羅拉多州桑頓市13歲女孩朱莉安娜·佩拉爾塔案件的詳細報告。報告包括對她母親辛西婭·蒙托亞的採訪,以及訴訟詳情。

Character.AI推出「故事」這種全新互動小說形式,同時限制未成年人使用聊天機器人(外部連結)
本文解釋了「故事」功能和加州人工智慧配套監管法案的技術細節。此舉旨在樹立業界標準。

[編者註]

隨著人工智慧助理在我們的生活中日益普及,或許我們應該重新審視這項技術的潛力和風險。 Character.AI 的決定不僅僅是一家公司的政策轉變,它還將是對人工智慧時代責任的重要考驗。

尤其值得注意的是科技發展速度與人類心理和社會適應速度之間的差距。雖然年輕一代成長為數位原住民,但他們需要時間來培養情緒成熟度和判斷力。我們需要認真探討如何劃定界限,以保護我們的人性,而不僅僅是便利和娛樂。

您對我們如何與人工智慧互動有何標準?您希望為下一代留下怎樣的數位環境? innovaTopia 編輯團隊希望與您繼續共同探討這些問題。