
2025 年 12 月 16 日,《麻省理工科技評論》發表了一系列名為「炒作糾正」的專題文章,討論了重新調整對人工智慧的期望的必要性。
過去幾年,人工智慧承諾解決氣候變遷問題,實現人類層面的智能,並將我們從工作中解放出來,但我們實際得到的卻是低品質的內容生成和聊天機器人工具。
雜誌的編輯威爾·道格拉斯·海文提出疑問:當最初的驚嘆感消退之後,還剩下什麼?巨大的經濟和環境成本是否值得?
專題報導涵蓋了圍繞 Sam Altman 的炒作、人工智慧泡沫的現實、即使 ChatGPT 通過了律師資格考試也無法取代律師的原因、人工智慧編碼的局限性以及關於人工智慧安全性的爭論等話題。
該雜誌指出,人工智慧在 ChatGPT 出現之前就已經存在,未來也將繼續存在,真正的殺手級應用可能尚未出現,因此目前的情況標誌著後炒作階段的開始。
從:
為什麼現在是時候重新調整我們對人工智慧的預期了
【社論】
隨著2025年接近尾聲,人工智慧產業正面臨預期大幅調整的現實。 《麻省理工科技評論》於12月16日發表的「炒作修正」專題文章,旨在鼓勵人們冷靜反思過去兩三年來人工智慧領域的狂熱發展。
或許最具象徵意義的言論出自OpenAI執行長薩姆·奧特曼本人之口,他在2025年8月表示:「投資者整體上是否對人工智慧過於興奮?我的看法是肯定的。」這位堪稱人工智慧革命領軍人物的人物,竟然承認存在泡沫。他以網路泡沫為例,警告說:“聰明人對一些真話過於激動。有人將會損失慘重。我們不知道是誰。”
這項論點是基於多項研究的結果。麻省理工學院研究人員在2025年7月發表的一項研究顯示,令人震驚的是,95%採用人工智慧的公司並未從中獲得任何價值。此外,自由工作者平台Upwork在11月進行的一項研究也表明,即使配備了來自OpenAI、GoogleDeepMind和Anthropic等公司頂尖的大規模語言模型,智能體也無法自主完成許多簡單的辦公室任務。
值得注意的是,這並不代表我們否定人工智慧技術本身的價值。正如《麻省理工科技評論》所指出的,問題在於人們對大規模語言模式(LLM)抱持過高的期望。 LLM一直被譽為通往通用人工智慧(AGI)的門戶,但即使是OpenAI的前首席科學家伊利亞·薩托斯克維爾(Ilya Satoskever)現在也承認它們的局限性。
「ChatGPT通過了律師資格考試,所以它將取代律師」——許多此類過於簡單的預測並未成為現實。同樣,雖然像GitHub Copilot這樣的產品在某些任務上提高了開發人員的效率,但在人工智慧編碼工具領域,架構決策和複雜問題解決仍然是人類的領域。史丹佛大學的一項研究也發現,隨著人工智慧編碼工具的廣泛應用,2022年至2025年間,22至25歲軟體開發人員的就業率下降了約20% 。
然而,《麻省理工科技評論》強調,這種「炒作修正」並不意味著這項技術的終點。相反,我們現在正處於「後炒作時期」的開端,這是一個將預期調整到更現實水平的機會。人工智慧在ChatGPT出現之前就已經存在,並且在未來也將繼續存在。真正的殺手級應用很可能尚未出現,而大量的資金正押注於此。
OpenAI在2025年3月以3,000億美元的估值融資400億美元,並準備在12月進行更多融資。奧特曼預測將出現“數萬億美元的數據中心建設”,儘管他意識到泡沫的存在,但仍致力於繼續投資。
這項特性表明,現在是時候對人工智慧技術的潛力進行冷靜評估了。解決氣候變遷、達到人類智慧水平以及徹底解放我們勞動的宏偉承諾尚未實現,至少在短期內是如此。相反,我們擁有的只是一套適用於特定任務的工具。
展望未來,人工智慧的定義很可能不再是“無所不能的魔法盒子”,而是一種如果運用得當就能創造價值的技術。在經歷了過高的期望和失望的循環之後,我們或許終於開始學習如何與人工智慧進行實際有效的互動。
[術語]
炒作糾正
這是一個新造的術語,指的是糾正過高的期望或炒作。它是《麻省理工科技評論》於2025年12月推出的專題系列的名稱,其理念是鼓勵對人工智慧技術進行務實的評估並重新調整預期。
大型語言模型(LLM)
像 ChatGPT 和 Gemini 這樣的基於海量文字資料訓練的深度學習模型,是能夠執行文字生成、翻譯和摘要等任務的模型範例,但它們並非通用人工智慧 (AGI),並且存在一定的限制。
通用人工智慧(AGI)
一種假想的人工智慧技術,能夠執行人類可以執行的任何認知任務。雖然有人認為目前的LLM是通往AGI的門戶,但許多專家開始意識到它的限制。
網路泡沫
90年代末期和本世紀初網路相關公司的投機泡沫導致那斯達克指數在2000年至2002年間下跌了約80%,造成許多公司破產。薩姆·奧特曼將目前的AI投資比作這種情況。
伊利亞·蘇茨克維爾
曾任OpenAI首席科學家兼共同創辦人,現任人工智慧新創公司Safe Superintelligence首席科學家兼共同創辦人。他曾為LLM技術的發展做出重大貢獻,但現在指出了該技術的局限性。
[參考連結]
麻省理工科技評論(外部)
一家世界知名的獨立媒體公司,於 1899 年在麻省理工學院成立,致力於分析科技的商業、社會和政治影響。
炒作糾正專題頁面(外部連結)
《麻省理工科技評論》的「人工智慧預期修正」系列文章對 2025 年人工智慧產業的現實情況進行了多方面的分析。
OpenAI (外部)
一家總部位於舊金山的人工智慧研發公司。該公司開發了 ChatGPT 和 GPT 系列產品,是人工智慧產業的領導者。
GitHub Copilot (外部)
由 GitHub 和 OpenAI 開發的 AI 編碼助手,提供程式碼補全和生成功能,幫助開發者提高工作效率。
[參考文章]
2025年人工智慧炒作大修正(外部連結)
《麻省理工科技評論》對2025年人工智慧炒作修正的全面分析
人工智慧泡沫究竟是什麼? (外部連結)
本文詳細分析了薩姆·奧特曼關於人工智慧產業泡沫的言論和投資趨勢。
人工智慧程式設計如今無所不在。但並非所有人都對此深信不疑(外在觀點)。
本文探討了人工智慧編碼工具的現實情況和局限性,以及它們對開發人員就業的影響。
OpenAI 的 Sam Altman 認為,隨著產業支出激增,人工智慧泡沫正在形成(外部報告)。
CNBC 的文章報導了 Sam Altman 關於泡沫的言論以及 OpenAI 的融資情況。
生成式人工智慧的炒作分散了我們對人工智慧更重要突破的注意力(外部)
Hugging Face 的 Margaret Mitchell 博士對生成式人工智慧和預測式人工智慧進行了比較研究。
[編者註]
人工智慧的期望與現實之間的差距是整個科技產業面臨的挑戰,而我們 innovaTopia 正在密切關注這項「炒作修正」。
與其讓過高的期望最終導致失望,或許我們可以將這段時期視為人工智慧技術以更現實、更永續的方式融入社會的調整期。真正有價值的人工智慧應用應該以其解決實際問題的能力來評判,而不是以炒作來衡量。
您在日常生活和工作中如何使用人工智慧工具?您是否獲得了預期的結果,或者有時是否覺得它們有其限制?在這個轉型時期,我相信每位使用者冷靜的視角都將有助於人工智慧技術的健康發展。