PARAs AI:新增功能,可偵測大眾媒體和社群媒體中的假資訊-人工智慧與人工資訊驗證相結合。 PARAs AI:新增功能,可偵測大眾媒體和社群媒體中的假資訊-人工智慧與人工資訊驗證相結合。

PARAs AI:新增功能,可偵測大眾媒體和社群媒體中的假資訊-人工智慧與人工資訊驗證相結合。

PARAs AI:新增功能,可偵測大眾媒體和社群媒體中的假資訊-人工智慧與人工資訊驗證相結合。

Accel Brain Inc.宣布,其人工智慧分析平台「PARAS AI」新增了一項功能,可以偵測人類產生的虛假資訊。此新增功能使PARAS AI發展成為一個綜合平台,能夠運用相同的科學標準,驗證生成式人工智慧以及人類生成的內容(例如大眾媒體新聞文章、社群媒體貼文和網紅言論)的可靠性。

這項更新是在許多技術挑戰的背景下實現的,例如「天下沒有免費的午餐」定理、幻覺問題、缺乏探索、遞歸詛咒以及擴展規律的局限性,這些都被認為是生成式人工智慧的結構性局限性,同時也引發了人們對生成式人工智慧泡沫破裂的擔憂。

新功能應用現有的生成式人工智慧幻覺檢測技術,來偵測人為產生的假訊息、事實錯誤、邏輯謬誤和缺乏證據。

可能的應用包括驗證大眾媒體新聞文章的可靠性核實社交媒體貼文的事實,以及檢測使用地理策略優化的內容中的偏見

從: 文献リンク PARAs AI 是否新增了偵測人類產生的假訊息的功能?

社論評論

Accel Brain公司發布的全新PARAS AI功能具有突破性意義,它不僅能夠偵測生成式人工智慧產生的資訊的可靠性,還能辨識人類傳播的假訊息。這並非一項簡單的附加功能,而是對資訊社會結構本身變化的正面回應。

學術界已經明確指出生成式人工智慧的技術限制。文章提到了「天下沒有免費的午餐」定理,這是機器學習的一個基本原理,它指出沒有通用的演算法可以解決所有問題。無論模型多麼優秀,它總是會存在一定的偏差,因此從根本上來說,產生完全中立和準確的資訊是不可能的。

幻覺問題也很嚴重。 RAG(搜尋擴充和產生)乍看之下似乎可以解決這個問題,但實際上它只是把問題轉移到了「搜尋準確性問題」上,並沒有從根本上解決問題。如果在搜尋中檢索到錯誤訊息,就會基於這些資訊產生錯誤的答案。

更值得注意的是所謂的「遞歸詛咒」現象。由生成式人工智慧產生的錯誤訊息在網路上不斷積累,隨後又被用作下一代人工智慧的訓練數據,這可能導致錯誤訊息呈指數級傳播。這有可能污染互聯網的資訊生態系統本身。

文章也指出了一些「人工智慧泡沫破裂」的跡象。截至2025年11月,OpenAI預計年收入約為130億美元(預估),並且已與甲骨文公司簽訂了一份未來五年價值3000億美元的雲端使用合約(每年600億美元)。英偉達已投資OpenAI,而微軟既是OpenAI的主要股東,同時也是英偉達的主要客戶,這造成了一種複雜的相互依存關係。

這種「週期性投資」結構讓人想起2000年代的網路泡沫。事實上,麻省理工學院2025年8月的一份報告發現,在企業對生成式人工智慧的300億至400億美元投資中, 95%的機構將顆粒無收

這就是生成式引擎優化(GEO)這個新概念的由來。傳統的搜尋引擎優化(SEO)旨在提高網站在搜尋結果中的排名,而GEO則旨在讓ChatGPT和Perplexity等生成式人工智慧工具引用你的內容。然而,正如文章所指出的,這種方法存在嚴重的結構性問題。

「以立場代言」——即精通地理資訊策略的內容提供者透過人工智慧聊天機器人以中立「答案」的形式表達其觀點;「合成謬誤」——即個體理性行為若被普遍採用,則會造成資訊環境的偏見;以及尋求準確資訊的使用者與從被引用中獲利的內容提供者之間的利益衝突。這些問題從根本上削弱了產生式人工智慧時代資訊的可靠性。

PARAs AI 的新功能正是應對這些複雜挑戰的方案之一。它採用相同的科學標準驗證生成式人工智慧和人類提供的信息,旨在確保資訊的全面可靠性。與傳統事實查核工具不同的是,它應用了生成式人工智慧的幻覺偵測技術。

潛在應用包括核實大眾媒體新聞文章、阻止社交媒體上虛假新聞的傳播、分析網紅言論的邏輯一致性,以及檢測基於地理位置優化的內容中的偏見。檢測基於地理位置優化的內容中的偏見對於可視化資訊操縱尤為重要。

這項技術採用了一種獨特的演算法,該演算法融合了熱力學、統計力學、量子力學和資訊理論。這是一種基於物理學的方法,不同於傳統的自然語言處理,它被認為是透過分析資訊的熵和波動來檢測虛假資訊的嘗試。

然而,必須認識到這類工具也存在局限性。雖然一些研究表明,基於人工智慧的假新聞檢測準確率已達到99%,但醫學領域仍報告有8%至20%的幻覺發生率。沒有完美的解決方案,將其與人類的批判性思維相結合至關重要。

從更廣義的角度來看,像PARAS AI這樣的計畫可以被視為「資訊民主化」和「數位社會可信賴基礎設施」建構的一部分。隨著生成式人工智慧日益成為社會基礎設施的一部分,確保其輸出可靠性的系統可能會像電網、供水和污水處理系統一樣,成為重要的社會基礎設施。

在人工智慧時代,確保資訊的可靠性既是一項技術挑戰,也是一項社會挑戰。除了技術解決方案之外,還需要採取多層次的方法,包括資訊素養教育、監管框架的製定以及明確平台公司的責任。

詞彙表

天下沒有免費的午餐定理<br>機器學習中的一個基本原則是,不存在一種演算法可以完美解決所有問題。因為每個模型都存在一些偏差和假設,所以針對特定任務最佳化的演算法在其他任務上的表現可能較差。

幻覺<br>這是一種生成式人工智慧產生看似合理但並非基於事實或根本不存在的資訊的現象。由於大規模語言模型是基於統計模式產生句子,它們可能會輸出在語境上自然但事實上錯誤的內容。

RAG(搜尋擴充生成)
檢索增強生成(Retrieval-Augmented Generation)是一種從外部知識庫和資料庫中搜尋相關資訊並基於這些資訊產生答案的方法。它作為一種減少幻覺的技術而備受關注,但其缺點在於對搜尋準確性的依賴性。

標度律
這條定律指出,人工智慧模型的效能會隨著參數數量和資料量的增加而提高。然而,很明顯,一旦超過某個規模,效能提升速度就會放緩,成本效益也會下降。

遞歸詛咒是指生成式人工智慧產生的內容在網路上不斷積累,並被用作下一代人工智慧的訓練數據,從而遞歸地放大錯誤訊息的現象。這令人擔憂,因為它對資訊生態系統構成污染風險。

參考連結

PARAs AI 官方網站(外部連結)
由 Accel Brain Inc. 提供的 AI 分析平台。該服務以科學的方式驗證 AI 和人類產生的資訊的可靠性。

Accel Brain Co., Ltd. 官方網站(外部連結)
致力於確保人工智慧時代資訊可靠性的公司。成立於2019年。開發應用熱力學、統計力學等領域的獨特技術。

參考文章

人工智慧泡沫-維基百科(外部連結)
包含截至 2025 年人工智慧泡沫的全面資訊。包括 OpenAI 的年度收入、巨額投資以及知名投資者的警告。

這就是人工智慧泡沫破裂的方式 | 耶魯洞察(外部連結)
耶魯大學的分析詳細介紹了 OpenAI 和 Oracle 簽訂的五年期 3000 億美元合約以及週期性投資結構。

我們是否正處於人工智慧泡沫之中?以下是分析師和專家們的看法(外部連結)
CNBC 的市場分析報告顯示,到 2025 年,亞馬遜、Google、Meta 和微軟將合計投資 4,000 億美元。

我們距離開發出精準的AI假新聞偵測器還有多遠? (外部連結)
本文探討了人工智慧驅動的假新聞檢測技術的現狀和挑戰,並闡述了結合神經科學和行為科學的下一代檢測系統。

基爾大學科學家開發的人工智慧工具能夠以近乎完美的準確率檢測虛假新聞(外部連結)
基爾大學的研究人員利用整合投票技術開發出檢測假新聞準確率達 99% 的工具。

生成式引擎優化 – 維基百科(外部連結)
GEO(生成式引擎優化)的定義與發展歷程。詳細介紹普林斯頓大學於2023年11月提出的這個新概念。

生成式引擎最佳化 (GEO) 如何改寫搜尋規則 | Andreessen Horowitz (外部連結)
Andreessen Horowitz 的 GEO 分析報告顯示,價值超過 800 億美元的 SEO 市場正在轉移到 GEO 市場。

編按

如今,辨別資訊的真假變得比以往任何時候都更加困難。無論是人工智慧產生的訊息,或是人類傳播的訊息,都不能完全信任。像PARAS AI這樣的工具固然有用,但歸根究底,我們每個人都必須具備批判性思考。你通常如何判斷資訊的可靠性?養成一些小習慣,例如核對多個資訊來源、尋找原始資料以及考慮資訊發送者的意圖,都能幫助我們避免被虛假資訊誤導。技術只是一種工具;如何使用它,取決於我們自己。