美國麻省理工學院 (MIT) 2025 年的一份報告:


引爆大家對 AI 泡沫的疑慮,
甚至被認為很可能是造成美國股市大跌、韓國股市崩盤到熔斷的主要原因之一。

這份嚇壞市場的 MIT 報告,究竟說了什麼?
其中的兩項數據令人印象深刻:

95%  企業「投資 AI 零報酬
90%  用戶「更信任人類同事


其實這並不令人意外,甚至是預期中的結果! 


生成式 AI 根本的 5 大限制
2025 年史丹佛大學發表一篇論文「On the Fundamental Limits of LLMs at Scale」,
從理論上更證明目前「生成式 AI」有 5 個根本限制:

  1. 幻覺 (Hallucination)
  2. 上下文壓縮 (Context Compression)
  3. 推理能力降級 (Reasoning Degradation)
  4. 檢索脆弱性 (Retrieval Vulnerability,也就是 RAG 技術)
  5. 多模態錯位 (Multimodal Misalignment) 

其中第 4 點的「檢索脆弱性」,
論文除了用理論證明之外,更用實驗具體展示令人吃驚的結果 ~

從上百萬的文件中,刻意混了 5 份有問題的文件,透過 RAG 檢索的方式,AI 「生成」的內容有很高的機會引用到那 5 份錯誤的資料。

這現象在企業內的問題更大,
因為內部知識庫,常伴隨著過時、不完整、重複 ... 等情況,比例遠高於實驗數據中的百萬分之 5。

更嚴重的是,
AI 那一本正經、充滿自信且流暢的語氣,更容易產生誤導,這在嚴謹的工廠生產 (SOP) 或醫療環境,風險很高。

這時候的 AI
大概就只是一個陪你天南地北聊天 (Chat) 的「博士」而已。

雖然上知天文、下通地理,
令人驚嘆之外,但就是無法解決企業內的問題。

為什麼呢?
以下現象能清楚說明 AI 在現實上的問題點。


每次回答,都不一樣
以下是 2025/11 的測試結果,
即使採用 RAG 技術,一樣無法避免「一本正經、胡說八道」的問題。

請 ChatGPT 依據特定內容回答衛教問題「裝引流管後可以洗澡嗎?」

  • 一次說「沒找到」
  • 另一次有找到,但卻回答錯誤「需避免淋濕」 (答案是不行)

e2210824ee8da7f33e182cad53c36ed5.png


一本正經,很恐怖 ...
因為回答得太專業了 ~

雖然沒有直接提及 ... 
但有提到「Port-A 人工血管」 ...

根本就像是專家的口吻,
還特別提到「Port-A 人工血管」,很容易讓人信以為真。

以下是一樣的問題,問 Google notebookLM (Gemini 模型) 的結果

309b2eedff809f7e4b37662039384699.png


AI 幻覺的風險
從現有生成式 AI 的技術角度,幻覺問題是無解的。
因此幾乎所有公司都會加註提醒與警語,例如 Google 「AI 摘要」功能中的警語說明 (下圖):

雖然這項技術令人振奮 ... 可能會提供不準確或令人反感的資訊。因此,我們無法確保 AI 摘要內容皆正確無誤。

efadd73108480751b4369d58976c8245.png


然而,這樣的不確定性,
對企業來說,尤其在「標準化的生產流程 (SOP)」,會是一個非常嚴重的問題。

有經驗的員工或許還能察覺異常,
對 AI 的回應保有一定的判斷與思辨能力,覺得「怪怪的」時候,會再進一步查證。

但對新進人員而言,
由於 AI 語氣「一本正經」,反而更容易讓人信以為真、照單全收,進而導致實際的生產錯誤。

也因為 AI 技術本身極具吸引力,全球企業都積極投入,
但與此同時,其「幻覺(hallucination)」問題也開始在實務應用中浮現,
以下就是幾個因 AI 回答不夠精準,所造成嚴重後果的實際案例。

案例
  1. 1.
    遺漏重要資訊
    A 公司 5 月 26 日的生產事件:

    文件中明確提到模具預熱的步驟,
    「溫度會依模具規範而不同」,必須查閱對應規格 (還特別標成紅色)。

    但 AI 回應中遺漏了這段關鍵資訊,
    導致新人直接套用前一模具的預熱溫度設定,
    結果造成生產的 5,200 支瓶胚中,有 4,870 支因底部翹曲與螺牙波紋而報廢,損失慘重。

  2. 2.
    遺漏關鍵步驟
    B 公司 3 月 7 日的生產事件:

    原文有明確提及「模具預熱」的步驟,但 AI 回應卻略過這個程序。

    新人依照 AI 的回應操作,未正確完成預熱流程,
    導致模具在未對準的情況下受熱變形,射嘴與模口錯位,不僅造成模具損壞,也導致生產中斷。


  3. 特別說明:
    這類問題的發生,並不是因為員工不夠認真,也不是非 AI 技術本身的錯,而是提醒我們:

    1. 要建立保護機制
      能有效避免幻覺的風險,例如好的教育訓練制度幫助新人有足夠的「經驗和敏銳度」。

    2. 資料內容很重要
      在缺乏「高品質、結構化」資料輔助的情況下,直接依賴 AI 回應來作業,是極具風險的。
    評語
    請登入後才可以評分
    位置
    資料夾名稱
    AI 人工智慧之道 ~ 每天 10 分鐘,3 個月提升團隊業績 20%
    上傳者
    蘇德宙
    單位
    台灣數位員工
    標籤
    案例, AI 胡說八道, AI鴻溝
    建立
    2025-12-29 20:44:52
    最近修訂
    2025-12-31 12:50:58
    1. 1.
      第一章、用 AI 幫團隊業績成長 20%
    2. 2.
      第二章、紀錄經驗,寫 FAQ 就對了
    3. 3.
      第三章、10 倍速經驗傳承
    4. 4.
      第五章、推動 & 執行
    5. 5.
      第六章、常見問題
    6. 6.
      第七章、知識管理 ~ 挑戰與突破
    7. 7.
      第八章、xms+ AI 操作快速入門
    8. 8.
      第二章、AI 人工智慧之道