AI 超級強大,
是人類有史以來最巨變的文明革命,已經是不可逆的趨勢。
AI 之父辛頓教授 (2024 諾貝爾物理獎)
更憂心指出, AI 將會造成人類大量失業,甚至可能會毀滅人類 ...
為什麼會有這樣的擔憂呢?
或許就像大家已經很熟悉的「一本正經胡說八道
」現象,AI 有我們無法理解的運作方式和局限。
從理論上證明目前「生成式 AI」有 5 個根本限制:
幻覺 (Hallucination)
上下文壓縮 (Context Compression)
推理能力降級 (Reasoning Degradation)
檢索脆弱性 (Retrieval Vulnerability,也就是 RAG 技術)
多模態錯位 (Multimodel Misalignment)
其中的第 4 點的「檢索脆弱性」,
論文除了用理論證明之外,更用實驗具體展示令人吃驚的結果 ~
從上百萬的文件中,刻意混了 5 份有問題的文件,透過 RAG 檢索的方式,AI 「生成」的內容有很高的機會引用到那五份錯誤的資料。
這現像在企業內的問題更大,
因為內部知識庫,常伴隨著過時、不完整、重複 ... 等情況,比例遠高於實驗數據中的百萬分之 5。
更嚴重的是,
AI 那一本正經、充滿自信且流暢的語氣,更容易產生誤導,這在嚴謹的工廠生產 (SOP) 或醫療環境,風險很高。
這「檢索脆弱性」的限制,
正可以澄清許多人對 RAG 技術的誤解 ~
使用 RAG 技術,就能解決 AI 幻覺
簡而言之,這篇論文告訴我們一個現實:
不管我們堆多少 GPU 增加算力,或是建立多大參數的語言模型 (LLM),只要讓 AI 生成,「一本正經胡說八道」的的問題,基本上就是無解!
雖然如此,強大的 AI 只要用對地方,
依然可以幫助我們解決許多問題,大幅提升工作效率。
殺雞用牛刀 ~
不是工具不好,只是用錯地方。
山不轉路轉,
我們可以在這些根本限制下,避開雷區,展開一場尋求最優解的科學探索。