在 AI 的大浪潮下,
幾乎重現過去毛澤東時代的「全民大煉鋼」 ~ 每個人都在談 AI。
AI 很強大,且正迅速發展,
但大多數人對它的特性與侷限仍不夠熟悉。
又因為龐大的商機,
幾乎每個計畫或公司,都宣稱自己的 AI 技術非常厲害,可以解決很多問題。
然而 ..... 現實往往不是這麼美好。
一旦無法克服 AI「幻覺」 (胡說八道) 這個根本問題,
很多宣稱很厲害的 AI,就只是展示的時候很厲害而已,
真正應用在嚴謹的環境時,很可能就會引發嚴重後果。
以 AI 自動生成病歷摘要為例,
這是許多大型醫院宣稱的重要成果,甚至掛在醫院大廳、找媒體用力宣傳報導。
回到實務上的考量,
這項應用目前可能還過於理想,和現實之間有一定的落差。
怎麼說呢?
從 2 個角度立刻就能看出問題。
有經驗且負責的醫師
使用 AI 綜整病人一週的病歷,反而會花更多時間。
因為 AI 的內容不夠精確,負責任的醫師不得不逐條比對,逐份審查,確保資訊無誤。
對年輕的醫師呢?
病歷書寫是一項重要的能力,
如果一開始就依賴 AI,等於剝奪他們學習、成長與鍛鍊判斷力的機會。
這也是台大一位資深醫師反對 AI 生成病歷應用的主要理由。
認為目前 AI 生成的病歷,還不適合應用在臨床上。
其實只要換個角度,從輔助的功能切入病例整理,AI 還是可以在有很大的幫助,只是這不是這篇的主題,就不深入探討了。
為什麼結果明顯不可行,還要大肆宣傳呢?
也許是因為不知道 (無知),但更大的可能,恐怕是 ~
- 計畫主持人,需要交代成果、或出於自尊心作祟
- 公司呢?想趁熱潮多賺一些吧!
這就是這篇文章想表達的觀點 ~
AI 因為無法理解 (無知) 而有幻覺,但人類更可怕,明明知道還胡說八道。
現階段 AI 的不確定性,
當應用於嚴謹的專業領域時,必須更加謹慎小心!
關於 AI 局限和可能的衝擊,更深入的說明和案例可以參考:
- AI 幻覺 (hallucination) 的風險
- 傳統 AI 應用的風險,以護理衛教為例