AI為何有幻覺?面對AI幻覺,企業如何讓AI變成信賴夥伴?
2025-11-19
黃正傑
2.3k
生成式AI幻覺又一起,甚至可能讓當事人丟掉飯碗。企業運用生成式AI時,要怎麼防止AI幻覺呢?本文簡介了AI幻覺發生原因,並說明企業實施時,可以運用RAG、提示詞模板、知識圖譜、輸出驗證、數據品質管理等技術與手法協助。企業的課題不是「要不要用 AI」,而是如何讓 AI 說真話、做對事,成為可信賴的智慧夥伴。
什麼是AI幻覺?為什麼會出現AI幻覺?
AI幻覺惹出的麻煩又添一樁!據紐約時報報導,一名美國德州的律師,向法院提交文件時,引用了不存在的「1985 年布拉舍訴史都華案」,以及其他31條AI捏造的引證。AI闖出的這個大禍,遭到法官嚴厲批評,並將律師移交州律師協會懲戒,還得接受六小時的AI教育課程。
什麼是AI幻覺(AI Hallucination)?
美國《ACM通訊期刊》(Communications of the ACM),發表了一篇文章「智慧的代價」,論文清楚地說明了AI可能的三大風險:AI幻覺、間接的提示注入、越獄。其中,間接地提示注入、越獄屬於資訊安全的漏洞與防護,本篇我們探討AI幻覺與減低AI幻覺的方法,也就是AI用看似合理的論述,說出沒有根據或不實的解答。
AI為什麼會有幻覺,產生這些錯誤無根據的說法?我們先看看AI是如何做訓練。
現今生成式AI是基於大語言模型(LLM),蒐集大量網路或特定文件的資料,利用演算法進行訓練與推論。目前的語言學習模型,大都基於Google的自注意力Transformer模型,這個模型以龐大的訓練語料庫為基礎,逐個詞元進行文本訓練。關鍵是,在訓練過程中,模型並未被賦予明確事實或規則,只是調整數十億個權重,以統計方式模擬人類的文本機率。
也就是說,模型學習來自於訓練文本的不完美及詞元的機率統計。
想想看,我們說的話、撰寫的文章、部落格上發表的評論,有多少接近事實? 前因後果推論邏輯完全完美? 再加上,許多語言模型為了創造性和多樣性的回應,並非選擇機率最高的詞,而是運用隨機方式接續生成下一個詞,因此就可能產生AI偏誤。此外,大語言模型也會從提示詞中捕捉微妙的線索、語境,甚至是偏見,讓錯誤的提示詞造成AI幻覺的擴大!
綜合來說,常見的AI幻覺原因有以下幾種∶
- 自注意力生成:模型是依照順序依序生成文字輸出,每次新生成的詞元,都基於先前生成的內容。如果回答一開始就給了錯誤的問題,它會傾向沿著錯誤路徑下去,以維持敘述連貫性。
- 缺乏事實查核機制: 所謂「垃圾進、垃圾出」。模型缺乏事實查核機制,導致錯誤的訓練文本,當然造成錯誤的生成結果。
- 過時的知識:有些知識是透過不斷累積,但AI模型可能會斷言一些曾經正確、現在不再正確的資訊,或忽略了最新事實。生成式AI有可能因為知識過時或缺乏,利用機率拼湊出看似正確的幻覺回答。
- 缺乏專業領域知識:許多語言模型來自於大量網路資料,對法律、醫學、金融、製造等專業領域的理解,僅來自於一般性大量文本模式的機率分配,常會忽略領域專家所了解的細微差別或因果關係。也就是說,表面上AI看似很會分析,但其實並沒有真正理解因果關係。
避免企業AI幻覺的方式
理解AI幻覺的原因後,我們可以進一步思考,企業如何避免AI幻覺∶
- 檢索增強生成(RAG): 檢索增強生成技術是將一些正確、專業的資料庫、文本,提供給生成式AI,以限縮生成答案的範圍,可大程度地減少幻覺。但同樣地,餵入RAG的文本資料、ERP等企業資料,也要確保正確不偏誤。
- 提示詞模板:企業運用生成式AI大語言模型進行詢問時,可透過自訂嚴謹提示詞模板或限縮後的指令,避免員工輸入偏誤提示詞而造成不正確的生成輸出。
- 輸出結果驗證:利用一些事實查核機制,驗證生成結果的正確性。例如: 加裝查核程式比對與檢查輸出的合理性。
- 知識整合: 整合多個大語言模型、推理模型等,以弭補原大語言模型的不足。企業可以利用既有領域專有名詞、工作規則、流程順序或者運用知識圖譜(知識圖譜概念請見「知識圖譜: 數據挖礦的探照燈」一文)來搭配RAG、大語言模型,讓生成的結果更正確。
例如:
西門子利用知識圖譜建立產品、物料、零件、設備間的關係,以強化數位孿生模擬; 鼎新AI平台將生產、庫存、供應等多元數據資料,以知識圖譜建立數據血統(data lineage)關係,正確搜尋ERP數據; 鼎新AI產品「ChatFile」結合大語言模型與小語言模型優勢,以快速並正確地綜整多元的企業文件知識。

圖、企業生成式AI減低AI幻覺的做法
- 微調訓練:企業也可以運用微調方法,進行生成式AI模型的微調訓練,將企業重要領域的知識、文件檔案進行模型微調訓練,讓生成式AI模型更符合企業需求。
- 人工審核: 企業避免AI幻覺的最後一道防線是人工審核。在建置生成式AI系統後,可以協同顧問進行產出驗證,以減少幻覺或缺失產生;此外,進行大量RAG數據庫更新時(如: 上傳一大批新的設備維護手冊檔案),也要啟動審核機制,以減低新的AI幻覺。
AI幻覺會造成重傷,企業應該怎麼使用AI?
AI已經成為企業提效的重要工具,但如果忽略AI幻覺的問題,也可能帶來難以收拾的傷害,綜合前述的做法,企業運用生成式AI需要有這些準備:
- 辨別AI任務與數據管理: 企業進行生成式AI任務時,首先需先釐清AI任務的數據來源,如: ERP資料庫、載入RAG文件檔有哪些?然後要進一步注意相關數據的可靠性、正確性。若察覺異常時,除了思考數據源的資料問題,也需要設置僅有特定使用者才能上傳RAG文件,以控制數據品質。
- 設置提示詞模板與輸出過濾: 企業進行生成式AI任務時,能設置特定提示詞模板提供使用者,以避免不當提示詞輸入,增高AI幻覺的機會。此外,企業也應強化資料生成輸出的過濾機制,以減少幻覺產生。
- 拉信賴供應商陪跑:企業的生成式AI,更需要和具備領域知識的軟體供應商或整合商合作,並搭配相關防止AI幻覺技術或機制,配合顧問導入檢核驗證實施手法,加強教育訓練服務等。建議企業可以與信賴的軟體或系統整合商合作,讓生成式AI在企業發光發熱。
延伸閱讀>> 企業導入AI的做法:為什麼95% 企業的 AI 投資沒有明顯成效?
小結:AI 幻覺,不可忽視的企業風險
生成式 AI 的能力令人驚艷,但它的「幻覺」現象提醒我們:AI 並非萬能,也可能輸出錯誤或虛構資訊。企業若要真正運用 AI 創造價值,必須理解並妥善管理這些風險。
1️⃣ 從根因著手:了解幻覺的本質
AI 並不理解真實世界,它只是根據統計機率預測文字;以此,錯誤的訓練資料、模糊的提示詞、過時知識,都可能讓模型「想像出不存在的事實」。
2️⃣ 用技術手法降低錯誤發生
透過 RAG(檢索增強生成)、提示詞模板、事實查核程式、知識圖譜整合 與 模型微調,企業可以在生成過程中導入正確且即時的資料,減少幻覺產生。
3️⃣ 建立防線:從流程到人員審核
除了技術之外,企業應設置人工審核與資料上傳權限,確保輸出結果的正確性與可信度。
4️⃣ 強化協作:與信賴的AI夥伴共進
導入生成式AI時,應尋找理解企業流程的供應商或整合商,共同建立防幻覺機制、教育訓練與驗證流程,讓AI發揮最大價值。
AI 幻覺不是暫時現象,而是生成式AI的結構性挑戰。企業的課題,不是「要不要用 AI」,而是如何讓 AI 說真話、做對事,成為可信賴的智慧夥伴。
