2025-12-09
林呈欣
244
企業將永續發展視為成長引擎,需建置「負責任 AI」,並運用具備可解釋、可審計特性的「可信任 AI」。負責任 AI 以組織政策來系統性管理 AI 風險與影響,兩者共同協助企業進行完整且可信賴的永續資訊揭露。
邁向永續,企業不只求法遵/合規,更將永續發展視為成長引擎。與關鍵客戶與可信夥伴共創產品與流程,讓財務、永續等核心職能共擘長期藍圖,並與競爭者、學研與監管單位共同協作,帶動產業轉型。企業落實上述 ESG 中治理的路徑上,關鍵在企業內部建置好「負責任 AI」,並運用這個「可信任 AI」,透過可治理、可審計的資料與模型,將創新化為永續競爭力。
『可信任 AI(Trustworthy AI)』須具可解釋、可審計與問責等特性,企業以此建立各種信任的基礎,企業並以此展現治理與風控能力,將信任轉化為被採納、合規與長期價值。『負責任 AI(Responsible AI)』是以企業組織層級的政策、流程與標準(像是 ISO 42001、ISO 27001 等)來系統性管理 AI 的風險與影響。
國內外法規要求企業永續發展,並持續在永續資訊揭露時要值得信任。企業基於法遵與長期經營誠信,常常在進行揭露永續資訊時,偏偏企業內外有很多的資料,常常需要透過人員與 AI 協同來提供完整、正確、一致的報告。
這些資料實在太複雜,資料來自企業內部與企業外部多方的來源,過程中人員需要花很大力氣來整理資料、清整資料、分析資料以提供決策所需,及提供法遵與資訊揭露所需。在過去的文章提及這些範疇三等資料複雜之外,本期提出如何運用「負責任 AI」與「可信任 AI」讓 AI 來貫徹永續與完成永續資訊揭露等任務。
企業秉持著最基礎的理念-「信任是社會、經濟和永續發展的基礎」來建立負責任 AI。也只有在企業 AI 具可信任的基礎上,才能充分發揮 AI 的潛力。
以下從五個面向來定義「可信任 AI」:
受託人在特定領域,有能力、技能與特質來為委託人完成任務。可信任 AI 具備具有滿足委託人需具備的能力、技能與特質,像是可自動化實現完成工作目標下所需的熱情、能力、專業知識。
委託人關心委託人的福祉,並主動為他的利益行事,行動上少有代理問題與機會主義。可信任 AI 具備此來充分、快速達成任務。
可信任 AI 擔任受託人,遵守委託人認為可接受的一系列原則,來達成委託人認定的可靠性/可預測性。
受託人在完成任務的事前、事中及事後,委託人能夠感到可理解,並同意受託人的行動。
在受託人完成委託人的某些目標,但又不傷害到其他目標。 「可信任 AI」表現出具有可信任,應該做到當責(負責任、可追溯、可稽核)、具有人性價值(公平、重隱私、安全、自動化),以及永續(可解釋性、透明性、一致性、符合永續目標與績效指標)等。
2025 年 10 月 6 日,德勤澳洲同意向政府退還 44 萬澳元的部分顧問費。因其替澳洲政府就業與工作關係部撰寫的 237 頁報告,被揭發報告中含有 AI 生成錯誤資訊,包括虛構引用、杜撰判決與無法查證註腳。
所謂的「負責任」,就是要承擔起責任,並且要能解釋並證明自己的行為和決定;或者在適當的情況下,因不當行為而受到制裁。
企業常從成果導向來要求「負責任 AI」能夠負責任。管理者通常會將工作委託給 AI 團隊成員。如果這裡的 AI 表現得不像一名員工來得負責任,這時候管理者就該像管理員工一樣地管理這 AI 了。
負責任最重要的是「AI 團隊成員(包含人員與 AI)」要對其行為負責。管理者對 AI 團隊成員的人員都是這樣的要求;但是 AI 團隊成員中的 AI,在面臨著重要的社會制裁機制時,卻無法引發其內疚或羞恥感或者受處罰。所以接著要問的,就是如果 AI 出了問題,誰該負責?
我們目前還無法以同樣的方式追究 AI 的責任。AI 不能像人類或企業那樣被直接起訴、監禁或追究責任。
但是企業還是要求 AI 負責任。企業內部就該先有真正的 AI 治理,也就是導入 AI 系統並將其提供給最終用戶的人該負起責任,而不是把責任推給別人來負責。透過問責制來管理 AI,需要設計新而有效的制裁機制。
AI 系統的導入者必須在開發過程中,融入透明度和人工監督等機制,並負責任地部署 AI,並監控和記錄 AI 造成的影響。
企業外部建立新的法律和道德框架也很重要,因為現有的法律體系並不承認 AI 是法人,因此需要對 AI 的生命週期進行積極主動、開放的管理,以超越傳統的績效指標來進行監督與治理。
歐盟《AI 法案》與美國 NIST 風險管理框架皆以風險為導向,強調 AI 系統應具備透明、公平、可解釋與安全等特質。
在建立負責任 AI 的治理框架,本文在此提出三項(1)AI 治理、(2)資料治理、(3)技術治理,來分別解決下列這些 AI 治理上的風險:
由於大數據和人工智慧演算法的複雜性和多變性,企業內的決策者,與企業外部的利害關係人和 AI 政策制定者,常常難以理解這些 AI 是如何做出決策的。這些利害關係人對於在各關鍵流程中部署 AI 缺乏信任。還有人工智慧演算法是基於相關性而非因果關係的概念。為了建立信任,人類需要建立因果關係,才能來解釋因果關係,而 AI 與機器學習演算法則缺乏這種因果關係。
人工智慧和機器學習都與資料有關,企業常常誤以為了讓 AI 訓練效果越好,數據量越多越好、速度越快越好。但實務上企業面臨的挑戰在於常常忽略大數據缺乏資料真實性(Veracity)、資料價值性(Value)與資料多樣性(Varity)造成 AI 會受限而導致異常的行為。
透過人機介面或演算法,人員引入資料時,可能對於社會中存在的種族、偏見和刻板印象有關 DEI 議題而造成的道德風險、自動化工作流導入資料時缺乏控制,以及付費使用第三方數據時,還是可能傷害到數據作者的著作權等法律義務。
面對上述風險,有五種 AI 治理的建議。
1.採用基於 AI 生命週期的管理方法。
2.將人類責任納入 AI 治理結構。
3.在特定情況下啟用 AI 主導的決策。
4.企業應在管理結構中明確 AI 的作用和範圍。
5.以考量到風險管理的角度來識別和整合這些 AI 系統,並考慮 AI 系統的治理結構和管理方法。
原文出處:CIO Taiwan
ESG雙軸轉型到2050
322 Followers
延伸閱讀
ESG雙軸轉型到2050
322 Followers
我們使用本身的Cookie和第三方的Cookie進行分析,並根據您的瀏覽習慣和個人資料向您展示與您的偏好相關的廣告。如欲瞭解更多資訊,您可以查閱我們的隱私權政策。