AI 治理原則
建立信任的核心框架 當 AI 技術走出實驗室進入社會,其產生的決定可能影響個人的工作、貸款甚至法律權利。因此,「治理 (Governance)」 成為 AI 專案能否落地的關鍵。鑑定考試通常會給予一個爭議情境,要求考生判斷違反了哪項原則。
一、 AI 治理的四大核心原則 這四個原則是全球公認的 AI 倫理基準,也是 iPAS 考題中最常出現的選項:
- 公平性 (Fairness)
·
定義:確保 AI 系統不會因為性別、種族、年齡或宗教等特徵,對特定群體產生偏見或歧視。
·
考點關鍵字:演算法偏見 (Bias)、數據代表性不足、歧視。
·
案例:若一家公司的 AI 招聘系統因為歷史數據偏好,自動過濾掉女性應徵者,這便違反了公平性。
- 透明性與可解釋性 (Transparency & Explainability)
·
定義:
·
透明性:公開 AI 系統的使用情況(告知使用者「這是 AI」)。
·
可解釋性:能夠解釋 AI 做出某項決策的原因(拒絕「黑盒子」)。
·
考點關鍵字:黑盒子 (Black Box)、告知義務、決策邏輯。
·
案例:當銀行 AI 拒絕使用者的信用卡申請時,系統必須能說明理由(如:信用評分過低),而不是只回答「AI 算的」。
- 安全性、穩健性與可靠性 (Safety,
Robustness & Reliability)
·
定義:確保 AI 在面對錯誤數據或惡意攻擊時,仍能維持正常運作,且不會產生非預期的損害。
·
考點關鍵字:對抗性攻擊 (Adversarial Attacks)、系統當機、預測錯誤率。
·
案例:自動駕駛車必須在各種天氣條件下都能準確辨識行人,不能因為下雨就誤判。
- 問責性
(Accountability)
·
定義:明確 AI 系統運作的責任歸屬。當 AI 出錯時,必須有人類(開發者或使用者)負責。
·
考點關鍵字:真人覆核 (Human-in-the-loop)、法律責任、補救機制。
·
案例:醫療診斷 AI 給出建議後,最終必須由醫師簽字核准,這就是落實問責性。
二、 規劃師的治理策略 在進行 AI 專案規劃時,應考慮以下三種參與模式,這在「學科二」中常出現:
- Human-in-the-loop (人類在迴圈中):AI 提出建議,必須經過人類確認後才執行(如:貸款核准)。
- Human-on-the-loop (人類在迴圈上):AI 自動執行,但人類會隨時監控並在出錯時介入(如:產線自動化)。(根據試題,此機制強調人類對 AI 運行進行「日常監督」,且必要時可「立即介入修正或干預」,而非僅在重大錯誤時才接手)
- Human-out-of-the-loop (人類不在迴圈中):AI 全自動執行(僅限於極低風險且高速反應的場景,如:股市高頻交易)。
自我檢測題
- 某科技公司開發的 AI 語音辨識系統對於年長者的辨識率顯著低於年輕人,這主要違反了哪項治理原則? (A) 透明性 (B) 公平性 (C) 安全性 (D) 穩健性
答案:(B) - 關於「可解釋性
(Explainability)」的敘述,下列何者正確? (A) 只要 AI 準確度夠高,不需要具備可解釋性 (B) 可解釋性是指 AI 必須能用人類理解的方式說明決策依據 (C) 所有深度學習模型天生都具備極高的可解釋性 (D) 可解釋性主要是為了節省電腦運算電力
答案:(B)