針對 115 年度 iPAS AI 應用規劃師新增之「關鍵法規與評測架構」考綱內容,整理重點與精選題目解析如下:
一、《人工智慧基本法》:AI 治理新高度
重點整理:
- 生效時間與定位: 台灣首部 AI 專法於 2026 年 1 月正式生效,象徵 AI 治理正式納入國家能力鑑定範疇。
- 主管機關陷阱(必考重點):
- 中央主管機關及 AI 戰略幕僚單位為**「國家科學及技術委員會(國科會)」**。
- 數位發展部的主要角色是建立「風險分類框架」及提供評測工具。
- AI 的法律定義: 系統必須具備**「自主運行能力」**,並能產生預測、建議或決策。 僅依固定規則執行的「規則式軟體」(Rule-based)不被視為 AI。
- 七大基本原則(口訣:永人隱資透公問):
- 永續發展: 兼顧社會公平與環境。
- 人類自主: 確保人為可控,不取代人類道德判斷。
- 隱私保護: 採資料最小化原則,保護個資。
- 資安安全: 建立防護措施,確保系統穩健。
- 透明可解釋: 產出需標記,讓使用者理解其運作邏輯。
- 公平不歧視: 避免演算法產生偏差或歧視特定群體。
- 問責機制: 各階段開發與部署者需承擔相應責任。
二、AIEC 產品與系統評測:落實可信任 AI
重點整理:
- 評測單位: 數位發展部成立 AIEC(AI 產品與系統評測中心),作為 AI 界的「國家級檢驗局」。
- 五大防呆指標(評測支柱):
- 準確性(Accuracy): 提供精確、即時的事實。
- 可靠性(Reliability): 在極端或未知情況下仍能穩定運作。
- 公平性(Fairness): 確保無性別、年齡或社會價值偏見。
- 隱私(Privacy): 防止對話紀錄或資料外洩。
- 資安(Secure): 抵禦惡意誘騙與安全威脅。
- 在地化測試: 強調 AI 必須符合台灣社會共識與語言文化(例如分辨優酪乳與酸奶的用語差異)。
精選練習題與解析
題目 1:根據《人工智慧基本法》,關於我國 AI 政策的統籌協調、推動及督導,其幕僚作業單位為下列何者? (A) 數位發展部 (B) 國家科學及技術委員會(國科會) (C) 經濟部產業發展署 (D) 國家資通安全研究院
- 解答: (B)
- 解析: 這是 115 年考綱中的核心陷阱題。中央主管機關與戰略委員會的幕僚作業由「國科會」辦理,數位部則負責風險分類框架等實務執行面。
題目 2:數位部 AIEC 針對 AI 產品提出的五大評測指標中,哪一項最強調系統在面對突發數據或極端壓力環境下,仍能穩健運作且不隨意崩潰? (A) 準確性 (B) 公平性 (C) 可靠性 (D) 資安
- 解答: (C)
- 解析: 「可靠性」指標旨在確保 AI 能穩定應對非預期狀況,而不僅僅是給出正確答案(準確性)。
題目 3:關於《人工智慧基本法》中所定義之 AI 系統原則,下列敘述何者不符合「人類自主性」之要求? (A) 必須允許人類進行監督 (B) AI 系統應能完全取代人類進行關鍵醫療診斷決策 (C) 尊重人格權及文化價值 (D) 確保人類在生命週期中保有最終控制權
- 解答: (B)
- 解析: 人類自主原則強調「AI 不可完全取代人類決策」,在關鍵場景如醫療或金融,必須保留人類最終決策權,此即 Human-in-the-loop 的概念。
題目 4:下列何種應用場景最符合 115 年考綱新增之「AI 產品與系統評測」中的「公平性」指標測試範疇? (A) 測試 AI 翻譯系統是否會將「優酪乳」翻成「酸奶」 (B) 檢查 AI 信用評分模型是否會因為申請者的性別或出生地而降低信用額度 (C) 驗證 AI 系統是否能在離線環境下保護用戶數據 (D) 測試模型在遭受駭客攻擊時是否會產生錯誤回報
- 解答: (B)
- 解析: 公平性指標專注於檢測演算法是否產生偏見,避免因特定屬性對群體造成歧視之結果。選項 (A) 為在地化,(C) 為隱私,(D) 為資安。
題目 5:依據法律規範,下列何者「不屬於」《人工智慧基本法》所定義之 AI 系統? (A) 能自動生成廣告文案的大型語言模型 (B) 根據即時感測資訊進行路況判斷的自動駕駛系統 (C) 僅依照固定之「If-Then」條件式邏輯執行的規則式軟體 (D) 具備自主學習能力的智慧推薦演算法
- 解答: (C)
- 解析: 法規定義 AI 需具備「自主運行能力」並透過機器學習與演算法運作,傳統的「規則式軟體」(Rule-based)被排除在定義之外。