【蕭宏宜教授 榮幸受 ISC2 Taipei 分會邀請,分享 AI 相關法律的爭議 】
演講重點聚焦於全球 AI 法律框架的挑戰與實踐:
歐盟 AI 法案 (AIA) 分析: 演講剖析了歐盟以「風險為本」的金字塔監管模式 。此模式依風險高低採取不同措施:
不可接受風險(如社會信用評分)將被全面禁止 。
高風險 AI 系統(如醫療診斷、求職篩選)則面臨嚴格監管 ,必須實施完善的「資料治理」、「人為監督」及上市前合規性評估。
有限風險(如聊天機器人)被課以「透明度義務」,必須告知使用者正在與 AI 互動 。
隱私挑戰 (GDPR): AI 的數據需求常與 GDPR 的「資料最小化」原則 衝突。Clearview AI 因違法爬取臉部資料遭重罰 ,凸顯了合規的重要性。
演講探討了「聯合學習」(FL) 和「合成資料」 等技術方案,但也警示這些方法仍存在「再識別風險」 。
AI 供應鏈責任: AI 責任鏈複雜,分散於資料提供者、模型開發者和企業使用者 。為解決「黑箱」問題 ,歐盟 AI 法案要求基礎模型提供「模型卡片」(Model Cards) 與訓練資料摘要 ,以確保透明度。
台灣的治理框架: 台灣也正跟進。國科會 (NSTC) 提出的「人工智慧基本法」草案 ,同樣借鑒歐盟,強調風險分級治理 與問責(當責)機制 。
協助企業建立 AI 法律風險管理矩陣 與合規框架 將是未來的關鍵任務。
感謝 ISC2 Taipei 分會的邀請。
#DataBrushing #AI #資料梳理 #解智能 #SAFEAI #後量子密碼 #PQC