生成式AI快速發展,將改變世界。在AI應用發展同時,亦衍生許多法律與倫理新課題。世界各國正討論AI法草案及框架,台灣亦預告AI基本法草案,歐盟AI法草案已發展出風險分級監理策略,將來有望成為台灣AI監理基本框架。
AI帶來法律與倫理新課題,例如,AI變臉很容易,如何預防AI詐騙;未來AI完成著作是否有著作權;以及AI可能造成歧視。
以就業歧視來講,現已有不少案例,例如2016年美國勞動部指控Palantir涉及自2010起長達18個月期間,在AI履歷審查、面試等關卡淘汰掉亞裔求職者,儘管他們資格與白人求職者相當。
2014年亞馬遜機器學習團隊開發審核求職者履歷自動化系統,但發現因模型訓練所提供資料多為男性聘雇紀錄,導致「女性」一詞出現時系統就會扣分,後來公司棄用該系統。
這凸顯出,AI訓練資料都是真實,演算法也是中性,但訓練出來的AI卻帶有偏見。人資的AI是被列為高風險,凡是AI來判斷人類的系統,都不建議使用,包括人資AI面試。
隨著AI發展,世界各國正討論AI法草案及框架。歐盟是採風險導向之監理政策,將使用AI風險分級,主要分四級:不可接受風險、高風險、有限風險、低風險/極小風險。
針對不可接受風險,則禁止使用AI;若是高風險,可用AI,但須在政府監管、認證下使用;有限風險等級,則要有透明化義務,例如客服必須揭露是AI服務,並且提供拒絕權;低風險和極小風險則無義務之規範。
何謂不可接受風險,依歐盟規範,有四方面。一、透過影響人類潛意識、操控人類行為、且可能對人類身心造成傷害;二、利用人類年齡、身心障礙等方面弱點,操縱其行為,且可能對人類身心造成傷害;三、直接或間接被公務機關用於社會評量目的,且可能對特定個人或族群造成不公正影響;四、在公共場所為執法目的執行即時遠程生物特徵辨識。
高風險則有八項。一是對自然人生物特徵辨識;二是關鍵基礎設施的管理與運作;三、教育和職業訓練;四、聘雇及員工管理;五、重要私部門服務和公共服務取得;六、刑事執法;七、移民、難民和邊境管制;八、司法和民主進程。
像是私部門AI面試,就必須取得歐盟CE認證才可進行。此外很多企業會想以「刷臉」取代員工出勤紀錄「刷卡」究竟可不可以?且在AI時代下,收集員工指紋、臉部資料,是可以進行AI訓練,惟這些都是很敏感的個資。
國內企業也曾提出此議題,最後國發會決議是認為,臉部是員工個資,若員工不同意,就不能用。但職場上老闆相對強勢下,那個員工敢不簽同意函?在歐盟,即便是員工同意、並且有員工的同意函,刷臉取代刷卡,還是很有可能被註銷。
台灣預告「AI基本法」草案,還只是AI監管工作分配表,其中明定數發部應參考國際標準或規範發展AI資訊安全保護、風險分級與管理,推動與國際介接之AI風險與管理。以目前國際發展,歐盟將AI風險分成四級,也可望會是將來台灣採用的框架。
(本文由達文西個資暨高科技法律事務所長葉奇鑫口述,記者江睿智整理)