

由於人工智慧(AI)發展一日千里,各國都在考慮對於AI實施監管,免得AI如脫韁野馬,歐盟算是跑得最快的。歐盟的人工智慧法案(EU AI Act),是針對AI的開發、營銷和使用擬議的監管框架,該框架的目的是合法定義AI,並對AI提供商提出文件、審計和流程要求。
該框架是基於風險管理,與《通用數據保護條例》(GDPR)一樣,旨在於創新、經濟利益,以及公民權利和安全之間取得平衡。如果獲得通過,該框架將對所有27個歐盟成員國具有約束力,並適用於在歐盟建立和傳播AI系統的任何人,包括微軟、谷歌和OpenAI(開發ChatGPT的公司)等外國公司。
如果該框架成為法律,它將要求企業在其AI投入使用之前,對其帶來的風險進行正式評估,並將授予歐洲政府對違反該框架的企業,進行罰款的權力。該立法還將賦予歐洲公民,對他們認為違反該法案的AI,提供商投訴的權力。
AI的法律定義,一直是確定擬議法規範圍的一個重要問題,在歐洲議會於 2023年6月批准該框架之前,該定義已多次修訂。該法案的最新修訂版,將AI定義為「一種基於機器的系統,旨在以不同程度的自主性進行操作,並可以針對明確或隱含的目標,生成影響實體或虛擬環境的預測、建議或決策等輸出。」
AI不斷發展,國家和組織亦積極規範AI
根據該法案,所有AI都將被歸類為四個風險級別之一:
一、不可接受的風險
對基本權利和自由構成不可接受風險的AI,將被禁止。這包括建立可用於歧視某些人群社會評分系統的AI、建立可用於傳播錯誤信息或宣傳的深度偽造AI,以及可控制關鍵基礎設施的AI系統,例如電網或運輸系統。
二、高風險
對基本權利和自由構成高風險的AI,將受到許多監管合規要求的約束。這包括用於評估信譽或做出招聘決策的AI、用於提供臉部識別或其他生物識別服務的AI,以及用於進行醫療診斷或推薦治療的AI等。
高風險AI需要政府監管機構的許可,他們必須接受高品質數據的訓練,具備記錄和可追溯能力,並接受徹底的風險管理。
三、風險有限
對基本權利和自由構成有限風險的AI,不受任何具體要求的約束,但仍必須遵守負責任的AI道德等一般原則。此風險類別包括用於提供客戶服務或回答問題的AI、用於生成個性化新聞或產品推薦的AI,以及用於控制智慧家居設備或玩遊戲的AI。
四、風險極小或無風險
對基本權利和自由構成最小風險或不構成風險的AI,不受任何特定要求的約束。 這包括用於識別和阻止網路釣魚電子郵件、生成天氣預報、處理圖像或影片或進行簡單預測(例如客戶是否可能點擊廣告)的AI。
隨著AI的不斷發展,其他國家和組織也認識到AI立法的必要性。總體而言,AI監管的競爭性提案,在監管範圍、詳細程度和執行機制方面,各不相同。一些國家更關心AI的倫理風險,例如機器偏見和侵犯隱私,而另一些國家則更關心促進AI對經濟發展的潛在好處,當然,大部分國家正在努力制定平衡這兩個問題的立法。
👉 掌握議題動向,一起加入《遠見》 Line官方帳號!
本文章反映作者意見,不代表《遠見》立場
(作者為台北商大前校長、叡陽資訊數位轉型大使)