全球首見 美歐英簽AI公約

「人工智慧公約」重點

美國、歐盟、英國5日簽署全球第一份針對人工智慧(AI)使用的跨國協定,標榜具法律效力。在此同時,澳洲也計劃對高風險的AI研發強制實施「護欄」措施,包含要求須由人類介入與透明度,顯示多國都正對AI的潛在風險採取具體行動。

正在打造AI技術的西方三大司法管轄區美國、歐盟及英國,5日簽署了歐洲理事會的AI公約(AI Convention),在尋求規範公共與民間體系時,強調人權與民主價值。

這項公約是由加拿大、以色列、日本及澳洲等50多國曆經兩年起草,標榜具法律強制力(legally enforceable),要求籤署國必須爲AI系統的任何有害與歧視結果負起責任,並要求這種系統的產出必須尊重公平與隱私權,且讓AI相關的侵權受害者有法律手段反制。

英國科學創新與科技部長凱爾(Peter Kyle)表示,對AI這種快速進步的創新,跨出跨國協定的第一步很重要,「這是第一份有實質強制力的全球協議,也集結非常不同的國家」。

歐洲理事會主導協商的茱澈(Hanne Juncher)指出,在這份公約5日簽署時,十個參與國預料將是首批批准的國家,「這證實(這份公約)遠不止於歐洲,這些簽署國也超級投入協商…並且滿意結果」。美國政府一名資深官員表示,美國承諾確保AI技術要支持尊重人權與民主價值。

儘管這項協定號稱有法律強制力,批評者認爲仍缺乏罰金等制裁措施,而且主要透過監控這種相對疲弱的執法形式,來評估企業。

目前許多國家正研擬監督AI軟體的新規範、承諾及協議,包括歐洲的AI法案、G7去年10月同意的協議,以及美國、中國等28國去年11月簽署的布萊切利宣言。

澳洲產業與科學部長鬍錫克5日也公佈針對AI系統的十項自願遵守新準則,即刻生效,並且展開爲期一個月的公共審議期,以決定未來是否要強制要求高風險的AI研發必須遵循。

這些準則包括人類要能掌控或介入AI系統,以達成「大幅」的人類監督,及必須告知終端使用者AI促成的決策、正在與AI互動、及看到的是AI生成內容等,還有必須與其他機構透明分享AI供應鏈的數據、模型及系統,以幫助有效因應風險等。