近期,來自不同政治派別的11位歐洲議會議員發出一封公開信,呼吁行業、研究人員和決策者更加關注“非常強大的人工智能”的潛在危險。鑒于當前人工智能技術的快速發展,歐洲有不少人擔心歐盟的監管政策跟不上技術發展的步伐,希望歐盟更加關注不斷變化的人工智能技術格局。
1.政策監管出臺即過時
歐盟在嘗試推動出臺人工智能監管政策方面是先行者。2021年,歐盟委員會推出了全球第一個關于人工智能的法律框架——歐盟人工智能法案,希望通過該框架來應對人工智能技術可能帶來的風險與挑戰。在歐委會設計的框架中,根據應用場景、使用技術等多個方面,人工智能技術被劃分為四個不同的風險等級,配有不同的監管要求。
當時的框架設計者們相信,盡管人工智能是一項快速發展的技術,但是歐洲的制度設計足以適應技術變化。但事實似乎并不盡然。僅僅幾年間,人工智能技術的發展就讓那些規則設計者們感嘆歐盟的設計似乎已經過時了。歐盟人工智能法案的主要起草人之一、來自德國的歐洲議會議員阿克塞爾·沃斯指出,人工智能技術在兩年前還沒有這么先進,而未來兩年中還會進一步發展,“如此之快”的發展速度讓當時的大部分法律設計在實際生效時可能已經不再適用了。
此次,歐洲議會成員在公開信中要求,歐盟人工智能法案應保證未來人工智能發展本著“以人為本、安全、可信賴”的理念發展,甚至讓涵蓋整個歐盟市場的監管“可以成為全球不同監管傳統和環境中其他監管舉措的藍圖”。
引人關注的是,公開信還呼吁歐盟委員會主席馮德萊恩和美國總統拜登舉行一次高級別峰會,就“研發、控制和部署非常強大的人工智能的初步管理原則達成一致”。
2.語言模型人工智能引發擔憂
歐洲議員們的呼聲很大程度上受到時下火爆的語言模型人工智能應用的影響。大型語言模型讓人工智能可以進行深度學習和訓練,使其不僅可以模仿人類對話,甚至還可以編寫和調試代碼、創作詩歌和論文。不過,這樣的人工智能應用自推出伊始,人們對其技術倫理就紛爭不斷,各方監管機構也十分關注。
今年2月,參與歐洲人工智能法案討論的歐洲議員曾提議,人工智能語言模型技術在沒有人類監督的情況下生成復雜文本應該被列入“高風險”列表,以阻止這類應用大規模制造虛假信息。
意大利數據保護機構認為,開發語言模型人工智能使用的數據,可能違反了歐洲的通用數據保護條例。意大利數據保護機構要求研發公司必須對用戶更加透明地說明數據是如何處理的,如果要將用戶的數據用于進一步的軟件開發(即幫助人工智能學習),必須獲得用戶的許可,并且必須設置未成年人的訪問權限。西班牙和法國也表示了類似的擔憂。
目前,歐洲議會仍在討論歐盟委員會兩年前提出的人工智能法案,尚未確定通過該法案。法案即使在歐洲議會獲得批準,仍需歐盟成員國逐一審核通過。有分析認為,該法案可能要到2025年初才能生效。
沃斯議員在接受歐洲媒體采訪時表示:“出于競爭原因,也因為歐洲在技術上已經落后,歐洲實際上需要以更多的樂觀態度來看待人工智能。但正在發生的情況是,歐洲議會中大多數人都被恐懼和擔憂所引導,試圖排斥一切。”他說,歐盟成員國有關方面希望設立一個獨立機構來監控人工智能技術,并且修改現有的數據保護立法。
3.英國與歐盟不同的監管思路
今年3月,英國政府公布了人工智能監管擬定辦法白皮書。英國政府表示,計劃在相關部門和領域中迅速采用新的監管框架,未來數月將向金融、市場等行業領域的監管機構提供人工智能監管準則。
英國采取的人工智能監管思路與歐盟提出的監管設計框架截然不同。歐盟試圖推出高度規范性指令,針對高風險人工智能系統的研發者和使用者做出具體的技術和機構規定;而英國則有意對人工智能研發和使用采取寬泛的監管原則,實施更為靈活、平衡的監管辦法。此外,英國政府希望,由行業監管機構在參考政府的一系列指導原則的基礎上,制定具體的監管辦法。
未來一年里,英國政府監管機構將面向人工智能研發和應用企業推出更加具體的監管指南,引導后者對人工智能進行風險評估。在此基礎上,英國議會再適時開啟人工智能立法,以確保監管機構有法可依。
英國政府希望在人工智能領域掌握更多的話語權。英國前財政大臣杰里米·亨特此前在一次演講中表示,英國在培育人工智能技術方面必須“全速前進”,以保證“贏得這場競賽”,為新興技術制定全球標準。2022年亨特就表示要將英國變成“世界的下一個硅谷”,提出為量子計算技術投入數十億美元,并承諾投資一臺新的超級計算機來推動人工智能研究。
4.政府與科技公司的博弈
有業內分析認為,當前歐盟和英國加快對人工智能的監管規則設計,都是希望在規則制定上搶奪話語權,但它們的規則設計都難以在消費者保護、監管、經濟和科研的自由發展之間取得平衡。
很多歐盟官員認為,監管機構必須承擔更多責任,僅用風險級別來管理人工智能應用程序是遠遠不夠的。歐盟內部市場專員蒂埃里·布雷頓提出,研發人員和科技公司應該監控每個人工智能應用程序的風險,因為科技公司有時無法預測其人工智能產品在第二天可能會做什么,甚至對做了什么感到驚訝。
但是,很多科技公司對部分歐盟監管規則并不滿意。2022年歐盟曾推動出臺人工智能責任規定,作為對歐盟人工智能法案的補充,以使消費者在因人工智能技術受到傷害時能夠更容易起訴技術所屬的科技公司。而很多科技公司堅稱,這將給歐洲的技術創新帶來“寒蟬效應”,科技公司的程序員不僅要為人工智能的程序錯誤負責,還要為人工智能技術對用戶產生的潛在心理健康影響負責,這是一種苛責。
歐洲監管困局的背后,還有歐洲各國在人工智能技術領域失去領先位置后的憂心忡忡。兩年前歐盟提出人工智能立法時,布雷頓就表示,歐盟此舉不是要趕走人工智能的研發者,而是要鼓勵和說服他們留下來。歐盟不應依賴外國供應商,人工智能數據也應在歐盟存儲和處理。
沃斯議員的話更是充滿焦慮:“如果歐盟規則過于復雜,科技公司就會去其他地方搞人工智能研發。歐盟還不迅速采取行動的話,將成為其他國家的‘數字殖民地’,并有可能最終失去政治和社會的穩定。”