資訊> 正文

美國多機構(gòu)聯(lián)合發(fā)布!《零信任人工智能治理》

時間: 2023-08-30 11:08:18 來源: Zoie Y. Lee

2023年8月10日,美國非營利組織Accountable Tech、AI Now研究所和電子隱私信息中心(EPIC)聯(lián)合發(fā)布了《零信任人工智能治理》的政策建議,旨在限制大型AI公司在監(jiān)管方面的影響力。該政策建議提出“零信任人工智能治理(Zero Trust AI Governance)”框架的三項首要原則,呼吁立法者重新審視保護法,防止科技公司為牟利而去涉及明確禁止的某些AI領域。元戰(zhàn)略摘編其重要內(nèi)容,探討未來監(jiān)管人工智能的最佳方式。

前言

AI的飛速發(fā)展、新系統(tǒng)的瘋狂部署以及圍繞AI的炒作,都讓人們對AI改變社會的潛力產(chǎn)生了極大的興趣。但是,我們并沒有走上實現(xiàn)這些美好愿景的道路。AI的發(fā)展軌跡正被一些不負責任的大型科技公司間有害的競爭所左右。


(資料圖片僅供參考)

隨著各公司匆忙將不安全的系統(tǒng)推向市場,如輕而易舉散布虛假信息的聊天機器人,并肆無忌憚地將它們整合到旗艦產(chǎn)品和服務中,這場企業(yè)爭奪AI霸權地位的斗爭所造成的社會成本已經(jīng)在不斷增加。近期的危害包括加速選舉中的操縱和詐騙、加劇偏見和歧視、侵犯隱私和自主權等。從中長期來看,更多的系統(tǒng)性威脅迫在眉睫,如高昂的環(huán)境成本、大規(guī)模的勞動力中斷,以及大型科技公司在整個數(shù)字經(jīng)濟領域權力的進一步鞏固。

行業(yè)領袖們在公開呼吁亟需對AI進行監(jiān)管的同時,也在警告滅頂之災的威脅,同時私下游說反對有意義的問責措施,并繼續(xù)發(fā)布功能越來越強大的新的AI系統(tǒng)。鑒于事關重大,我們不能盲目相信這些行業(yè)領袖。

事實上,通過對美國聯(lián)邦政府監(jiān)管AI的方法進行更深入的研究后,我們發(fā)現(xiàn),這些監(jiān)管方法一般通過冗長的流程來阻止行動,依賴于過于復雜且難以執(zhí)行的制度,并將問責的負擔強加給那些已經(jīng)受到傷害的人。

如果美國聯(lián)邦政府不迅速采取行動改變當前的態(tài)勢,如大力執(zhí)行現(xiàn)行法律,最終通過強有力的聯(lián)邦隱私立法和反壟斷改革,并頒布強有力的新AI問責措施,那么危害的范圍和嚴重程度就會加劇。如果我們希望AI的未來能夠保護公民權利、推進民主理想并改善人們的生活,我們就必須從根本上進行改變。

原則一:

迅速且有力地執(zhí)行現(xiàn)有法律

行業(yè)領袖們采取了許多策略,在拖延問責的同時,將自己塑造成深思熟慮的形象。他們夸大了人類滅絕的長期威脅,要求美國國會成立一個新機構(gòu),并對那些會延緩行動的提案大加贊賞,所有這一切都在使AI競爭愈演愈烈。事實上,人們已經(jīng)感受到了這些AI系統(tǒng)帶來的具體危害,其發(fā)展速度不亞于AI本身。正如聯(lián)邦執(zhí)法機構(gòu)的官員們所強調(diào)的那樣,現(xiàn)有的法律對AI沒有任何約束力。迅速且有力地執(zhí)行現(xiàn)有法律是減輕自動化危害和阻止魯莽部署不安全系統(tǒng)的非常關鍵的第一步。

1. 執(zhí)行反歧視法。AI工具不能用于自動化非法歧視,這違反了《民權法》《投票權法》《公平住房法》《平等信用機會法》《公平信用報告法》《同工同酬法》和《美國殘疾人法》等聯(lián)邦法規(guī)。

2. 執(zhí)行消費者保護法。美國聯(lián)邦貿(mào)易委員會(FTC)在保護消費者方面擁有廣泛的法定職責,他們已明確表示,將打擊從自動詐騙、AI工具的虛假宣傳到欺騙性廣告行為和隱私濫用等一切行為。重要的是,他們已采取了新的補救措施,這些措施可以起到威懾作用,比如迫使公司刪除根據(jù)不正當數(shù)據(jù)訓練的算法。

3. 執(zhí)行競爭法。在AI競爭中,科技巨頭們已經(jīng)在從事一系列反競爭行為,包括搭售和捆綁、排他性交易、限制性許可和有害的數(shù)據(jù)收購。雖然美國國會應通過適合數(shù)字時代的新反壟斷法,包括在后續(xù)章節(jié)中概述的那些法律,但美國聯(lián)邦貿(mào)易委員會和美國司法部(DOJ)應繼續(xù)利用其全部權力來對抗這些濫用行為,并應利用其正在進行的合并指南以及美國聯(lián)邦貿(mào)易委員會的商業(yè)監(jiān)控規(guī)則來加強其打擊不公平競爭的力度。

4. 明確美國《通信規(guī)范法案》(CDA)第230條的限制,支持原告尋求對各種AI損害的補償。保護數(shù)字服務免于承擔第三方內(nèi)容責任的法律不應保護生成式AI。針對ChatGPT的誹謗案件已經(jīng)開始審理,更嚴重的案件肯定會接踵而至。想一想一個聊天機器人勸說一名男子自殺的悲劇,或者關于提供致命配方的假設。除CDA第230條外,AI公司還成為高風險版權案件、集體隱私訴訟等案件的目標。雖然棘手的法律問題比比皆是,但政策制定者應尋求機會,在一些案件中提交“法庭之友”(amicus,亦寫作為amici curiae,是指“由于與法院在審案件所涉問題具有利害關系,或者對之有個人見解,且未受到雙方當事人充分代表而自愿或者受到法院邀請向法院提交書面意見的非案件當事人”)的書狀和利益聲明,這些案件將決定未來AI損害的責任以及開發(fā)和部署這些系統(tǒng)者的行為。

原則二:

大膽、易于管理、明確的規(guī)則是必要的

現(xiàn)在應該很清楚,自我監(jiān)管將無法避免AI的損害。任何依賴于自愿遵守或以其他方式將關鍵環(huán)節(jié)外包給行業(yè)的監(jiān)管制度都是如此。這包括主要依賴審計的復雜框架,尤其是第一方(內(nèi)部)或第二方(簽約供應商)的審計,而大型科技公司已經(jīng)越來越多地接受了這種審計。這些方法在紙面上可能很有力,但在實踐中,它們往往會進一步賦予行業(yè)領域權力,加重小企業(yè)的負擔,并削弱監(jiān)管者正確執(zhí)行法律條文和精神的能力。

1. 禁止不可接受的AI做法。AI的某些用途從根本上不符合人權,絕不應允許。其中包括:

a.

情緒識別或使用生物識別技術推斷心理狀態(tài)

b.

預測性警務

c.

遠程生物識別,包括在公共場所使用面部識別技術

d.

社會評分

e.

全自動招聘或解雇

2. 禁止大部分個人數(shù)據(jù)的二次使用和第三方披露。美國未能通過全面的聯(lián)邦隱私立法,使得建立在監(jiān)控和剝削基礎上的經(jīng)濟得以發(fā)展。從隱私角度和競爭角度來看,嚴格的“數(shù)據(jù)最小化原則”(限制企業(yè)收集數(shù)據(jù)以及其數(shù)據(jù)用途)是解決大型科技公司間有害競爭的最有力工具之一,因為大型科技公司在這一領域的主導地位主要歸功于其龐大的數(shù)據(jù)優(yōu)勢。

a.

禁止收集或處理所有敏感數(shù)據(jù)。正如美國兩黨共同制定的《美國數(shù)據(jù)隱私保護法》(ADPPA)所定義的,確定超出提供或維護個人所要求的特定產(chǎn)品或服務的嚴格范圍。

b.

禁止在教育、工作場所、住房和招聘中收集或處理生物特征識別數(shù)據(jù)。

c.

禁止監(jiān)控廣告。

3. 防止大型科技公司濫用權力扭曲數(shù)字市場以及使其之間的AI競爭永久化。云基礎設施供應商作為構(gòu)建和運營大規(guī)模AI的關鍵,最易獲得優(yōu)勢。而平臺生態(tài)系統(tǒng)的所有者則可以利用其數(shù)據(jù)優(yōu)勢,在這些系統(tǒng)商業(yè)化的過程中攫取租金。結(jié)構(gòu)化干預是防止市場惡性競爭的最佳途徑,因為這些公司在AI系統(tǒng)準備就緒之前就急于將其商業(yè)化,而這一切都是為了保持其先發(fā)優(yōu)勢。

a.

禁止占主導地位的云基礎設施供應商擁有大規(guī)模商業(yè)AI產(chǎn)品或從中獲益。大規(guī)模AI模型的訓練和運行需要巨大的算力,而價值5000億美元的云計算市場已被三家科技巨頭占領:亞馬遜、谷歌和微軟。它們既是AI的領導者,又是這些AI系統(tǒng)所依賴的基礎設施的所有者,這種雙重身份本質(zhì)上是反競爭行為,扭曲了市場激勵機制,并使有害的AI競爭永久化。每家公司都在爭奪霸主地位的同時匆忙推出不安全的AI產(chǎn)品。美國在制定結(jié)構(gòu)化補救措施方面有著悠久的歷史,這些措施將控制關鍵分銷網(wǎng)絡中關鍵基礎設施的公司與依賴這些網(wǎng)絡的業(yè)務線分開,包括鐵路、銀行和電信行業(yè)。

b.

禁止大型科技公司在商業(yè)化AI中自我推薦、拉攏商業(yè)合作伙伴或打擊競爭對手。

c.

禁止大型科技公司利用企業(yè)用戶的非公開數(shù)據(jù)進行不公平競爭。

原則三:

在AI系統(tǒng)生命周期的每個階段,科技公司都有責任證明其系統(tǒng)不會造成危害

行業(yè)領袖們已經(jīng)采取了一系列自愿措施,以表明對AI關鍵倫理原則的承諾。但他們也削減了AI倫理團隊,無視內(nèi)部警報,在對AI的惡性競爭時放棄了透明度,并試圖將責任推卸給下游用戶和民間社會。與其依賴科技公司的善意,讓資源不足的執(zhí)法機構(gòu)或受影響的用戶證明和預防危害或依賴上市后的審計,科技公司更應該證明其AI產(chǎn)品不會造成危害。

有用的推論:

以往是如何監(jiān)管其他領域的高風險產(chǎn)品?

鑒于先進的AI系統(tǒng)具有廣泛的社會影響,根據(jù)其制造商的說法,這些系統(tǒng)可能會在短期內(nèi)造成廣泛的危害,并在長期內(nèi)帶來生存風險,因此考慮如何監(jiān)管類似的高風險產(chǎn)品是非常有益的。新藥上市的開發(fā)和審批過程對此非常具有啟發(fā)性。

制藥公司每年在研發(fā)上花費數(shù)十億美元,篩選成千上萬的化合物,以確定少數(shù)有前景的候選藥物進行臨床前研究,其中包括美國食品藥品監(jiān)督管理局(FDA)批準的動物試驗,以及藥物成分和安全性的大量文件。有了這些研究和潛在臨床試驗的詳細方案,制藥公司就可以向FDA提交研究申請。如果獲得批準,制藥公司就會開始三個密集臨床試驗階段中的第一個階段,之后他們就可以提交正式申請,將藥物推向市場。如果FDA決定繼續(xù)推進,審查小組就會對所有研究進行評估,以確定藥物對其預期用途是否安全有效。獲得批準的藥物大約1/10進入臨床試驗,隨后要接受FDA的醫(yī)療器械標簽、上市后監(jiān)測、副作用披露等要求。此外,任何重大變更都需要補充申請FDA的批準。

在藥物開發(fā)過程的每個階段,制藥公司都必須遵守明確的規(guī)則和FDA的標準,進行廣泛的測試以識別和考慮所有可預見的風險,并向監(jiān)管機構(gòu)展示他們的工作。制藥公司必須向其產(chǎn)品的部署者(處方者)和最終用戶(患者)提供有關適當用法和潛在不良反應的明確信息。制藥公司要對因未能履行這些職責而造成的傷害承擔責任,但不包括因處方者的疏忽或患者的濫用而造成的傷害。

這并不是在呼吁建立一個新的“AI食品藥品監(jiān)督管理局”,也不是為AI治理開出的一對一的處方,AI治理必須更快、更靈活,但新藥上市的開發(fā)和審批過程是一個非常有用的參考。同樣,大規(guī)模AI模型和自動決策系統(tǒng)也應遵守一套嚴格的部署前要求。

1. 評估和記錄的具體標準必然會因AI的類型和成熟度而異。舉例來說,一個旨在識別疾病早期征兆的AI工具、一個用于篩選求職者的自動化系統(tǒng)、一個通用的大語言模型,這些AI產(chǎn)品都有可能造成嚴重危害。因此,在部署前必須對其進行證明,這些AI產(chǎn)品帶來風險的性質(zhì)各不相同,需要進行的測試也大相徑庭。

2. 盡管評估每個系統(tǒng)的標準各異,但必須普遍堅持一些核心的AI倫理原則。例如,最近制定的《人工智能權利法案藍圖》概述了五類核心保護措施,為使用AI提供了清晰的路線圖:建立安全和有效的系統(tǒng);避免算法歧視,以公平的方式使用和設計系統(tǒng);保護數(shù)據(jù)隱私;系統(tǒng)的通知和解釋要清晰、及時和可訪問;設計自動系統(tǒng)失敗時使用的替代方案、考慮因素和退出機制。這些要求是底線,而不是上限,所有AI都可以且應該遵守這些原則,盡管不同的系統(tǒng)遵守這些原則的情況會有所不同。

3. 應要求科技公司根據(jù)其在供應鏈中的角色,在開發(fā)的各個階段積極證明其遵守法律。這應包括記錄公司確定合理的可預見危害的流程,以及在可能的情況下如何減輕危害的建議。鑒于AI市場上虛假或夸大宣傳的情況層出不窮,科技公司還必須證明系統(tǒng)能按預期(和宣傳)運行。監(jiān)管機構(gòu)還可能要求在批準前進行額外的測試、檢查、披露或修改。在獲得批準后,應在聯(lián)邦數(shù)據(jù)庫中公布該AI系統(tǒng)所有的公開版本文件。

部署后的要求應包括:

1. 持續(xù)的風險監(jiān)控,包括通過年度民權和數(shù)據(jù)隱私影響評估,由具有完整的應用程序編程接口(API)和數(shù)據(jù)訪問權限的第三方進行獨立審計,并要求為用戶建立有效的投訴機制,并迅速報告已發(fā)現(xiàn)的任何嚴重風險。

2. 在用戶使用AI系統(tǒng)時主動通知用戶,告知其預期用途,并向用戶提供易于獲取的AI系統(tǒng)主要參數(shù)解釋,以及任何退出機制或可用的人工替代方案。

3. 生成式AI的具體要求,包括:

a.

遵守新的出處、真實性和披露標準。雖然這遠不是解決生成式AI對信息和新聞生態(tài)系統(tǒng)造成全面危害的靈丹妙藥,但建立有效、可互操作的標準來認證AI生成或操縱的媒體來源和真實性,可以增加有助于保護消費者和內(nèi)容創(chuàng)作者的關鍵背景。

b.

明確禁止某些不可接受的用途。例如未經(jīng)同意傳播深度偽造的圖像;故意欺騙他人,意圖阻礙其行使投票權;或冒充他人并以其假定的身份行事,意圖獲取利益或傷害、詐騙他人。

結(jié)語

長期以來,我們錯信了大型科技公司的自我監(jiān)管,誤以為技術進步就是社會進步,對不斷升級的危害視而不見。在我們應對不斷演變的威脅時,“零信任人工智能治理”框架是一個必要的路線修正,這個框架提供了我們所需的基線,以促進健康的創(chuàng)新,并確保下一代技術服務于更大的利益。

責任編輯:房家輝

分享到:版權聲明:凡注明來源“流媒體網(wǎng)”的文章,版權均屬流媒體網(wǎng)所有,轉(zhuǎn)載需注明出處。非本站出處的文章為轉(zhuǎn)載,觀點供業(yè)內(nèi)參考,不代表本站觀點。文中圖片均來源于網(wǎng)絡收集整理,僅供學習交流,版權歸原作者所有。如涉及侵權,請及時聯(lián)系我們刪除!

關鍵詞:

責任編輯:QL0009

為你推薦

關于我們| 聯(lián)系我們| 投稿合作| 法律聲明| 廣告投放

版權所有 © 2020 跑酷財經(jīng)網(wǎng)

所載文章、數(shù)據(jù)僅供參考,使用前務請仔細閱讀網(wǎng)站聲明。本站不作任何非法律允許范圍內(nèi)服務!

聯(lián)系我們:315 541 185@qq.com