美國聯邦機構人工智能應用政策:治理、創新和風險管理 (全譯文)

推進機構使用人工智能的治理、創新和風險管理 Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence

行政辦公室
管理和預算辦公室 (OMB)
華盛頓特區 20503
主任
2024年3月28日
M-24-10
備忘錄致各執行部門及機構負責人

EXECUTIVE OFFICE OF THE PRESIDENT
OFFICE OF MANAGEMENT AND BUDGET
WASHINGTON, D.C. 20503
THE  DIRECTOR
March 28, 2024
M-24-10
MEMORANDUM FOR THE HEADS OF EXECUTIVE DEPARTMENTS AND AGENCIES


來自:Shalanda D. Young
主題:推進機構使用人工智能的治理、創新和風險管理
人工智能(AI)是我們這個時代最強大的技術之一,總統明確表示,我們必須抓住 AI 呈現的機遇,同時管理其風險。本備忘錄根據 2020 年的《政府人工智能法案》,《推進美國人工智能法案》,以及關於人工智能安全、安全和可信發展與使用的行政命令 14110,指示各機構推進 AI 治理和創新,同時管理聯邦政府使用 AI 的風險,特別是那些影響公衆權利和安全的風險。

1. 概述

雖然 AI 正在改善聯邦政府的運營和服務交付,但各機構必須有效管理其使用。因此,本備忘錄爲機構建立了新的要求和指導方針,以進行 AI 治理、創新和風險管理,包括通過特定的最低風險管理實踐,針對影響公衆權利和安全的 AI 使用。

加強 AI 治理。管理 AI 風險和促進 AI 創新 需要有效的 AI 管理。根據行政命令 14110 的要求,每個機構必須在本通知發佈之日起 60 天內指定一位首席 AI 官員(CAIO)。本備忘錄描述了機構 CAIO 的角色、職責、資歷、職位和彙報結構,包括通過機構 AI 用例庫的擴展彙報。因爲 AI 與數據、信息技術(IT)、安全、隱私、民權和公民自由、客戶體驗、人力資源管理等其他技術和政策領域密切相關,CAIOs 必須與其機構內已有的責任官員和組織密切協調。

推進負責任的 AI 創新。在適當的保障措施到位的情況下,AI 可以成爲現代化機構運作和提升聯邦政府對公衆服務的有用工具。爲此,各機構必須增加它們負責任採納 AI 的能力,包括生成式 AI,並採取步驟以促進 AI 模型、代碼和數據的共享與重用。此備忘錄要求在首席財務官法案(CFO 法案)4中識別的每個機構發展一個企業策略,關於它們將如何推進 AI 的負責任使用。此備忘錄還爲各機構應如何減少負責任使用 AI 的障礙提供建議,包括與 IT 基礎設施、數據、網絡安全、勞動力相關的障礙,以及生成式 AI 的特定挑戰。

管理使用人工智能的風險。儘管機構將從人工智能中獲得重大好處,但它們也必須管理來自使用人工智能的一系列風險。機構受到與人工智能相關的現有風險管理要求的約束,本備忘錄並不替代或取代這些要求。相反,它建立了新的要求和建議,這些要求和建議,無論是獨立地還是集體地,都解決了依賴人工智能來通知或執行機構決策和行動的特定風險,特別是當這種依賴影響公衆的權利和安全時。爲了解決這些風險,本備忘錄要求機構在使用影響安全的人工智能和影響權利的人工智能時遵循最低實踐,並列舉了被認爲影響權利和安全的人工智能的特定類別。最後,本備忘錄還爲聯邦採購中管理人工智能風險建立了一系列建議。

2. 範圍

機構採用人工智能提出了許多挑戰,一些是新穎的並且特定於人工智能,一些則是衆所周知的。雖然機構必須對人工智能的所有方面給予適當的關注,但本備忘錄的範圍更狹窄,旨在解決一部分人工智能風險,以及與機構使用人工智能直接相關的治理和創新問題。本備忘錄中討論的風險結果自任何依賴人工智能輸出來通知、影響、決定或執行機構決策或行動,這可能會破壞此類決策或行動的有效性、安全性、公平性、透明度、問責性、適當性或合法性。

本備忘錄並未涉及無論是使用人工智能還是任何其他軟件都存在的問題,例如關於聯邦信息和信息系統的總體問題。此外,本備忘錄不取代其他更通用的適用於人工智能但並非特別針對人工智能的聯邦政策,例如與企業風險管理、信息資源管理、隱私、可訪問性、聯邦統計活動、IT 或網絡安全相關的政策。

機構必須繼續遵守適用於人工智能其他領域的 OMB 政策,並與機構內所有適當官員協調一致以確保合規。所有機構負責人保留他們在其他法律和政策中建立的現有權限和責任。

a. 適用機構。除特別註明外,本備忘錄適用於所有在 44 U.S.C. § 3502 (1)^7 中定義的機構。7 如相關章節所述,本備忘錄中的一些要求僅適用於在 31 U.S.C. § 901(b) 中確定的首席財務官法案(CFO Act)機構,而其他要求不適用於在 50 U.S.C. § 3003 中定義的情報界的元素。

b. 涵蓋的 AI。本備忘錄提供了要求和建議,如下面更詳細描述的,適用於由涵蓋的機構或代表涵蓋的機構開發、使用或採購的新的和現有的 AI 。相比之下,本備忘錄不管轄:

  • i. 機構的監管行爲,旨在規定非機構使用 AI 的法律或政策;
  • ii. 機構對特定人工智能應用的評估,因爲人工智能提供商是監管執行、執法或國家安全行動的目標或潛在目標^8;
  • iii. 機構開發用於測試和衡量人工智能的指標、方法和標準,其中這些指標、方法和標準是供公衆或整個政府使用的,而不是爲了測試某個特定機構應用的人工智能^9;或
  • iv. 機構使用人工智能進行基礎研究或應用研究,除非此類研究的目的是在機構內部開發特定的人工智能應用。

本備忘錄的要求和建議適用於實現或依賴人工智能的系統功能,而不是使用人工智能的整個信息系統。如相關部分所述,本備忘錄中的某些要求僅在特定情況下適用,即機構使用人工智能時,例如當人工智能可能影響權利或安全時。

c. 適用於國家安全系統。本備忘錄不涵蓋當人工智能被用作國家安全系統組成部分時的情況。^10

3. 加強人工智能治理

每個受此指導的機構的負責人負責追求人工智能創新,並確保他們的機構遵守相關法律和政策中的人工智能要求,包括要求妥善管理機構使用人工智能的風險。這需要一個強有力的治理結構,鼓勵機構戰略性地利用他們的政策、項目、研究與評估及規章職能,以支持本備忘錄要求和建議的實施。每個受此指導的機構的負責人還必須考慮實施所需的財政、人力、信息和基礎設施資源,根據需要通過預算過程優先考慮當前資源或請求額外資源,以支持本備忘錄中確定的職責。

爲了提高對人工智能問題的問責性,機構必須按照行政命令 14110 的第 10.1(b) 條指定一名首席人工智能官(CAIO)。CAIOs 主要負責代表其機構負責人實施本備忘錄並與其他機構協調實施。本節定義了 CAIOs 的角色、職責、級別、職位和彙報結構。

a. 行動

  • i. 指派首席人工智能官 CAIO。自本通知發佈之日起 60 天內,每個機構的負責人必須指派一名 CAIO。爲確保 CAIO 能夠履行本通知中列出的職責,已經指派過 CAIO 的機構必須評估是否需要賦予該個體額外的權力或指派新的 CAIO。各機構必須通過 OMB 的綜合數據收集過程或 OMB 指定的後繼過程向 OMB 報告這些官員。當指定個人變更或該職位空缺時,機構必須在 30 天內通知 OMB。

  • ii. 召集機構人工智能治理機構。自本通知發出之日起 60 天內,每個 CFO 法案機構必須召集其相關的高級官員,以協調和管理聯邦政府內部人工智能使用相關的問題,符合行政命令 14110 第 10.1(b) 條和本通知第 3(c) 部分的詳細指導。

  • iii. 合規計劃。根據 2020 年《政府中的人工智能法案》第 104(c) 條和 (d) 條的規定,在本備忘錄或其任何更新發布後的 180 天內,以及此後每兩年直至 2036 年,每個機構都必須向 OMB 提交併在機構的網站上公開發布以下內容之一:一個計劃,以實現與本備忘錄的一致性;或者一項書面決定,表明該機構不使用且預計不會使用所涵蓋的人工智能。機構還必須包括更新任何現有內部人工智能原則和指南的計劃,以確保與本備忘錄的一致性^11。OMB 將提供這些合規計劃的模板。

  • iv. 人工智能用例清單。各機構(國防部和情報界除外)必須至少每年對其所有人工智能用例進行一次清點,將清單提交給 OMB,並在該機構的網站上發佈一個公開版本。OMB 將通過其綜合數據收集流程或由 OMB 指定的後續流程,發佈清單及其範圍的詳細指導。從 2024 年的用例清單開始,各機構將被要求(如適用)識別哪些用例是影響安全和權利的人工智能,並就這些用例帶來的風險(包括不公平結果的風險)及機構如何管理這些風險報告更多細節。

  • v. 報告不受清單規定的 AI 應用案例。某些 AI 應用案例不需要單獨進行庫存記錄,例如國防部門的應用案例,或者那些與現行法律和政府廣泛政策不一致而無法共享的案例。機構必須每年報告併發布這些本應在本備忘錄範圍內的應用案例的綜合指標,這些案例影響的權利和安全的數量,以及它們對本備忘錄第5(c)節實踐的遵守情況。OMB 將通過其綜合數據收集流程或由 OMB 指定的後繼流程,發佈這一報告的詳細指令。

b. 人工智能首席執行官的角色、職責、級別、職位及彙報結構

根據行政命令 14110 第 10.1(b)(ii) 條,本備忘錄如下定義 CAIOs 的角色、職責、級別、職位及彙報結構:

  • i. 角色。CAIOs 必須具備執行本節所述職責所需的技能、知識、培訓和專業知識。在 CFO Act 機構中,CAIO 的一個主要角色必須是爲其機構特定使用 AI 的協調、創新和風險管理,而非一般的數據或 IT 問題。機構可以選擇指定現有官員,如首席信息官 (CIO)、首席數據官 (CDO)、首席技術官或具有相關或互補權限和責任的類似官員,前提是他們在 AI 方面擁有顯著專業知識並滿足本節中的其他要求。

  • ii. 職責。行政命令 14110 賦予 CAIOs 在其機構中的首要責任,在與其他負責官員協調的情況下,負責協調其機構對人工智能的使用,促進人工智能創新,管理使用人工智能的風險,並執行行政命令第 8 節 (c) 中定義的機構責任 1396012 以及行政命令第 4 節 (b) 中的 14091.13。此外,CAIOs 還需與其他負責官員及適當利益相關者協調,負責:

    • O. 管理一個支持企業識別並管理來自使用 AI 的風險的機構計劃,特別是對安全影響和權利影響的 AI;
    • P. 與相關高級機構官員合作,建立或更新過程,以衡量、監控和評估機構 AI 應用的持續性能和有效性,以及 AI 是否促進了機構的使命並達到了績效目標;
    • Q. 監督各機構遵守管理使用 AI 引起風險的要求,包括本備忘錄以及相關法律和政策中確立的要求;
    • R. 必要時對機構的人工智能應用程序進行風險評估,以確保符合本備忘錄的要求;
    • S. 與相關機構官員合作,根據機構的使命開發補充人工智能風險管理指南,包括與負責隱私、公民權利和公民自由的官員協調合作,以識別機構內可能影響安全和權利的人工智能;
    • T. 通過該部分詳述的流程,免除對人工智能個別應用適用本備忘錄第 5 節的各項要求;以及
    • U. 與相關機構官員(例如,授權、採購、法律、數據治理、人力資本和監督官員)合作,建立控制措施以確保其機構不使用不符合本備忘錄要求的人工智能,包括協助這些相關機構官員基於人工智能使用的風險評估授權操作。
    • K. 與他們的機構合作,識別和優先考慮將推進其機構使命以及公平結果的適當 AI 應用;
    • L. 確定並消除機構中負責任使用人工智能的障礙,包括通過推進支持人工智能的企業基礎設施、數據訪問與管理、勞動力發展措施、政策以及其他人工智能創新資源;
    • M. 與其機構的 CIO 、 CDO 以及其他相關官員合作,確保自定義開發的 AI 代碼和用於開發及測試 AI 的數據根據本備忘錄第 4(d) 節的規定,適當地在機構代碼和數據倉庫中進行清點、共享和發佈;
    • N. 在其機構內部以及對公衆宣傳人工智能對機構使命的機遇和益處;
    • A. 擔任機構負責人及其他高級機構領導的人工智能高級顧問,並參與其機構的高級決策論壇;
    • B. 通過與相關機構官員協調,建立必要的治理和監督流程,以實現與本通知的遵從,並在機構中負責任地使用人工智能;
    • C. 保持對機構人工智能活動的瞭解,包括通過創建和維護年度人工智能用例庫;
    • D. 根據本備忘錄第 3(a)(iii) 節和第 4(a) 節的詳細說明,制定符合本備忘錄要求的計劃和一個機構人工智能策略;
    • E. 與機構 CFO 合作並就實施本備忘錄所需的資源要求提供建議,並對優先投資領域提出建議,以增強現有企業能力;
    • F. 向首席人力資本官員(CHCO)提供建議,以及在適用的情況下,向首席學習官提供建議,關於提升工作人員能力以及獲取和維護使用人工智能以進一步推動機構使命並妥善管理其風險所需的技能集;
    • G. 將相關信息共享給參與機構主要 AI 政策制定倡議的機構官員;
    • H. 支持機構參與與其機構的人工智能活動相關的適當的跨機構協調機構,包括在行政命令 14110 第 10.1(a) 節描述的委員會上代表該機構;
    • I. 支持並協調其機構參與人工智能標準制定機構,適時鼓勵機構採用自願共識標準的人工智能,如適用且符合 OMB 循環令號 A-119;
    • J. 在機構的 AI 治理結構中促進公平和包容性,將多元化視角融入決策過程中;
    • 協調機構使用人工智能

    • 推進 AI 創新

    • 管理來自使用 AI 的風險

  • iii. 資歷。對於 CFO 法案機構,CAIO 必須是高級執行服務、科學與專業或高級領導職務,或等同職位。在其他機構,CAIO 至少必須是 GS-15 或同等級別。

  • iv. 職位和報告結構。首席人工智能官(CAIOs)必須擁有執行本節職責所需的必要權限,並且必須位於足夠高的位置,以便定期與其他機構領導進行交流,包括副部長或同等職位。此外,CAIOs 必須與其機構的其他負責官員協調,以確保該機構使用 AI 符合並且適當地遵循適用法律和政府範圍指導。

c. 內部機構人工智能協調

機構必須確保人工智能問題得到機構高級領導的充分關注。根據行政命令 14110 第 10.1(b) 節的規定,機構必須採取適當措施,例如通過召集人工智能治理機構,來在負責人工智能採用和風險管理各個方面的官員之間進行內部協調。

同樣,CAIO 必須在適當的時候參與更廣泛的機構範圍內的風險管理機構和流程,包括參與制定機構風險管理策略。機構的 AI 協調機制應該根據機構的需求進行調整,例如,基於機構當前使用 AI 的程度、AI 可能提升機構使命的程度,以及機構當前和潛在使用 AI 所帶來的風險。

根據《首席財務官法案》的要求,每個機構都必須成立一個人工智能治理委員會,以召集相關高級官員來管理機構對人工智能的使用,包括消除使用人工智能的障礙和管理其相關風險。這些機構被允許依賴現有的治理機構17來滿足這一要求,只要它們目前滿足或被使滿足以下兩個條件:

  • i. 機構的人工智能治理委員會必須由機構的副祕書長或同等職務的人擔任主席,並由機構的 CAIO 擔任副主席,這些角色不應分配給其他官員。整個委員會,包括副祕書長,必須至少每半年召開一次會議。通過這個委員會,CAIOs 將支持他們各自的副祕書長在機構內部協調人工智能活動並執行《行政命令 14110》的相關章節。

  • ii. 機構人工智能治理委員會必須包括來自負責關鍵人工智能採用和風險管理的高級機構官員的適當代表,包括至少信息技術、網絡安全、數據、隱私、民權與公民自由、公平、統計、人力資本、採購、預算、法律、機構管理、客戶體驗、項目評估、以及負責在機構的項目辦公室內實施人工智能的官員。機構還應考慮包括來自其相應的監察長辦公室的代表。

鼓勵各機構在適當的情況下且符合適用法律的前提下,讓其人工智能治理委員會諮詢外部專家。專家的個人觀點可以幫助擴展現有治理委員會的視角,並注入額外的技術、倫理、民權和公民自由,或特定領域的專業知識,以及吸引員工參與的方法。

4. 推動負責任的人工智能創新

如果負責任地實施,人工智能可以改善聯邦政府的運營並提供全面的效率。各機構必須提高使用人工智能的能力,以確保爲公衆帶來好處,並增加使命的有效性,同時認識到人工智能的限制和風險,以及何時不適合執行特定任務。特別是,鼓勵各機構優先考慮人工智能的開發和採用,以促進公共利益,尤其是在技術可以幫助理解和應對大型社會挑戰的領域,例如使用人工智能改善政府服務的可訪問性,減少食品不安全,解決氣候危機,改善公共健康,推動公平結果,保護民主和人權,以及以惠及美國全國人民的方式增長經濟競爭力。

爲了達到這個目標,機構應該在現有的內部企業能力上建立,以支持負責任的 AI 創新,採取行動加強他們的 AI 和 AI -使能人才,並提高他們開發和採購 AI 的能力。機構應該探索共同努力以擴大這些機會,以及採取措施負責任地分享他們的 AI 資源,跨越聯邦政府並與公衆分享。

a. 人工智能策略

自本備忘錄發佈之日起 365 天內,每個 CFO 法案機構必須在機構的網站上公開制定併發布一項策略,用於識別並消除 使用人工智能的障礙,以及實現在人工智能成熟度方面的企業級改進,包括:

  • i. 機構當前和計劃中使用的對機構使命或服務交付最具影響力的人工智能;
  • ii. 機構當前人工智能成熟度的評估以及機構的人工智能成熟度目標;
  • iii. 該機構有效管理其人工智能使用的計劃,包括通過其首席人工智能官員、人工智能治理委員會以及對其人工智能用例清單的改進;
  • iv. 一個爲 AI 創新開發足夠企業能力的計劃,包括成熟的 AI 啓用基礎設施,用於數據、計算、開發、測試、網絡安全合規、部署和必要的連續監控基礎設施,以構建、測試和維護 AI;
  • v. 爲提供足夠的人工智能工具和能力以支持該機構的研究與發展(R&D)工作提供一個計劃,該計劃與 OMB 開發的 R&D 優先事項、科學與技術政策辦公室、國家人工智能 R&D 戰略計劃和特定於機構的 R&D 計劃一致;
  • vi. 制定運營和治理流程的計劃,以及開發必要的基礎設施,以管理來自使用 AI 的風險;
  • vii. 機構當前人工智能及其啓用人力資源能力的評估,以及預測的人工智能及其啓用人力資源需求,以及招聘、僱傭、培訓、保留和授權人工智能從業者的計劃,以及實現非從業者參與人工智能的人工智能素養,以滿足這些需求;
  • viii. 該機構鼓勵在 AI 開發或採購生命週期中貫穿多元視角的計劃,包括如何確定特定 AI 使用是否滿足機構的公平目標和民權承諾;
  • ix. 特定的、優先的領域和規劃未來 AI 投資,適時利用年度預算過程。

b. 消除對 AI 負責任使用的障礙

擁抱創新需要消除對 AI 使用不必要和無益的障礙,同時保留並加強確保其負責任使用的防護措施。機構應創建內部環境,在這些環境中,那些開發和部署 AI 的人有足夠的靈活性,有限的 AI 資源和專業知識不會被轉移 away from AI 創新和風險管理。機構應採取措施消除對負責任使用 AI 的障礙,特別關注以下建議:

  • i. IT 基礎設施。機構應確保其 AI 項目能夠訪問到足夠的 IT 基礎設施,包括必要時專門用於 AI 訓練和推理的高性能計算基礎設施。機構還應確保 AI 開發者能夠充分訪問軟件工具、開源庫以及部署和監控能力,這些都是快速開發、測試和維護 AI 應用所必需的。

  • ii. 數據。機構應發展足夠的基礎設施和能力,以充分共享、管理和治理機構數據,用於訓練、測試和操作人工智能。這包括機構利用內部持有數據和第三方管理的機構數據的能力,最大限度地提高適當的訪問和共享。機構還應探索利用公開可用信息的可能效用及其支持的法律權限,並在適當及符合本備忘錄概述的數據實踐時鼓勵使用。無論數據來源如何,用於幫助開發、測試或維護人工智能應用的任何數據都應評估其質量、代表性和偏見。這些活動應由資源支持,以實現可靠的數據治理和管理實踐,尤其是與數據收集、管理、標註和管理相關的實踐。

  • iii. 網絡安全。機構應根據需要更新信息系統授權和持續監控的流程,以更好地滿足人工智能應用的需求,包括推進對人工智能的持續授權使用。與行政命令 14110 第 10.1(f) 節一致,鼓勵授權官員優先審查生成式人工智能和其他關鍵及新興技術在運營授權以及任何其他適用的發佈或監管流程中的使用。

  • iv. 生成式人工智能。除了遵循行政命令 14110 第 10.1(f)節提供的指導外,機構應評估生成式人工智能在其任務中可能的有益用途,並建立足夠的安全保障和監督機制,允許在不構成過度風險的情況下在機構中使用生成式人工智能。

c. 人工智能人才

根據行政命令 14110 的第 10.2 節,強烈鼓勵各機構優先考慮在人工智能(AI)及支持 AI 的角色中招聘、僱用、培養和保留人才,以增加負責任的 AI 創新的企業能力。各機構應該:

  • i. 遵循由人事管理辦公室(OPM)創建的即將發佈的 AI 和技術招聘手冊中描述的招聘實踐,包括鼓勵具有多元視角的個人申請,充分利用可用的招聘和留人權限,並使用描述性職位名稱和基於技能的評估;

  • ii. 指定一名 AI 人才負責人,至少在 AI 人才任務小組活動期間,負責向機構領導彙報,追蹤該機構的 AI 招聘情況,並向人力資源管理辦公室(OPM)和管理和預算辦公室(OMB)提供招聘需求和進展數據。根據行政命令 14110 第 10.2(b) 節設立的 AI 人才任務小組,將爲 AI 人才負責人提供參與機會,以增強他們的 AI 招聘實踐,並通過跨機構合作推動影響力,包括共享職位描述、協調市場營銷和外展活動、共同招聘行動,以及在適當的情況下,跨機構共享申請人信息;及

  • iii. 在適用的情況下,與聯邦員工及其工會代表協商,提供資源和培訓,以內部發展 AI 人才並增加聯邦員工的 AI 培訓機會,包括爲聯邦員工提供通向 AI 職業的途徑,以及協助受 AI 應用影響的員工。

d. 人工智能的共享與合作

開放、共享以及人工智能的重複使用顯著增強了創新和透明度,同時也必須負責任地進行,以避免侵犯公衆的權利、安全和安全性。機構必須共享它們的人工智能代碼、模型和數據,並以促進政府範圍內和與公衆的重新使用和合作的方式進行,須遵守適用法律、政府範圍的指導以及以下考慮:

  • i. 共享和發佈人工智能代碼與模型。機構必須主動分享它們爲人工智能應用自主開發的代碼——包括模型和模型權重——正在積極使用中,並且必須在公共倉庫上作爲開源軟件發佈並維護那些代碼,除非:
    • A. 法律或法規限制共享代碼,包括專利或知識產權法、出口資產規定、國際武器貿易規則,以及聯邦法律和規定對分類信息的管轄;
    • B. 代碼共享將會對國家安全、政府信息的保密性、個人隱私、公衆的權利或安全造成可識別的風險;
    • C. 機構因合同義務而無法這樣做;
    • D. 代碼分享將對機構的任務、計劃或操作造成可識別的風險,或對機構的系統或人員的穩定性、安全性或完整性造成風險。

機構應優先共享自定義開發的代碼,例如常用的包或函數,這些代碼對其他機構或公衆的再利用潛力最大。

  • ii. 分享與發佈人工智能數據資產。用於開發和測試人工智能的數據很可能構成實現開放、公共、電子目的的“數據資產”。以及必要的(OPEN)政府數據法案,以及根據該法案要求和行政命令 14110 第 4.7 節中的安全考慮,機構必須將此類數據資產作爲開放政府數據資產公開發布^23。在共享人工智能數據資產時,機構應促進數據互操作性,包括通過在內部以及與其他相關機構就互操作性標準進行協調,並在可行且適當時使用標準化數據格式。
  • iii. 部分共享和發佈。根據本節的第 (i) 和第 (ii) 小節,如果某個人工智能項目的代碼、模型或數據的某部分不能公開共享或發佈,那麼在實際可行的情況下,其餘部分仍應該被共享或發佈,例如通過發佈用於評估模型的數據,即使模型本身不能安全發佈,或者即使模型不能公開發布,也在聯邦政府內部共享模型。如果代碼、模型或數據在沒有限制誰可以訪問的情況下不能發佈,那麼在實際可行的情況下,各機構也應通過聯邦控制的基礎設施共享它們,該基礎設施允許聯邦政府外的實體控制訪問,例如通過國家人工智能研究資源。

  • iv. 採購用於共享和發佈的人工智能。當採購定製開發的人工智能代碼、用於訓練和測試人工智能的數據,以及對現有數據的增強(例如標籤服務)時,鼓勵機構以能夠共享和公開發布相關代碼、模型和數據的方式進行。

  • v. 人工智能模型數據的意外泄露。當機構在決定是否共享和發佈人工智能模型及其權重時,應評估模型被誘導泄露用於開發它們的數據的敏感細節的風險。機構的風險評估應包括特定模型的風險分析。^24

e. 人工智能要求的協調

以一致的方式解釋和實施人工智能管理要求跨聯邦機構將創造效率以及共享資源和最佳實踐的機會。爲了協助這一努力,並與行政命令 14110 的第 10.1(a) 條一致,OMB 與科學和技術政策辦公室合作,將協調聯邦機構通過一個跨機構委員會在機構的項目和運營中開發和使用 AI — 包括實施本備忘錄 — 跨聯邦機構。

這將至少包括:

  • i. 推廣共享的模板和格式;

  • ii. 分享最佳實踐和經驗教訓,包括在 AI 開發中實現受影響社區和公衆的有意義參與,以及採購、更新組織流程以更好地適應 人工智能、移除阻礙負責任的 人工智能 創新的障礙、響應可能對個人造成傷害的 人工智能 事件,以及建立一個多樣化的 人工智能 勞動力隊伍以滿足機構的需求;

  • iii. 分享技術資源以實施本備忘錄的風險管理實踐,例如用於測試、持續監測和評估;及

  • iv. 強調示範性的人工智能應用以供機構採納,特別是那些有助於解決重大社會挑戰的應用。

5. 管理人工智能使用中的風險

各機構都有一系列政策、程序和官員來管理與機構信息和系統相關的風險。爲了更好地應對人工智能使用中的風險,尤其是對公衆權利和安全的風險,所有機構都必須實施最低實踐,如下所詳述,以管理對安全產生影響的人工智能和對權利產生影響的人工智能的風險。^25 然而,本備忘錄的第5條(a)至(c)節不適用於情報界的元素。^26

a. 行動

  • i. 實施風險管理實踐和終止不合規的人工智能。到2024年12月1日,機構必須實施本備忘錄第5(c)節中的最低實踐,針對影響安全和影響權利的人工智能,否則,就必須停止使用不符合最低實踐的人工智能在其操作中,與該節中的詳情和警告一致。

  • ii. 認證與公佈決定及豁免。到 2024 年 12 月 1 日,以及此後每年,每個機構必須認證根據本節 (b) 款所作出的決定和根據 (c) 款授予的豁免的持續有效性。在法律和全政府政策允許的範圍內,機構必須公開發布一份摘要,詳細說明每項個別決定和豁免及其理由。或者,如果機構沒有活動中的決定或豁免,它必須公開指出這一事實並向 OMB 報告。OMB 將通過其集成數據收集過程或 OMB 指定的後續過程,發佈這些摘要的詳細指導。

b. 確定哪些人工智能被認爲可能影響安全或影響權利

所有符合第 6 節定義的“影響安全的人工智能”或“影響權利的人工智能”的人工智能,必須按照第 5 節 (c) 中的最低實踐要求,在適用的截止日期之前遵守。各機構必須審查每一項當前或計劃中使用的人工智能,以評估它是否符合影響安全的人工智能或影響權利的人工智能的定義。進行此類評估時,如本備忘錄第 6 節對影響安全的人工智能和影響權利的人工智能的定義所反映,機構必須考慮特定的人工智能輸出是否作爲決策或行動的主要依據。

此外,用於附件 I 中識別的某一目的的 AI 自動 被假定 爲影響安全或影響權利的。然而,機構 CAIO,在與其他相關官員協調後,可以確定(或重新審視之前的決定)特定的 AI 應用或組件^27根據這一假設並不符合“影響安全的 AI”或“影響權利的 AI”的定義,因此不受最低實踐的約束。機構 CAIO 只能在有文件記錄的、特定於上下文和特定於系統的風險評估的情況下,作出或重新審視這樣的決定,並且可以隨時重新審視之前的決定。這一責任不得委派給其他官員。除了本通知第 5 條(a)(ii)節中的認證和發佈要求外,CAIOs 必須中央跟蹤這些決定,如果 AI 使用的條件或上下文發生重大變化,重新評估它們,並在作出或改變決定後 30 天內向 OMB 報告,詳細說明範圍、理由和支持證據。

c. 影響安全與權利的人工智能最低操作規範

除非適用法律和政府範圍內的指導禁止,各機構必須在 2024 年 12 月 1 日之前,對影響安全和權利的人工智能應用本節的最低風險管理實踐,否則必須停止使用該人工智能,直到它們達到合規狀態。

在 2024 年 12 月 1 日之前,機構 CAIO 應與其機構的相關官員合作,使潛在的不合規 AI 符合規定,這可能包括請求第三方供應商自願採取適當行動(例如,通過更新文檔或測試措施)。爲確保遵守此要求,相關機構官員必須儘可能使用現有機制(例如,操作授權過程)。^28 機構還可以通過其 CAIO 請求延期或通過下面詳述的過程授予此要求的豁免。

機構必須記錄他們實施這些實踐的過程,並準備好向 OMB 報告,這可以作爲年度 AI 用例清單的一部分、定期責任審查,或根據 OMB 的要求進行報告。

本節中的實踐代表了一個初始基線,用於管理使用人工智能 (AI) 所帶來的風險。各機構必須識別與其使用人工智能相關的額外具體背景風險,並酌情解決它們。這些風險考慮可能包括對安全、安保、民權、民主自由、隱私、民主價值觀、人權、平等機會、工人福祉、獲取關鍵資源和服務的通道、機構信任和可信度、以及市場競爭的影響。爲了解決這些潛在的風險管理缺口,鼓勵各機構適當促進和納入額外的人工智能風險管理最佳實踐,例如來自國家標準與技術研究院 (NIST) 人工智能風險管理框架,^29 人工智能權利法案藍圖,^30 相關國際標準,^31 以及根據行政命令 14110 第 6(b)(i) 節建立的針對僱主的工作力原則和最佳實踐。同樣鼓勵各機構繼續開發其自己的機構特定實踐,視情況而定,且需與本備忘錄和行政命令 13960、行政命令 14091 和行政命令 14110 中的原則保持一致。

本節中的實踐同樣不取代、修改或指導對現有法律或政府範圍政策規定的解釋,負責的機構官員必須協調以確保採用這些實踐不與其他適用的法律或政府範圍指南發生衝突。

  • i. 最低做法的排除。僅當使用人工智能(AI)來完成以下目的時,機構不需要遵循本節概述的最低做法:

    • A. 評估潛在的供應商、商業能力或者非機構運營中使用的免費可用 AI 能力,僅用於做出採購或獲取決策;
    • B. 達到本節要求的一致,例如在受控測試條件下使用 AI 應用程序來執行以下的最低測試要求。^32
  • ii. 最低做法的延期。機構可以向 OMB 請求最長一年的延期,對於那些到期日內無法切實滿足本節最低要求的特定 AI 使用。OMB 不會批准超出最初一年延期的續期。任何延期請求應在 2024 年 10 月 15 日之前提交。請求必須附上詳細的證明,解釋該機構爲何無法達成對所涉及人工智能使用的合規性,以及該機構採取了什麼實踐爲緩解不合規的風險,以及機構將如何開始實施本節要求的全部最低實踐標準,需制定相應措施和計劃。OMB 將通過其綜合數據收集過程或一個 OMB 指定的後繼過程,發佈延期請求的詳細指導。

  • iii. 免除最低實踐要求。在與其他相關官員協調後,機構 CAIO 可以在做出書面決定的基礎上,針對特定受覆蓋的 AI 應用程序或組件^33免除本節中的一個或多個要求,該決定基於針對系統特定和上下文特定的風險評估,認爲滿足該要求將會整體增加安全或權利方面的風險,或將創造出對關鍵機構操作的不可接受的障礙。機構 CAIO 也可以隨時撤銷之前頒發的豁免。此職責不得委派給其他官員。除了本備忘錄第 5(a)(ii) 節中的認證和發佈要求外,CAIOs 必須集中追蹤豁免,如果 AI 使用的條件或上下文發生重大變化,則重新評估這些豁免,並在授予或撤銷任何豁免的 30 天內向 OMB 報告,詳細說明範圍、理由和支持證據。
  • iv. 對於影響安全或權利的 AI,最低實踐標準。不遲於 2024年12月1日,各機構在使用新的或現有的涉及安全影響或權利影響的人工智能( AI )之前,必須遵循以下實踐:
    • a. 數據收集和準備過程,這也必須包括用於訓練、微調或操作人工智能的任何數據的來源。
    • b. 數據的質量^36和代表性^37對於其預期目的;
    • c. 數據如何與被自動化的任務相關,以及合理地期望這些數據對於 AI 的開發、測試和運行有用;
    • d. 數據是否包含足夠的廣度以應對人工智能可能遇到的現實世界輸入範圍,以及數據缺口和不足是如何被機構或供應商解決的;以及
    • e. 如果數據由聯邦政府維護,該數據是否可以作爲一個開放政府數據資產公開披露,符合適用法律和政策。38
    • A. 完成 AI 影響評估。機構應定期更新其影響評估,並在 AI 的整個生命週期內利用它們。在其影響評估中,機構至少必須記錄以下內容:

    • B. 在現實世界環境中測試人工智能的表現。機構必須進行足夠的測試,以確保人工智能及依賴它的組件將在其預期的現實世界環境中工作。這種測試應當遵循特定領域的最佳實踐(如果有的話),並且應當考慮到所使用的具體技術以及來自人類操作員、審查者、員工等的反饋,以及使用該服務的客戶或受系統結果影響的客戶。測試條件應儘可能地反映人工智能將要部署的環境。通過測試結果,機構應證明人工智能將實現其預期的效益,且相關風險將被充分降低,否則該機構不應使用該人工智能。在進行此類測試時,如果機構無法訪問底層的源代碼、模型或數據,則必須使用替代測試方法,如查詢人工智能服務並觀察輸出,或向供應商提供評估數據並獲取結果。還鼓勵機構利用試點和有限發佈,在強有力的監控、評估和保障措施到位的情況下,執行測試的最後階段,然後再進行更廣泛的發佈。

    • C. 獨立評估人工智能。機構通過 CAIO 、一個機構人工智能監督委員會或具有現有測試和評估責任的其他適當機構辦公室,必須審查相關人工智能文檔,以確保系統正常工作且按預期運行,且其預期的好處超過潛在的風險。至少,這些文檔必須包括完成的影響評估和在現實世界背景下測試人工智能性能的結果,如本小節的段落(A)和(B)所引用的。機構必須將這種獨立評估納入適用的發佈或監督流程,如操作授權流程。獨立審查機構不得直接參與系統的開發。

    1. AI 的預定目的及其預期的效益,通過特定指標或定性分析支持。指標應爲量化的正面結果指標,用於機構使命——例如減少成本、客戶等待時間或對人類生命的風險——在 AI 部署後,可以使用績效測量或項目評估方法來衡量^34,以證明使用 AI 的價值。在無法量化的情況下,定性分析應證明預期的正面結果,例如對客戶體驗的改進,並且它應證明 AI 更適合完成相關任務,與其他策略相比。
    2. 使用 人工智能 的潛在風險,以及除了這些最低實踐之外,機構將採取哪些額外的緩解措施來幫助減少這些風險。機構應記錄將會受到系統使用影響最大的利益相關者^35,並評估人工智能及更廣泛系統的可能故障模式,無論是獨立存在還是由於人類用戶及其他可能的系統外變量所導致的。機構應特別關注對弱勢羣體可能產生的潛在風險。應該將人工智能功能的預期益處與其潛在風險進行對比,如果益處無法顯著超過風險,機構則不應使用該人工智能。
    3. 相關數據的質量和適宜性。機構必須評估用於人工智能設計、開發、訓練、測試和操作中的數據質量及其適應人工智能預期目的的程度。在進行評估時,如果機構在合理努力下仍無法獲得此類數據,則必須從供應商(例如,人工智能或數據提供者)那裏獲得足夠的描述性信息,以滿足本段中的報告要求。至少,機構必須記錄:
  • _ 不遲於 2024 年 12 月 1 日,並且在使用新的或現有的涉及安全或權利影響的 AI 時持續進行,機構必須確保遵循以下針對 AI 的實踐:
    • D. 進行持續監控。除了部署前的測試外,機構必須建立持續的程序來監控 AI 功能的退化以及檢測 AI 對權利和安全影響的變化。機構還應在可能的情況下逐步擴大使用新的或更新的 AI 功能,以提供足夠的時間監控不良性能或結果。機構應監控並保護 AI 免受特定於 AI 的漏洞攻擊,^39特別是那些可能對權利和安全產生負面影響的攻擊。

    • E. 定期評估使用 AI 的風險。第(D)段中的監控過程必須包括定期的人工審覈,以確定部署環境、風險、利益和機構需求是否發生了變化。^40機構還必須確定當前實施的備忘錄最小實踐是否充分緩解了新的和現有的風險,或者是否需要更新的風險應對選項。至少必須每年進行至少一次人工審覈,並在對 AI 或 AI 使用的條件或環境進行重大修改後進行審覈,審覈必須包括在現實世界環境中對 AI 性能的重新測試。^41審覈還必須包括由一個未直接參與系統開發或運營的適當內部機構權威的監督和考慮。

    • F. 減輕新出現的對權利和安全的風險。在通過持續監測、定期審查或其他機制識別到新的或顯著改變的對權利或安全的風險時,機構必須採取措施減輕這些風險,包括適當時通過更新人工智能來減少其風險或實施程序性或手動的緩解措施,例如更嚴格的人工干預要求。由於重大修改使本節中其他最低實踐的現有實施變得不那麼有效,例如通過使訓練或文檔不準確,機構必須適當地更新或重複這些實踐。當人工智能對權利或安全的風險超過可接受水平且緩解策略無法充分減少風險時,機構必須儘快停止使用人工智能。^42

    • G. 確保充分的人員培訓和評估。機構必須確保對人工智能的操作者進行足夠的培訓、評估和監督,以解釋和應對人工智能的輸出,解決任何人機協作問題(例如自動化偏見),並確保系統的基於人的組成部分有效管理來自使用人工智能的風險。培訓應由機構確定的週期性基礎上進行,並應針對所操作的人工智能產品或服務以及其使用方式進行具體化。

    • H.提供額外的人類監督、干預和責任,作爲可能對權利或安全造成重大影響的決策或行動的一部分。機構必須評估其影響權利和影響安全的使用 AI 的方式,以識別任何不允許 AI 在沒有額外人類監督、干預和責任的情況下行動的決策或行動。當對於這樣的行動或決策不切實際地需要即時人類干預時,機構必須確保 AI 功能有一個適當的失敗安全措施,以最小化造成重大傷害的風險。^43

    • I. 提供公共通知和簡明語言文檔。機構必須確保,在適用法律和政府範圍內的指導方針許可的情況下,包括關於隱私保護、敏感執法、國家安全及其他受保護信息的保護,AI 的使用案例庫條目提供了使用簡明語言的功能性文檔,作爲對其用戶和公衆的公共通知。在人們與依賴 AI 的服務互動並可能受到 AI 影響時,機構還必須提供合理和及時的通知^44 關於 AI 的使用,並提供直接訪問使用案例庫中有關它的任何公共文檔的方法。在機構的使用案例不包含在它們的公共庫中時,它們可能仍然需要向 OMB 報告相關信息,並必須確保在使用 AI 時適當地保持透明度,且與適用法律一致。

  • v. 對影響權利的人工智能的額外最低實踐標準。不遲於 2024 年 12 月 1 日,機構必須遵循上述對於可能影響安全或權利的 AI 的最低實踐標準。此外,不遲於 2024 年 12 月 1 日,在開始使用新的或現有的影響權利的 AI 之前,機構還必須遵循這些最低實踐標準:
    • A. 識別並評估 AI 對公平與公正的影響,並在存在算法歧視時予以緩解。機構必須:

    • B. 諮詢並納入受影響社區和公衆的反饋。符合適用法律和政府範圍內的指導,機構必須諮詢受影響的社區,包括服務不足的社區,並且在適當的情況下,他們必須徵求公衆反饋,用於人工智能的設計、開發和使用,並利用此類反饋來通知機構關於人工智能的決策。諮詢和反饋過程必須包括尋求關於機構實施本備忘錄第 5(c) 節所規定的最低風險管理實踐的方法的輸入,如適用的選擇退出程序。機構應該在像欺詐預防和執法調查等上下文中考慮和管理公衆諮詢的風險,在這些情況下,與目標個體協商是不切實際的,但與代表性團體協商可能是合適的。^45機構被強烈鼓勵從受影響的社區特別是,以及從廣泛的公衆那裏持續徵求反饋,尤其是在對 AI 或其使用的條件或上下文進行重大修改之後。^46 在評估此類反饋的過程中,如果一家機構確定在給定的上下文中使用 AI 會帶來更多的壞處而非好處,該機構則不應使用 AI。爲了進行此類諮詢和反饋過程,機構必須採取適當步驟,徵詢受 AI 影響的社區和個人的意見,這可能包括:^47

    1. 直接的可用性測試,例如觀察用戶與系統的互動;
    2. 向公衆一般徵求意見,例如在聯邦公報中發佈的信息請求,或者一個帶有開放式回應空間的“告訴我們您的經歷”表格;
    3. 事務完成後客戶反饋收集;^48
    4. 公開聽證會或會議,例如聽證會;
    5. 對相關聯邦僱員團體和聯邦勞工組織的外聯,包括在適用的情況下,關於集體談判義務的適當履行;或
    6. 任何其他透明過程,旨在以一種有意義的、公平的、可訪問的和有效的方式,從受影響羣體中徵求公衆意見、評論或反饋。
    7. 在使用包含受聯邦非歧視法律保護的類別信息(如,種族、年齡等)的數據時,識別並記錄在其 AI 影響評估中。鑑於當 AI 可能將人口統計信息與其他類型的信息相關聯時所產生的風險,機構應該還評估並記錄 AI 模型是否可以預見地使用其他屬性作爲受保護特徵的代理,並且這樣的使用是否會顯著影響模型性能;
    8. 在現實世界環境中評估人工智能,以確定人工智能模型是否在不同人羣組中的表現(例如,準確性、精確度、預測結果的可靠性)存在顯著差異;
    9. 緩解導致或持續非法歧視、有害偏見,或因政府使用人工智能導致公平性降低的不平等現象;以及
    10. 與適用法律一致,如果機構無法充分緩解與受保護羣體非法歧視相關的任何風險,停止使用人工智能進行機構決策。機構應保持適當的文件記錄以配合此決策,並應在與適用法律及政府廣泛政策一致的情況下,向公衆披露。
  • _ 不遲於 2024年12月1日,並在使用新的或現有的影響權利的人工智能時持續進行,機構必須確保遵循以下針對人工智能的實踐:

    • C. 對人工智能啓用的歧視進行持續監控和緩解。作爲第 5(c)(iv)(D) 節中建立的持續監控要求的一部分,機構還必須監控對權利產生影響的人工智能,特別是評估和減輕針對受保護類別的人工智能驅動的歧視,包括可能由於不可預見的情況、系統部署後的更改,或者使用上下文或相關數據的更改而產生的歧視。如果無法充分減輕,則機構必須安全地停止使用人工智能功能。

    • D. 通知受負面影響的個人。與適用法律和政府範圍內的指導方針相一致,當使用人工智能結果導致針對特定個人的不利決定或行動時,例如拒絕福利或認定交易爲欺詐行爲,機構必須通知這些個人。^49 機構應考慮其通知的時機,以及在人工智能使用的上下文中,何時適宜通過多種語言和替代格式及渠道提供通知。通知還必須包括一種清晰易懂的聯繫機構的方法,並在適用的情況下,向個人提供關於他們的上訴權利的信息。機構還必須遵守提供此類決定和行動解釋的任何現有義務。^50

    • E. 維持人類考量和補救過程。在可行的情況下,與適用法律和政府範圍內的指導方針一致,如果適當,機構必須爲人工智能的使用提供及時的人類考量和潛在補救措施,通過一個回退和升級系統,以防受影響個人希望上訴或對人工智能對他們的負面影響提出異議。已經維護有關不利行動或機構官員實質性或程序性錯誤的上訴或第二次人工審查流程的機構,可以酌情利用和擴展這些流程,或建立新的流程以滿足此要求。這些補救流程不應給受影響的個人帶來不必要的負擔,機構應遵循 OMB 的指導計算行政負擔。^51 當機構由於法律、政府範圍內的指導或不切實際而無法提供個人申訴的機會時,他們必須創建適當的替代機制,以進行人類對 AI 的監督。

    • F. 維持選擇退出人工智能(AI)決策的選項。機構必須提供並維護一種機制,以便個人在可行的情況下,並且與適用的法律及政府範圍內的指導一致時,方便地選擇退出 AI 功能,轉而採用人類的替代方案。選擇退出機制必須顯眼、隨時可用且易於訪問,特別是在受影響的人們合理期望有一個替代方案的情況下,或者缺乏替代方案會顯著限制服務的可用性或造成不必要的有害影響的情況下,這一點尤爲關鍵。機構還應尋求確保選擇退出機制本身不會對訪問政府服務強加歧視性負擔。如果 AI 功能僅用於預防、檢測和調查欺詐^52 或網絡安全事件,或進行刑事調查,則機構無需提供選擇退出的能力。根據第 5(c)(ii) 節中定義的豁免權威力,如果 CAIOs 能夠證明人類替代方案將導致服務不那麼公平(例如,對受保護的類別產生不同的影響)或者選擇退出將給機構帶來不必要的困難,他們還被允許豁免此選擇退出要求。

d. 管理聯邦採購人工智能的風險

本節爲機構提供了負責任採購 AI 的建議,補充了機構對於影響權利的 AI 和影響安全的 AI 所必需的風險管理實踐。除了這些建議,並且與《推進美國 AI 法案》第 7224(d) 條和行政命令 14110 第 10.1(d)(ii) 條一致,OMB 也將開發初步方法以確保聯邦合同採購 AI 系統或服務與本備忘錄中的指導方針保持一致。

  • i. 符合法律。機構應確保採購的 AI 與憲法一致,並遵守所有其他適用的法律、法規和政策,包括那些涉及隱私、保密性、智慧財產權、網絡安全、人權和公民權利以及公民自由的規定。

  • ii. 透明度和性能提升。機構應採取措施確保其採購的人工智能的透明度和充分的性能,包括通過:

    • A. 獲取足夠的文檔以評估人工智能的能力,例如通過使用模型、數據和系統卡片;
    • B. 獲取 AI 已知限制的充分文檔和有關係統預期使用方式的任何指南;
    • C. 獲取用於訓練、微調或操作人工智能所使用的數據的來源的充分信息;
    • D. 定期評估聯邦承包商關於其人工智能產品有效性以及已採取的風險管理措施的聲明,包括在機構預期部署該能力的特定環境中測試人工智能;
    • E. 考慮制定合同條款,激勵採購的 AI 持續改進;
    • F. 在產品或服務採購的情境中適當時,要求對 AI 進行足夠的後獎勵期監控。
  • iii. 促進 AI 採購中的競爭。機構應採取適當措施以確保聯邦 AI 採購實踐促進承包商之間的競爭機會,並不會不當地鞏固現有地位。這些措施可能包括促進互操作性,以便例如,採購的 AI 能夠跨多個雲環境工作,同時確保供應商不會不當地偏袒自家產品而損害競爭者的產品。

  • iv. 最大化數據的價值用於人工智能。在針對人工智能產品和服務的合同中,機構應將相關數據以及對該數據的改進——例如清洗和標註——視爲其人工智能成熟度的關鍵資產。機構應採取措施確保他們的合同爲政府保留足夠的數據權利以及對這些數據的任何改進,以避免供應商鎖定,並促進政府持續的人工智能設計、開發、測試和運營。此外,機構應考慮制定合同條款,以保護供應商在開發和運營針對聯邦政府的人工智能產品和服務時使用的聯邦信息,以使此類數據免遭未經授權的披露和使用,並且不能在未經該機構明確許可的情況下,被隨後用於訓練或改善供應商的商業產品功能。

  • v. 針對已知測試數據的過擬合。當使用開發者可能訪問到的數據對人工智能進行測試時 —— 包括機構本身已經共享或發佈的測試數據 —— 機構應適當確保,他們的人工智能開發者或供應商沒有直接依賴測試數據來訓練他們的人工智能系統。

  • vi. 負責任地採購用於生物特徵識別的人工智能。在採購使用人工智能通過生物標識符識別個人的系統時 —— 例如,面部、虹膜、指紋或步態 —— 鼓勵機構:A. 評估和解決訓練或操作人工智能所用數據可能未被合法收集或使用,或者可能不足以支持可靠的生物特徵識別的風險。這包括生物信息是在沒有適當同意的情況下收集的,最初是爲了另一個目的而收集的,嵌入了不希望的偏見,或者是在未對包含的身份進行驗證的情況下收集的風險;以及 B. 請求支持文檔或測試結果來驗證人工智能匹配身份的準確性、可靠性和有效性。

  • vii. 負責任地採購生成式人工智能。鼓勵各機構在生成式人工智能的合同中包含風險管理要求,尤其是對於雙重用途的基礎模型,包括:

    • A. 要求進行充分的測試和保障措施,
    • B. 要求提供內部或外部測試和評估的結果,包括對生成式人工智能風險的 AI 紅隊測試,如歧視性、誤導性、煽動性、不安全或欺騙性輸出;
    • C. 要求生成式 AI 模型在技術可行的情況下,適當地具備可靠地標記或爲其內容建立出處的能力,以表示內容是由 AI 生成或修改的;以及
    • D. 在適當的情況下,納入相關 NIST 標準,這些標準是根據行政命令 14110 的第 4.1(a) 節和第 10.1(d) 節定義的。
  • viii. 評估環境效率和可持續性。當採購計算密集型 AI 服務時,例如那些依賴雙重用途基礎模型的服務,機構應該考慮這些服務的環境影響,包括供應商是否已實施方法來提高這類 AI 的效率和可持續性。這應該包括考慮支持數據中心的碳排放和資源消耗。

6. 定義

下列定義適用於本備忘錄的目的。

可訪問性:術語“可訪問性”的含義在行政命令 14035 的第 2(e) 節中提供。

機構:術語“機構”在 44 U.S.C. § 3502(1) 中的含義。

算法歧視:術語“算法歧視”在 2023 年 2 月 16 日的行政命令 14091 中第 10(f) 節提供了定義。

人工智能(AI):術語“人工智能”的定義見於2019財年約翰·S·麥凱恩國防授權法案第238條(g)部分,其中指出:“術語‘人工智能’包括以下內容”:

  1. 任何在變化不定和不可預測的情況下執行任務、無需大量人工監督的人造系統,或能夠從經驗中學習並在接觸數據集時提高性能的系統。
  2. 在計算機軟件、物理硬件或其他環境中開發的人工系統,解決需要類似人類的感知、認知、計劃、學習、交流或物理行動的任務。
  3. 一個旨在思考或行動像人類的人工系統,包括認知架構和神經網絡。
  4. 一組旨在近似一個認知任務的技術,包括機器學習。
  5. 一種旨在理性行動的人工系統,包括使用感知、規劃、推理、學習、溝通、決策和行動來實現目標的智能軟件代理或具體化機器人。

爲了本備忘錄的目的,以下技術背景應指導對上述定義的解釋:

  1. 這一定義的人工智能涵蓋但不限於人工智能的技術子領域,包括機器學習(包括深度學習以及監督學習、非監督學習和半監督學習方法)、增強學習、遷移學習和生成性人工智能。

  2. 此定義的 AI 不包括機器人流程自動化或其他系統,這些系統的行爲僅由人定義的規則決定,或僅通過完全如實重複觀察到的實踐來學習。

  3. 根據此定義,由於缺乏技術複雜性(例如,模型中的參數數量較少、模型的類型或用於訓練目的的數據量),不應將任何系統視爲過於簡單而不符合被認定爲受管控 AI 的資格。

  4. 此定義包括完全自治、部分自治和非自治系統,同時也包括既可在人類監督下運行也可在無人監督下運行的系統。

AI 和 AI -Enabling Roles:術語 “AI 和 AI -Enabling Roles” 指的是擔任職位和主要職責的個人,其貢獻對於成功和負責任的 AI 成果至關重要。AI 和 AI -Enabling Roles 包括技術性和非技術性的角色,例如數據科學家、軟件工程師、數據工程師、數據治理專家、統計學家、機器學習工程師、應用科學家、設計師、經濟學家、運營研究員、產品經理、政策分析師、項目經理、行爲與社會科學家、客戶體驗策略師、人力資源專家、合同官員、經理和律師。

AI 成熟度:術語 “AI 成熟度” 指的是聯邦政府機構將 AI 成功且負責任地採用到其運營和組織內的決策中、管理其風險,並遵守與 AI 相關的聯邦法律、法規和政策的能力。

AI 模型:術語“AI 模型”的含義如行政命令 14110 第 3(c) 節所提供。

AI 紅隊測試:術語“AI 紅隊測試”的定義與行政命令 14110 第 3(d) 節中提供的“AI 紅隊測試”的定義相同。

應用研究:所謂“應用研究”是指爲了獲得新知識、確定實現特定實際目標或目的的方法而進行的原始調查。

自動化偏差:術語“自動化偏差”是指人類過度青睞來自自動化決策系統的建議,並忽略或未能尋找未經自動化的相反信息的傾向

基礎研究:術語“基礎研究”指的是主要爲了獲取現象和可觀察事實的基礎知識而進行的實驗或理論工作,而沒有考慮針對過程或產品的具體應用。

CFO 法案機構:術語 “CFO 法案機構” 指的是在 31 U.S.C. § 901(b) 中確定的機構。

自定義開發代碼:術語“自定義開發代碼”在 OMB 備忘錄 M-16-21 的附錄 A 中提供了定義。

客戶體驗:該術語“客戶體驗”具有行政命令 14058.55 第 3(b) 節中確定的含義。

數據資產:該術語“數據資產”具有 44 U.S.C § 3502 中提供的含義。

雙重用途基礎模型:“雙重用途基礎模型”一詞的含義,請參見行政命令 14110 第 3(k) 節中的規定。

公平性:術語“公平性”在行政命令 14091.56 的第 10(a) 節中有所定義。

聯邦信息:術語“聯邦信息”在 OMB 循環 A-130 中有所定義。

生成式 AI :術語“生成式 AI ”在行政命令 14110 的第 3(p) 節中有所定義。

情報界:術語“情報界”具有 50 U.S.C. § 3003 中提供的含義。

模型權重:該術語在《行政命令 14110》第 3(u) 節中的定義。

開放政府數據資產:術語“開放政府數據資產”在 44 U.S.C § 3502 中的定義。

開源軟件:術語“開源軟件”的定義見 OMB 備忘錄 M -16-21 附件 A。

影響權利的人工智能:“影響權利的人工智能”指其輸出作爲關於具有法律、物質、約束性或類似重大影響的特定個人或實體的決策或行動的主要依據的人工智能:

  1. 民權、公民自由或隱私,包括但不限於言論自由、投票、人類自主權以及保護免受歧視、過度懲罰和非法監控的權利;
  2. 平等機會,包括平等獲取教育、住房、保險、信貸、就業以及其他適用民權和平等機會保護的程序;或
  3. 訪問或申請關鍵政府資源或服務的能力,包括醫療保健、金融服務、公共住房、社會服務、交通以及基本商品和服務。

AI 使用風險:術語 “AI 使用風險” 指的是與效能、安全性、公平性、公正性、透明度、問責性、適當性或法律性有關的風險,這些風險源自於使用 AI 來通知、影響、做出決定或執行該決定或行動。這包括以下情況下的風險,無論:

  1. AI 僅僅是通知決定或行動、部分自動化它,還是完全自動化它;
  2. 是否有人類對決策或行動的監督;
  3. 決策或行動是否輕易可見,例如當一個 AI 應用執行一個後臺任務或默默拒絕採取行動時;或
  4. 參與決策或行動的人類或受其影響的人是否意識到 AI 如何或在何種程度上影響或自動化了決策或行動。

雖然這些風險的具體形式不斷演變,但至少以下因素可能會製造、促成或加劇這些風險:

  1. AI 輸出不準確或具有誤導性;
  2. 不可靠、無效或缺乏魯棒性的 AI 輸出;
  3. 具有歧視性或產生歧視效果的 AI 輸出;
  4. 貢獻於 導致 有害或不安全後果 的 動作或決策 的 人工智能輸出,包括 降低人們採取故意和有害行爲的門檻的 人工智能輸出;
  5. AI 被用於不適合的任務,或在未被設計的情境中被不當地重新利用;
  6. 在受影響人羣合理期望人類應主要負責決策或行動的背景下使用人工智能;以及
  7. 對人工智能的對抗性逃避或操縱,例如一個實體故意誘導人工智能錯誤分類輸入。

此定義適用於特定源自使用 AI 引起的風險,影響決策或行動的結果。它不包括與 AI 相關的所有風險,例如與用於訓練 AI 或用作 AI 模型輸入的數據的隱私、安全性和保密性相關的風險。

影響安全的人工智能:“影響安全的人工智能”是指其輸出產生的行爲或作爲一個決定的主要依據,有可能對以下方面的安全產生重大影響:

  1. 人的生命或福祉,包括生命損失、嚴重傷害、身體傷害、生物或化學傷害、職業風險、騷擾或虐待、或心理健康,包括這些傷害對個人和社區的影響;
  2. 氣候或環境,包括不可逆轉或重大的環境損害;
  3. 關鍵基礎設施,包括在總統政策指令 2159 或任何後續指令中定義的關鍵基礎設施領域以及投票和保護選舉完整性的基礎設施;或,
  4. 戰略資產或資源,包括高價值財產和被聯邦政府標記爲敏感或機密的信息。

重大修改:術語“重大修改”指的是對 AI 應用程序或其使用條件或環境的更新,這種更新在實質上改變了 AI 對權利或安全的影響,比如通過改變其功能、底層結構或性能,使得之前的評估、培訓或文檔對用戶、監管者或受系統影響的個人而言變得誤導性。這包括顯著改變 AI 使用的環境、範圍或預定目的。

邊緣羣體:術語“邊緣羣體”在 行政命令 14091 的第 10(b) 節中有所定義。

附錄 I:被假定爲影響安全和權利的人工智能(AI)的應用目的

OMB 已確定本附錄中的類別通常符合影響安全的人工智能(AI)或影響權利的人工智能的定義,並自動被假定爲影響安全 或影響權利。以下列表僅識別了影響權利和安全的人工智能應用的一個子集,並不代表一個詳盡的列表。此外,按照第 5 節概述的流程,一個機構的 CAIO 可以在提供充分理由的情況下,免除下列列表中特定人工智能應用將影響權利或安全的假定。

  1. 被推定爲影響安全的用途。如果人工智能的使用在現實世界條件下,被用於或預期用於控制或顯著影響以下任何一項機構活動或決策的結果,則被推定爲影響安全:

    • a. 控制大壩、緊急服務、電網、能源的生成或移動、消防系統、食品安全機制、交通控制系統以及其他控制物理轉移的系統、水和廢水系統、或核反應堆、材料和廢物的安全關鍵功能;
    • b. 維護選舉及投票基礎設施的完整性;
    • c. 控制工作場所、學校、住宅、交通、醫療或執法環境中機器人或機械臂的物理移動;
    • d. 應用動力學力量;釋放生物或化學制劑;或釋放可能造成損害的電磁脈衝;
    • e. 自主或半自主移動的車輛,無論是在陸地上、地下、海上、空中,還是在太空;
    • f. 控制有害化學品或生物製劑的運輸、安全、設計或開發;
    • g. 控制工業排放和環境影響;
    • h. 運輸或管理工業廢物或其他受控污染物;
    • i. 設計、構造或測試工業設備、系統或結構,如果它們失效,將對安全構成重大風險;
    • j. 執行醫療設備的醫學相關功能;提供醫學診斷;確定醫療治療;提供醫療或保險健康風險評估;提供藥物成癮風險評估或確定獲得藥物的權限;進行自殺或其他暴力行爲的風險評估;檢測或預防心理健康問題;爲干預措施標記患者;在公共保險的背景下分配護理;或控制健康保險成本和承保;
    • k. 檢測危險武器的存在或暴力行爲;
    • l. 選擇召喚急救人員應對緊急情況;
    • m. 控制對政府設施的訪問或安全性;或
    • n. 確定或執行根據制裁、貿易限制或對出口、投資或航運的其他控制的執法行動。
  2. 被假定爲影響權利的用途。如果人工智能的使用在現實世界條件下被用於或預期用於控制或顯著影響以下任何機構活動或決策的結果,則被假定爲影響權利的用途:

    • a. 屏蔽、刪除、隱藏或限制受保護言論的傳播;
    • b. 在執法環境中,製作關於個體的風險評估;預測犯罪再犯;預測犯罪者;識別犯罪嫌疑人或預測作案者的身份;預測犯罪受害者;預測犯罪;檢測槍聲;在公共空間隨時間跟蹤個人車輛,包括使用車牌讀取器;進行生物特徵識別(例如,虹膜、面部、指紋或步態匹配);素描面孔;基於遺傳信息重構面孔;監控社交媒體;監視監獄;法醫分析犯罪證據;進行法醫遺傳學研究;在調查過程中進行網絡入侵;對個人進行物理位置監控或跟蹤;或做出與判刑、假釋、監督釋放、緩刑、保釋、審前釋放或審前拘留有關的決定;
    • c. 決定或提供與移民、庇護或拘留狀態相關的風險評估;提供有關計劃前往或已進入美國及其領土的個人的移民相關風險評估;通過生物識別或通過監控社交媒體和其他在線活動,決定個人的邊境通行或對聯邦移民相關服務的訪問權限;出於移民和拘留相關目的監控個人的物理位置;或預測個人的遷移活動;
    • d. 在公共可訪問空間進行生物特徵識別,用於一對多識別;
    • e. 在人類中檢測或測量情緒、思想、障礙或欺騙;
    • f. 未經明確同意,複製一個人的肖像或聲音;
    • g. 在教育環境中,檢測學生作弊或剽竊;影響招生過程;監控學生在線或虛擬現實中的行爲;預測學生的進步或結果;推薦紀律干預措施;決定對教育資源或項目的訪問權限;決定學生資助或聯邦教育的資格;或促進監視(無論是在線還是面對面)。
    • h. 篩選租戶;在公共住房的背景下監控租戶;爲房屋提供估價;承保抵押貸款;或決定住房保險的獲取權限或條款;
    • i. 確定就業條款或條件,包括就業前篩選、合理調整、薪資或晉升、績效管理、招聘或解僱、推薦紀律處分;執行任務時間跟蹤;或進行工作場所監控或自動化人事管理;
    • j. 執行 醫療設備 的相關醫療功能;提供醫療診斷;確定醫療治療;提供醫療或保險健康風險評估;提供藥物成癮風險評估或決定藥物使用權限;進行自殺或其他暴力行爲的風險評估;檢測或預防心理健康問題;爲干預措施標記患者;在公共保險情境下分配護理;或控制健康保險成本和承保;33
    • k. 分配貸款;決定金融系統訪問權限;信用評分;決定誰將接受金融審計;進行保險決策和風險評估;確定利率;或確定財務處罰(例如,扣發工資或扣留退稅);
    • l. 關於獲取、符合條件或撤銷關鍵政府資源或服務的決策;通過生物識別或其他方式(例如,簽名匹配)允許或拒絕訪問 IT 系統以獲取福利服務;檢測政府服務的欺詐性使用或嘗試使用;在政府福利的背景下分配處罰;
    • m. 爲官方溝通目的在語言之間進行翻譯,其中響應具有法律約束力;在沒有合格口譯員或翻譯員在場的情況下,爲直接影響機構決策或行動的互動提供實時語言解釋或翻譯;或
    • n. 提供有關收養匹配、兒童保護行動、推薦兒童監護權、判斷父母或監護人是否適合獲得或保留兒童監護權,或爲老年人或殘疾人提供保護措施的建議、決策或風險評估。

附件二:綜合行動表

負責實體行動內容截止日期
各機構指派一名機構首席 AI 官員並通知 OMB3(a)(i)60 天
各行動機構CFO召集機構 AI 治理委員會3(a)(ii)60 天
各機構向 OMB 提交併公開發佈一個機構計劃,以實現與本備忘錄的一致性,或書面確定該機構不使用並且不預期使用所覆蓋的 AI3(a)(iii)180 天以及之後每兩年直至 2036
各行動機構CFO制定並公開發布一項機構策略,以消除對使用 AI 的障礙,並推進機構 AI 成熟度4(a)(i)365 天
每個機構**公開發布擴展的 AI 使用案例庫並報告未包含在公開庫中的使用案例的指標3(a)(iv),
3(a)(v)每年

每個機構*分享並釋放 AI 代碼、模型和數據資產,視情況而定4(d)持續進行
每個機構*停止使用任何安全影響或權利影響的 AI,如果這些 AI 未遵守第 5(c) 節並且未獲得延期或豁免5(a)(i)2024 年 12 月 1 日 (可能延期)
每個機構*認證根據第 5(c) 節和 5(b) 節授予的豁免和決定的持續有效性,並公開發佈一個摘要,詳述每項及其理由5(a)(ii)2024 年 12 月 1 日及之後每年
每個機構*定期對使用中的任何安全影響和權利影響的 AI 進行風險審查5(c)(iv)(D)至少每年一次及在重大修改後
每個機構*向 OMB 報告根據第 5(b) 節作出的任何決定或根據第 5(c) 節授予的任何豁免5(b);5(c)(iii)持續進行,在授予豁免權後的 30 天內

* 排除 情報界 的元素。

** 排除情報界的元素。國防部免除了盤點個別用例要求的義務。