課程簡介

理解政府環境中的AI特定風險

  • AI風險與傳統IT和數據風險的區別。
  • AI風險的類別:技術、運營、聲譽和道德。
  • 政府中的公共問責和風險認知。

AI風險管理框架

  • NIST AI風險管理框架(AI RMF)。
  • ISO/IEC 42001:2023 — AI管理系統標準。
  • 其他行業特定和國際指南(如OECD、UNESCO)。

AI系統的安全威脅

  • 對抗性輸入、數據中毒和模型反轉。
  • 敏感訓練數據的暴露。
  • 供應鏈和第三方模型風險。

治理、審計和控制

  • 人在迴路和問責機制。
  • 可審計的AI:文檔、版本控制和可解釋性。
  • 內部控制、監督角色和合規檢查點。

風險評估和緩解計劃

  • 爲AI使用案例建立風險登記冊。
  • 與採購、法律和服務設計團隊合作。
  • 進行部署前和部署後評估。

事件響應和公共部門韌性

  • 應對AI相關事件和泄露。
  • 與利益相關者和公衆溝通。
  • 將AI風險實踐嵌入網絡安全手冊。

總結與下一步

最低要求

  • 在政府機構中具有IT運營、風險管理、網絡安全或合規經驗。
  • 熟悉組織安全實踐和數字服務交付。
  • 無需具備AI系統的技術專業知識。

受衆

  • 參與數字服務和系統集成的政府IT團隊。
  • 公共機構中的網絡安全和風險專業人員。
  • 公共部門的審計、合規和治理人員。
 7 時間:

人數


每位參與者的報價

客戶評論 (1)

即將到來的課程

課程分類