課程簡介

AI與安全基礎

  • 從安全角度來看,AI系統的獨特之處
  • AI生命週期概述:數據、訓練、推理和部署
  • AI風險的基本分類:技術、道德、法律和組織

AI特定威脅向量

  • 對抗性示例和模型操縱
  • 模型反轉和數據洩漏風險
  • 訓練階段的數據中毒
  • 生成式AI的風險(例如,LLM濫用、提示注入)

安全Risk Management框架

  • NIST AI Risk Management框架(NIST AI RMF)
  • ISO/IEC 42001和其他AI特定標準
  • 將AI風險映射到現有的企業GRC框架

AIGo治理與合規原則

  • AI的問責性和可審計性
  • 透明度、可解釋性和公平性作為安全相關屬性
  • 偏見、歧視和下游危害

企業準備和AI Security政策

  • 定義AI安全計劃中的角色和責任
  • 政策要素:開發、採購、使用和退役
  • 第三方風險和供應商AI工具使用

監管環境與全球趨勢

  • 歐盟AI法案和國際監管概述
  • 美國關於安全、可靠和可信AI的行政命令
  • 新興國家框架和行業特定指南

可選工作坊:風險映射與自我評估

  • 將現實世界的AI用例映射到NIST AI RMF功能
  • 進行基本的AI風險自我評估
  • 識別AI安全準備中的內部差距

總結與下一步

最低要求

  • 對基本網絡安全原則的理解
  • 具備IT治理或風險管理框架的經驗
  • 熟悉一般AI概念有幫助,但不是必須的

目標受眾

  • IT安全團隊
  • 風險管理人員
  • 合規專業人員
 14 時間:

人數


每位參與者的報價

Provisional Upcoming Courses (Require 5+ participants)

課程分類