課程簡介

AI 紅隊介紹

  • 理解 AI 威脅格局
  • 紅隊在 AI 安全中的角色
  • 道德與法律考量

對抗性 Machine Learning

  • 攻擊類型:逃避、毒化、提取、推論
  • 生成對抗性示例(例如 FGSM、PGD)
  • 目標與非目標攻擊及成功指標

測試模型穩健性

  • 評估在擾動下的穩健性
  • 探索模型盲點與失敗模式
  • 壓力測試分類、視覺與 NLP 模型

AI 管道的紅隊測試

  • AI 管道的攻擊面:數據、模型、部署
  • 利用不安全的模型 API 和端點
  • 逆向工程模型行為與輸出

模擬與工具

  • 使用對抗性穩健性工具箱(ART)
  • 使用 TextAttack 和 IBM ART 等工具進行紅隊測試
  • 沙盒、監控與可觀測性工具

AI 紅隊策略與防禦 Collaboration

  • 制定紅隊演習與目標
  • 向藍隊傳達發現結果
  • 將紅隊測試整合到 AI 風險管理中

總結與下一步

最低要求

  • 对机器学习和深度学习架构的理解
  • 具备Python和ML框架(如TensorFlow、PyTorch)的经验
  • 熟悉网络安全概念或攻击性安全技术

受众

  • 安全研究人员
  • 攻击性安全团队
  • AI保证和红队专业人员
 14 時間:

人數


每位參與者的報價

Upcoming Courses

課程分類