課程簡介

AI威胁建模简介

  • AI系统为何容易受到攻击?
  • AI攻击面与传统系统的对比
  • 关键攻击向量:数据、模型、输出和接口层

针对AI模型的对抗攻击

  • 理解对抗样本和扰动技术
  • 白盒攻击与黑盒攻击
  • FGSM、PGD和DeepFool方法
  • 可视化和制作对抗样本

模型反演与隐私泄露

  • 从模型输出推断训练数据
  • 成员推断攻击
  • 分类和生成模型中的隐私风险

数据投毒与后门注入

  • 投毒数据如何影响模型行为
  • 基于触发的后门和木马攻击
  • 检测与净化策略

鲁棒性与防御技术

  • 对抗训练与数据增强
  • 梯度掩码与输入预处理
  • 模型平滑与正则化技术

隐私保护AI防御

  • 差分隐私简介
  • 噪声注入与隐私预算
  • 联邦学习与安全聚合

AI Security实践

  • 威胁感知的模型评估与部署
  • 在应用场景中使用ART(对抗鲁棒性工具箱)
  • 行业案例研究:真实世界的数据泄露与缓解措施

总结与下一步

最低要求

  • 了解機器學習工作流程和模型訓練
  • 具備Python和常見ML框架(如PyTorch或TensorFlow)的經驗
  • 熟悉基本安全或威脅建模概念會有所幫助

目標受眾

  • 機器學習工程師
  • 網絡安全分析師
  • AI研究人員和模型驗證團隊
 14 時間:

人數


每位參與者的報價

Provisional Upcoming Courses (Require 5+ participants)

課程分類