感謝您提交詢問!我們的一位團隊成員將在短時間內與您聯繫。
感謝您提交預訂!我們的一位團隊成員將在短時間內與您聯繫。
課程簡介
AI威胁建模简介
- AI系统为何容易受到攻击?
- AI攻击面与传统系统的对比
- 关键攻击向量:数据、模型、输出和接口层
针对AI模型的对抗攻击
- 理解对抗样本和扰动技术
- 白盒攻击与黑盒攻击
- FGSM、PGD和DeepFool方法
- 可视化和制作对抗样本
模型反演与隐私泄露
- 从模型输出推断训练数据
- 成员推断攻击
- 分类和生成模型中的隐私风险
数据投毒与后门注入
- 投毒数据如何影响模型行为
- 基于触发的后门和木马攻击
- 检测与净化策略
鲁棒性与防御技术
- 对抗训练与数据增强
- 梯度掩码与输入预处理
- 模型平滑与正则化技术
隐私保护AI防御
- 差分隐私简介
- 噪声注入与隐私预算
- 联邦学习与安全聚合
AI Security实践
- 威胁感知的模型评估与部署
- 在应用场景中使用ART(对抗鲁棒性工具箱)
- 行业案例研究:真实世界的数据泄露与缓解措施
总结与下一步
最低要求
- 了解機器學習工作流程和模型訓練
- 具備Python和常見ML框架(如PyTorch或TensorFlow)的經驗
- 熟悉基本安全或威脅建模概念會有所幫助
目標受眾
- 機器學習工程師
- 網絡安全分析師
- AI研究人員和模型驗證團隊
14 時間: