課程簡介

AI在企業中的應用:戰略與法律視角

  • AI在核心業務功能中的應用:機遇與風險
  • 高層管理人員在AI治理中的責任
  • 高風險AI系統與組織暴露

AI風險分類與全球監管環境

  • EU AI法案:風險等級、要求與處罰
  • 美國AI行政命令與新興聯邦/州法規
  • AI相關合規性:包括GDPR、HIPAA及其他框架
  • ISO/IEC 42001、NIST AI RMF、OECD AI原則概述

AI系統的安全與監管

  • AI安全態勢:威脅、漏洞與防護措施
  • AI驅動工作流程中的事件應對與違規通知
  • 模型輸入、決策與輸出的審計與追溯

負責任的AI採購與供應商風險

  • 採購AI工具時的盡職調查(包括LLMs與APIs)
  • 關鍵合同要素:數據所有權、模型可解釋性、SLAs
  • 評估供應商聲明:偏見緩解、隱私保證、安全性

內部Go治理框架與組織控制

  • 制定跨部門的AI使用政策
  • 倫理委員會、風險審查委員會與跨職能監管
  • 培訓、文件與合規整合

Use Case評估與風險情境

  • 評估高影響用例(如HR篩選、財務評分、客戶服務機器人)
  • AI風險評估的工具與模板
  • 情境:錯位、漂移、幻覺、歧視

新興趨勢與未來考量

  • 預期監管演變與全球趨同
  • GenAI特定風險與治理擴展
  • 企業中AI操作的負責任擴展

總結與下一步

最低要求

  • 了解企業風險、法律或技術框架
  • 具備執行領導、網絡安全或合規監督的經驗
  • 無需具備AI開發的技術知識

受眾

  • 首席信息安全官 (CISOs)
  • 法律顧問與合規官
  • 首席技術官 (CTOs)
 14 時間:

人數


每位參與者的報價

Provisional Upcoming Courses (Require 5+ participants)

課程分類