課程簡介

Explainable AI (XAI) 和模型透明度簡介

  • 什麼是可解釋的 AI?
  • 為什麼透明度在 AI 系統中很重要
  • AI 模型中的可解釋性與性能

XAI 技術概述

  • 與模型無關的方法:SHAP、LIME
  • 特定於模型的可解釋性技術
  • 解釋神經網路和深度學習模型

構建透明的 AI 模型

  • 在實踐中實現可解釋模型
  • 比較透明模型與黑盒模型
  • 平衡複雜性與可解釋性

高級 XAI 工具和庫

  • 使用 SHAP 進行模型解釋
  • 利用 LIME 實現本地可解釋性
  • 模型決策和行為的可視化

解決公平、偏見和道德 AI 問題

  • 識別和減少 AI 模型中的偏見
  • AI 的公平性及其社會影響
  • 確保 AI 部署中的問責制和道德規範

XAI 的實際應用

  • 醫療保健、金融和政府領域的案例研究
  • 解釋 AI 模型以實現監管合規性
  • 通過透明的 AI 系統建立信任

可解釋 AI 的未來方向

  • XAI 的新興研究
  • 為大型系統擴展 XAI 的挑戰
  • 透明 AI 的未來機遇

總結和後續步驟

最低要求

  • 機器學習和 AI 模型開發經驗
  • 熟悉 Python 程式設計

觀眾

  • 數據科學家
  • 機器學習工程師
  • AI 專家
 21 時間:

人數


每位參與者的報價

Upcoming Courses

課程分類