可解释人工智能 (XAI)新发展|LIME和SHAP原理和数学建模视频教程

 -1

本课程详细介绍了可解释人工智能 (XAI) 的最新发展。我们对人工智能模型的依赖与日俱增,解释人工智能如何以及为何做出特定决定也变得同样重要。最近的法律也引起了解释和捍卫人工智能系统做出的决定的紧迫性。本课程讨论使用 Python 来可视化、解释和构建值得信赖的 AI 系统的工具和技术。

本课程涵盖 LIME(Local Interpretable Model Agnostic Explanations)、SHAP(SHapley Additive exPlanations)的工作原理和数学建模,用于生成本地和全局解释。它讨论了对反事实和对比解释的需求、工作原理和各种技术的数学建模,例如用于生成可操作的反事实的各种反事实解释 (DiCE)。

人工智能公平性和生成视觉解释的概念通过 Google 的假设工具 (WIT) 进行了介绍。本课程涵盖了用于生成神经网络解释的 LRP(分层相关传播)技术。

在本课程中,您将学习使用 Python 来可视化、解释和构建可信赖的 AI 系统的工具和技术。该课程涵盖各种案例研究,以强调可解释技术在关键应用领域中的重要性。

所有技术都通过实践课程进行解释,以便学习者可以清楚地理解代码并将其轻松应用于他们的 AI 模型。用于实现各种 XAI 技术的数据集和代码提供给学习者以供他们练习。

MP4 | 视频:h264, 1280×720 | 音频:AAC,44.1 KHz,2 Ch
类型:eLearning | 语言:英语 + srt | 时长:56 节课(7 小时 56 米)| 大小:3.07 GB

你会学到什么

  • XAI 在现代世界中的重要性
  • 玻璃盒、白盒和黑盒ML模型的区别
  • 根据范围、不可知性、数据类型和解释技术对 XAI 进行分类
  • 准确性和可解释性之间的权衡
  • 应用 Microsoft 的 InterpretML 包生成 ML 模型的解释
  • 需要反事实和对比的解释
  • LIME、SHAP、DiCE、LRP、反事实和对比解释等 XAI 技术的工作原理和数学建模
  • 应用 LIME、SHAP、DiCE、LRP 等 XAI 技术为表格、文本和图像数据集的黑盒模型生成解释。
  • 来自 Google 的假设分析工具,用于分析数据点并生成反事实

要求

无需编程经验。您将学习应用 XAI 为 ML 模型生成解释所需知道的一切。

本课程适用于谁

  • 参加机器学习课程或人工智能课程的学生
  • 希望在人工智能领域谋生的学生
  • 已经具备机器学习库基础知识的 Python 初学者。
  • 已经使用 Python 构建 AI 模型并且可以从学习最新的可解释 AI 技术以生成对其模型的解释中受益的研究人员
  • 想要了解使用 Python 进行机器学习模型的可解释 AI 工具和技术的数据分析师和数据科学家。
原文链接:https://vuesite.cn/21212.html,转载请注明出处。
0
显示验证码
没有账号?注册  忘记密码?