找回密码
 会员注册
查看: 32|回复: 0

AI可解释性(Python语言版)书籍推荐

[复制链接]

5

主题

0

回帖

16

积分

新手上路

积分
16
发表于 2024-9-3 00:41:21 | 显示全部楼层 |阅读模式
文章目录内容简介作者简介书籍目录内容简介《AI可解释性(Python语言版)》全面介绍了AI可解释性的概念和可用技术,使机器学习系统更易于解释。书中提出的方法可以应用于几乎所有现有的机器学习模型:线性和逻辑回归、深度学习神经网络、自然语言处理和图像识别等等。随着机器学习的发展,如今人们越来越多地使用人工智能体来执行以前由人类处理的关键任务(医疗、法律和金融等等)。虽然智能体的设计原则已被理解,但目前的大多数深度学习模型对人类理解而言是“不透明的”。《AI可解释性(Python语言版)》从理论和实践的角度填补了这个新兴主题文献方面的空白,使读者能够快速地使用可解释性AI的工具和代码。京东:https://item.jd.com/13376227.html作者简介LeonidaGianfagna博士是一位理论物理学家,目前在网络安全领域工作,担任CyberGuru的研发总监。在加入CyberGuru之前,他在IBM工作了15年,担任ITSM(IT服务管理)软件开发的领导。Leonida发表了多篇理论物理和计算机科学的论文,被授予IBM发明大师(IBMMasterInventor)。AntonioDiCecco是一位理论物理学家,拥有强大的数学背景。他完全致力于提供从入门到专家等不同层次的线上或线下AIML教育,使用深入挖掘AIML模型的数学基础的教育方法,并打开了新的角度来展示AIML知识和现有技术的改进空间。Antonio还拥有专注于创新和教学经验的经济学硕士学位。他还是一家意大利人工智能学院的领导,该学院在罗马和佩斯卡拉都有分支机构。译者:郭涛,主要从事模式识别与人工智能、智能机器人、软件工程、地理人工智能(GeoAI)和时空大数据挖掘与分析等前沿交叉技术的研究。翻译出版了《复杂性思考:复杂性科学与计算模型(第2版)》《神经网络设计与实现》和《概率图模型及计算机视觉应用》等畅销书。书籍目录第1章 前景11.1AI可解释性示例21.1.1学习阶段31.1.2知识发现41.1.3可靠性和鲁棒性51.1.4三个示例的启示51.2ML和XAI61.2.1ML分类法81.2.2常见误解111.3对AI可解释性的需求121.4可解释性与可理解性:是否为表达相同事物的不同词语141.4.1从物质世界到人类151.4.2相关性不是因果性161.4.3那么可理解性和可解释性的区别是什么191.5使ML系统具备可解释性211.5.1XAI工作流程211.5.2全局视觉241.6我们真的需要ML模型的可解释性吗261.7小结28参考文献29第2章 AI可解释性:需求、机遇和挑战312.1人工介入322.1.1半人马座XAI系统322.1.2从“人工介入”的角度评估XAI352.2如何使ML模型具备可解释性372.2.1内在可解释性412.2.2事后可解释性442.2.3全局或局部可解释性462.3解释的性质492.4小结51参考文献52第3章 内在可解释性模型533.1损失函数543.2线性回归573.3逻辑回归673.4决策树783.5K最近邻算法(KNN)873.6小结90参考文献91第4章 XAI的模型不可知方法934.1全局可解释性:排序重要性与部分依赖图944.1.1根据排序重要性将特征排序954.1.2训练集中的排序重要性994.1.3部分依赖图1004.1.4解释的性质1044.2局部可解释性:XAI与Shapley加法解释1064.2.1Shapley值:一种博弈论方法1074.2.2SHAP的首次应用1084.2.3解释的性质1114.3KernelSHAP1114.3.1Shapley公式1124.3.2如何计算Shapley值1124.3.3局部线性代理模型(LIME)1134.3.4KernelSHAP是一种特殊的LIME1154.4KernelSHAP与交互1164.4.1纽约出租车情境1164.4.2通过初步分析训练模型1164.4.3用KernelShap使模型具备可解释性1204.4.4特征交互1204.5提升树的更快速SHAP1224.5.1TreeShap的应用1224.5.2提供解释1234.6对SHAP的朴素评价1254.7小结127参考文献128第5章 解释深度学习模型1295.1不可知方法1305.1.1对抗性特征1305.1.2增强方法1325.1.3将遮挡用作增强方法1335.1.4将遮挡用作不可知XAI方法1345.2神经网络(NN)1385.2.1神经网络结构1385.2.2为什么神经网络是深层网络(与浅层网络相对)1405.2.3修正激活(和批量归一化)1425.2.4显著图1435.3打开深度网络1445.3.1不同层解释1445.3.2CAM(类激活图,ClassActivationMaps)和Grad-CAM1445.3.3DeepShap/DeepLift1465.4对显著性方法的评判1505.4.1网络所见1505.4.2可解释性逐层批量标准化1515.5无监督方法1525.5.1无监督降维1525.5.2卷积滤波器降维1545.5.3激活图集:如何区分炒锅与煎锅1565.6小结158参考文献159第6章 用ML和XAI创造科学1616.1数据时代的科学方法1626.2因果关系阶梯1666.3用ML和XAI发现物理概念1726.3.1自动编码器的魔力1736.3.2利用ML和XAI发现阻尼摆的物理特性1776.3.3攀登因果关系阶梯1816.4ML和XAI时代的科学1826.5小结184参考文献185第7章 对抗性机器学习和可解释性1877.1对抗性示例(AE)速成课程1887.2使用对抗性示例运行XAI2017.3用XAI抵御对抗性攻击2057.4小结208参考文献209第8章 关于XAI可持续模型的建议2118.1XAI“FilRouge”2128.2XAI和GDPR2148.3结语2208.4小结224参考文献224附录 F.A.S.T.XAI认证227
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 会员注册

本版积分规则

QQ|手机版|心飞设计-版权所有:微度网络信息技术服务中心 ( 鲁ICP备17032091号-12 )|网站地图

GMT+8, 2025-1-13 17:34 , Processed in 1.588513 second(s), 25 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表