西瓜书《机器学习》中机器学习的可解释性总结
1
- 显然,分类边界的每一段都是与坐标轴平行的这样的分类边界使得学习
结果有较好的可解释性
2
- 神经网络是一种难解释的"黑箱模型",但已有一些工作尝试改善神经
网络的可解释性,主要途径是从神经网络中抽取易于理解的符号规则,百 参阅
[Tickle et al., 1998; Zhou, 2004]
3 - 贝叶斯网为不确定学习和推断提供了基本框架,因其强大的表示能力、
良好的可解释性而广受关注 [Pearl 1988].
4 - 由于集成包含多个学习器,即使个体学习器有较好的可解释性,集成仍是
黑箱模型.已有一些工作试图改善集成的可解释性,例如将集成转化为单模
型、从集成中抽取符号规则等,这方面的研究衍生出了能产生性能超越集成
的单学习器的"二次学习" (twice-learning) 技术,例如 NeC4.5 算法 [Zhou and
Jia吨, 2004]. 可视化技术也对改善可解释性有一定帮助
eg:可视化:
5, - 稀疏表示与字典学习
.特征选择所考虑的问题是特征具有"稀疏性"?即矩阵中的许多列与
当前学习任务无关,通过特征选择去除这些列,则学习器训练过程仅需在较小的矩阵上进行,学习任务的难度可能有所降低?涉及的计算和存储开销会减少,学得模型的可解释性也会提高.
选自:
周志华《机器学习》