西瓜书《机器学习》中机器学习的可解释性总结

1

  • 显然,分类边界的每一段都是与坐标轴平行的这样的分类边界使得学习
    结果有较好的可解释性

西瓜书《机器学习》中机器学习的可解释性总结
2

  • 神经网络是一种难解释的"黑箱模型",但已有一些工作尝试改善神经
    网络的可解释性,主要途径是从神经网络中抽取易于理解的符号规则,百 参阅
    [Tickle et al., 1998; Zhou, 2004]
    3
  • 贝叶斯网为不确定学习和推断提供了基本框架,因其强大的表示能力、
    良好的可解释性而广受关注 [Pearl 1988].
    4
  • 由于集成包含多个学习器,即使个体学习器有较好的可解释性,集成仍是
    黑箱模型.已有一些工作试图改善集成的可解释性,例如将集成转化为单模
    型、从集成中抽取符号规则等,这方面的研究衍生出了能产生性能超越集成
    的单学习器的"二次学习" (twice-learning) 技术,例如 NeC4.5 算法 [Zhou and
    Jia吨, 2004]. 可视化技术也对改善可解释性有一定帮助
    eg:可视化:西瓜书《机器学习》中机器学习的可解释性总结
    5,
  • 稀疏表示与字典学习
    .特征选择所考虑的问题是特征具有"稀疏性"?即矩阵中的许多列与
    当前学习任务无关,通过特征选择去除这些列,则学习器训练过程仅需在较小的矩阵上进行,学习任务的难度可能有所降低?涉及的计算和存储开销会减少,学得模型的可解释性也会提高.

选自:
周志华《机器学习》