李宏毅学习笔记——21.Explainable ML(1_8)

1.概论:Explainable ML

1.1 是个啥

  • Explainable ML主要就是告诉你,为什么会这样。
  • 主要分为两种:
    local explanation:why does the NN think this image is a cat?
    global explanation:what does the NN think a cat look like?

1.2 为什么有Explainable ML
我们在用机器判断履历的时候,你得知道它是根据什么判断的,是具体能录呢还是性别。而且模型好坏的判断不能只根据正确率,不然就会像开始讲的神马汉斯的故事一样,什么都没有学到。通过机器告诉我们哪里学的好,哪里学的不好,来有的放矢的update我们的modle
李宏毅学习笔记——21.Explainable ML(1_8)
1.3李宏毅老师的观点:

  • 这并不等于完全了解一个模型,完全了解一个模型并不是必要
  • Explainable ML的目标就是让人高兴,就是为了人存在的,让人觉得爽
  • 针对不同的人,提供给不同的解释

1.4模型可解释v.s模型强大
有些模型好解释,但是不够powerful。比如线性模型。
深度学习模型难解释,但是非常powerful。因为深度是一个黑盒子,所以要想办法解释它
李宏毅学习笔记——21.Explainable ML(1_8)
有那种又可以解释又强大的modle吗?
decision tree是可以做到的
给你举个生物分类的例子
李宏毅学习笔记——21.Explainable ML(1_8)
复杂的decision tree,还可以由很多树组合为森林,因此decision tree的可解释性也不是很好。因此,本课从两个方面来学习ML的可解释性。
李宏毅学习笔记——21.Explainable ML(1_8)