2018-3-24论文(Grey Wolf Optimizer)note1----------No Free Lunch Theorem

就像我们中小学学习函数的时候,老师总会给我们说一句:

”一定要把定义域写上,不写不给分,不写定义域谁知道是那种情况”

类比到算法中也是如此,也就是今天的NFL理论:

《机器学习》第一章1.4小结,有证明:

http://www.tup.tsinghua.edu.cn/upload/books/yz/064027-01.pdf

2018-3-24论文(Grey Wolf Optimizer)note1----------No Free Lunch Theorem

 2018-3-24论文(Grey Wolf Optimizer)note1----------No Free Lunch Theorem

2018-3-24论文(Grey Wolf Optimizer)note1----------No Free Lunch Theorem

2018-3-24论文(Grey Wolf Optimizer)note1----------No Free Lunch Theorem

2018-3-24论文(Grey Wolf Optimizer)note1----------No Free Lunch Theorem

《机器学习》最后总结的文字: 所以,NFL定理最重要的寓意,是让我们清楚的认识到,脱离具体问题,空泛的谈论“什么学习算法更好”是毫无意义的,因为若烤炉所有潜在的问题,则所有学习算法都一样好。要谈论算法的在相对优劣,必须要针对具体学习问题,在某些问题上表现好的学习算法,在另一些问题上可能不尽人意。学习算法自身的归纳偏好与问题时候相配,往往起到决定性作用。

另外的资源:

Some Comments on Gradient-Free Optimization

2018-3-24论文(Grey Wolf Optimizer)note1----------No Free Lunch Theorem

一个合格的研究应该严格的界定自己算法的适用范围