关于机器学习,统计学习算法

问题描述:

我在IEEE交易的一个软件学习关于机器学习,统计学习算法

阅读这些线路

“研究人员采用了众多不同的技术来构建软件故障预测模型,其中包括各种差异混乱统计技术如逻辑回归和朴素贝叶斯明确地构建了一个潜在的概率模型,此外,不同的机器学习技术,如决策树,基于感知器概念的模型,支持向量机以及未明确构建预测模型的技术但相反看一组最相似的 已知案件也已被调查。

任何人都可以解释他们真的想传达什么。 请举例。 Thanx提前。

+0

并非所有的内容都汇总在_“...构建一个预测模型**而是看看一组最相似的已知案例......”_。让我们设想挑选一个糖果:第一种情况是你收集它的属性,喂食一个模型,**计算**一个预测结果(类似于你建模时所做的事情,例如,一个电子元件和你的预测或模拟它的输出)。在第二种情况下,你选择一个糖果,你** **比较**与众所周知的糖果列表,当你找到最相似的一个,然后你有你的比赛,你知道预期的结果。 – 2014-11-06 11:37:28

+0

我敢打赌,不同之处在于作者对这些模型的理解。另一个人可以对它们进行不同的分类。 – 2014-11-06 12:38:22

作者似乎区分概率模型与非概率模型,即产生分布p(output | data)的模型与仅产生输出output = f(data)的模型。尽管如此,非概率算法的描述对我来说有点奇怪。 (线性)支持向量机,感知器和逻辑回归模型和算法角度之间的差异并不是很大。暗示前者“看一组最相似的已知案例”,而后者似乎并不奇怪。

作者似乎是区分计算每类概率的模型(从中可以推导出分类规则以将输入分配给最可能的类,或者更复杂的是,将输入分配给具有最小误分类成本)以及那些直接将输入分配给类而不经过每类概率的结果作为中间结果。

分类任务可以被视为一个决策问题;在这种情况下,需要每类概率和错误分类成本矩阵。我认为这种方法在很多关于机器学习的文章中都有描述,例如Br​​ian Ripley的“模式识别和神经网络”以及Hastie,Tibshirani和Friedman的“统计学习元素”。

作为一个元评论,您可能会对stats.stackexchange.com上的这个问题获得更多的关注。