从Google人工智能DeepMind团队的AlphaGo的论文算法提取的学习方法:大脑逻辑结构图
贝叶斯定理考虑的是 P(A|B)是在B发生的情况下A发生的可能性。在现实中,事件A受多个事件的影响,还可能受上一次事件A本身的影响(反馈)。
可以写成 人工智能通用反馈公式y=f(x,y1),其中y1=f(x)。它是强化学习和自我学习的基础。
从AlphaGo的论文算法 提取的人工智能学习方法
第一层 价值判断
重要的----百里挑一 ,去掉99%无用的。
第二层 快速响应(简单)和深度理解(复杂)
简单:常见的,固定的逻辑
复杂:卷积神经网络(分层拆分计算,求无限接近值)+蒙特卡洛树搜索(选重要节点向后推断,得到最优值)
第三层 强化学习
决策下一步 赏罚激励
第四层 专家网络
并入已有认知网络(归类)
第五层 自我提升
反向更新 自我学习
像不像我们的大脑?
你出门转一圈,并不会像摄像机一样记下所有东西,而是你会选择你认为重要的关注(价值判断)。
如果这条路你走了无数遍,你不会迷路,会快速找到你要逛的店(快速响应),这条路又熟悉了一遍(强化学习)。
但如果你走到了一条你从来没走过的街,遇到了不同的人,不同的房子,不同的植物等等,你可能很感兴趣。在看的同时,你会把这些特征试图理解(深度理解),贴上标签,存入你已有的认知体系(专家网络)。
你对周围越敏感,越在意,思考的越深(规则、算法、分层越多,拆分的越细,计算的时间越长),贴的标签越多,记住的东西越完整(深度理解)。
等下次再遇到时,你就会快速地(快速响应)知道,那人我曾经在哪遇到过。
如果这条新街,初次来就给你很多乐趣(赏罚激励),你下次肯定优先来这里逛。
你的价值判断会自动把这条街升级为最值得逛的街(反向更新,在五个层次里都会更新)。同时你还不断回忆这段快乐时光(自我学习)。