指导人工智能,期望的四条规则都有什么

对于任何技术来说,世界是否太混乱了?技术是否揭示出事物比最初想象的更加混乱和无法控制?人工智能,机器学习和相关技术可能正在强调阿尔伯特爱因斯坦几十年前所认识到的:“我学的越多,我就越意识到我不知道多少。”

指导人工智能,期望的四条规则都有什么

(想自学习编程的小伙伴请搜索圈T社区,更多行业相关资讯更有行业相关免费****。完全免费哦!)

当在企业及其他领域采用最新的分析时,即使是最好的技术 - 预测算法,人工智能 - 也无法解释甚至揭示影响事件和趋势的复杂性和相互作用。这就是哈佛大学的David Weinberger所说的,他在他的最新着作中解释说,人工智能,大数据,科学和互联网都揭示了一个基本事实:事情比我们允许自己看到的更复杂和不可预测。

“如果我们足够努力并且思考得足够清楚,宇宙就会产生它的秘密,因为宇宙是可以知道的,因此至少在某种程度上可以根据我们的意愿进行调整,”我们与宇宙的未经陈述的合同就已经存在,“Weinberger在Everyday Chaos中写道:技术,复杂性,以及我们如何在可能性的新世界中蓬勃发展。“但是现在我们的工具,特别是机器学习和互联网,正在为我们带来大量的数据和信息,我们开始接受世界的真正复杂性远远超过我们设计的法律和模型解释一下。“

具有讽刺意味的是,我们正在创造的系统能够让人对世界有所了解 - 比如机器学习和深度学习 - 只会创造更多的神秘感。为了说明这一现象,温伯格点,深病人,由西奈山医院在纽约,2015年深病人出现的AI程序送入医疗记录700,000例为混乱的数据,没有框架来组织它或任何指示,就如何应该使用数据。然而,即使只有三个不完整的部分需要分析,深度患者能够比医生更准确地诊断患者患某些疾病的可能性。

Deep Patient的成功只有一个 - 没有人知道为什么或如何得出它的结论。“情境变量的数量和复杂性意味着深度患者根本不能总是将其诊断解释为其人类可以理解的概念模型,”Weinberger说。
Weinberger说,底线是人工智能和自动化的成功源于接受和利用所提供的结果,而不是试图破译输入这些系统的数据背后的解释。如果A / B测试显示网站上的文字导致的流量超过照片展示位置,请使用它。

Weinberger概述了在机器学习和深度学习应用方面应该引导我们期望的四条道路规则:

  • 优先考虑AI系统的工作流程,但将其留给AI来确定结果的生成方式。 今天的深度学习模式“不是由人类创造的,至少不是直接创造的。人类选择数据并将其输入,人类将系统推向目标,人类可以通过调解来调整权重和结果。但人类并不一定能说出来。机器有什么特色要寻找。因为深度学习的模型可能不是基于我们为自己构建的模型,它们对我们来说是不透明的。“
  • 抛弃塑造期望的旧模型。“深度学习模型并非以简化原则为前提,而且没有理由认为它们总能产生它们。”
  • 我们不应该理解人工智能决策的基础。“深度学习系统不必将世界简化为人类可以理解的东西,”Weinberger说。“我们旧的,简化的模型只不过是对几磅大脑的粗略猜测,试图理解一切都与一切有关并受其影响的领域。”
  • 最终,它是关于数据的。“与一切相关的一切都意味着机器学习的模型可以不断变化。机器学习模型的变化可以通过对新数据进行再培训来实现。实际上,一些系统不断学习。”

当然,一个问题是,当需要质疑或分析偏见时,是否要相信AI输出。虽然Weinberger的书并未解决人类偏见问题正在被人工智能算法直接引入 - 这是整本书本身的主题 - 他指出人类的偏见会找到结果,这说明我们自己的缺点。人们寻求可解释性“以防止人工智能使我们的偏见文化和系统比人工智能之前更糟。保持人工智能不会重复,放大和执行现有的偏见是一个巨大且极其重要的挑战。”

无论我们的决策变得多么自动化,批判性思维 - 人类批判性思维 - 仍然需要经营企业和机构。人类需要能够覆盖或质疑AI系统的输出,特别是如果过程是不透明的。从现在开始,这是一项关键技能,需要完成每项工作,每项培训计划和每门课程。

原文链接:https://www.forbes.com/sites/joemckendrick/2019/04/29/four-rules-to-guide-expectations-of-artificial-intelligence/?ss=ai-big-data#2391029176cc