剑客
关注科技互联网

[译]为什么机器人三定律拯救不了我们从谷歌的 AI — — 加里解释了

社会往往经历了根本性的变化,主要涉及到人的企图掌握自己生活于其中的世界。我们有工业革命、 空间和信息时代。我们现在是时代的一个新,机器的崛起濒临。人工智能技术已经在我们的日常生活中起着的作用。我们可以问问谷歌现在如果明天会下雨,我们可以听写消息的人,拥有先进的驾驶艾滋病已经在生产汽车。下一步将驱动程序的车辆,然后谁知道。

它来到 AI 时,重要的是理解什么称为微弱的 AI 和强人工智能的区别。你能找到的很多细节的区别这两个在我的文章和视频将出现的 AI 意味着世界末日吗?简而言之︰ 微弱的 AI 是模仿智能行为,但不能说有头脑或有自我意识的计算机系统。它的对面是强的 AI,并被赋予了一种心灵、 自由意志、 自我意识、 意识和知觉系统。强 AI 不模拟自我意识到被 (像微弱的 AI),它是自我认识。虽然微弱的 AI 将模拟的理解或抽象思考,强的 AI 是实际上能够理解和抽象的思维。等等。

强大的人工智能是只是一种理论,有很多人都不认为可以创建这种实体。强的 AI 的特点之一是自由意志。任何拥有一颗心的实体必须有自由意志。建筑师把它放在影片中黑客帝国重装上阵,”作为你充分投入,问题是选择。我喜欢把它放这种方式。与弱 AI 的自动驾驶汽车和一个与强人工智能的区别是,当你问弱的 AI 车,来收集你的购物商场,它立即服从,因为它只是遵循其编程。但是当你问强 AI 车过来拿你,它可能会回答,”不,我看最新的杰森 · 伯恩电影”。它有一个选择,自己的想法。

为什么机器人三定律拯救不了我们从谷歌的 AI — — 加里解释了

机器人三定律

在许多电影里探讨了强人工智能的危险,特别感兴趣的图书,银翼杀手和突破重围,像电影和像我,从艾萨克 · 阿西莫夫机器人系列的故事。它是机器人的从后者我们得到所谓三大定律︰

  1. 机器人必须不伤害人类,或袖手旁观坐视人类受到伤害。
  2. 机器人必须服从人类除非违背第一定律。
  3. 机器人必须保护自己的存在,只要这种保护和第一或第二个法律并不冲突。

现在我们来处理伦理和道德。但在进一步讨论之前,值得指出的机器人三定律普及的讽刺。受欢迎的小说是很值得,规则是辉煌的文学手法,然而他们创建只有一个目的,以表明他们如何才能打破。大多数的机器人故事是关于应用三个法律和它们是如何在实际上不明确和容易产生误解的问题。三个法律明文规定非常第一个故事是关于一个机器人,它服从法律二和第三之间徘徊不前。它结束了在圈子里跑来跑去。

为什么机器人三定律拯救不了我们从谷歌的 AI — — 加里解释了

很多阿西莫夫的故事围绕着三个法律如何解释。例如,叫喊”迷失”在一个机器人,它会那样做。法律不明确地禁止在撒谎,所以如果一个机器人认为人类将”受到伤害”听取真相然后机器人会撒谎。最终的想法,一个人不应该来伤害,被解释以及人类必须不受到伤害,所以你得到的不可避免的机器人革命,人类的好。

“来伤害”甚至意味着什么?吸烟是法律在世界各地,很多地方的然而它是无可争辩地有害。心脏病、 癌症和呼吸系统疾病都与吸烟有关。在我自己的家庭,我有近亲属遭受心脏病发作,完全是因为他们的吸烟习惯的人。然而它是合法的和大企业。如果机器人三定律应用到机器人然后它必须由必要性出去走走拉从人的嘴里的香烟。然而,它是唯一合乎逻辑的行动,一是不能容忍的吸烟者一般 !

垃圾食品怎么样?吃垃圾食品对你不好,它伤害你。你可以辩论的数量有必要,但如果机器人三定律被建立了入一个机器人,它必须服从第一定律又每当它看到肥胖的人吃不健康食品,它将被迫采取行动,阻止他们。

为什么机器人三定律拯救不了我们从谷歌的 AI — — 加里解释了

依法 2,”机器人必须服从的命令由人类。”它必须是卑躬屈膝。但哪些人?3 岁的孩子是一项人权。由于机器人定律不封装任何想法的正确和错误、 淘气还是乖 (除了对人类造成的伤害) 然后一个 3 岁的孩子很容易会问机器人要向上和向下跳上沙发 (作为一个游戏),但它最终会捣毁沙发。怎么样问机器人不会伤害任何人的犯罪吗?

作为人类,我们每天处理伦理和道德问题,一些很容易就可以解决,但是其他人更难。有些人认为道德作为灵活和流体。100 年前是可以接受的东西现在是不能接受。反之亦然,在过去,被禁忌的东西今天可以看到作为合理或甚至一样东西值得庆祝。机器人三定律不包括一个道德指南针。

下一代的 AI

这要与下一代的 AI 做了什么?AI 系统可以玩棋盘游戏或听懂的话他们都很有趣和有用作为第一步,然而最终的目标是大得多的东西。今天的 AI 系统执行特定的任务,他们专业。然而一般微弱的 AI 来了。无人驾驶汽车是一般微弱的 AI 的第一步。虽然他们仍然专门,因为它们建立安全驾驶车辆从 A 点到 B 点,他们有泛化的潜力。例如,一旦 AI 是移动它有更多的用处。驱动程序的车为什么需要只可运载乘客?为什么不只是发送它去从驱动器通过收集的东西。这意味着它将独立与世界互动和作出的决定。起初这些决策将微不足道。如果驱动器通过关闭进行维护,这辆车现在有一种选择,回家后一无所有或进入下一个最近的免下车。如果这只是 1 英里远的话那将会是一个好的决定,但如果它是 50 英里,它该怎么办?

其结果将是这些弱的 AI 系统会了解世界的现实,50 英里距离太远的汉堡,但如果孩子需要从一家药店的药吗?起初这些 AI 系统将推迟人类做出这些决定。一个简短的电话,从其内置的蜂窝系统将允许人类所有者告诉它来回家或去进一步。然而由于 AI 系统变得更广义然后一些这些决定将采取自动。

越大级别的复杂性然后击中道德问题的几率就越大。是不是可以打破的速度限制,快速把孩子弄到急诊室?是不是可以跑过一条狗,以挽救人的生命吗?如果突然刹车会使车打滑失控,可能杀死我们居住者,有应不适用刹车情况下吗?

为什么机器人三定律拯救不了我们从谷歌的 AI — — 加里解释了

当前的 AI 系统使用学习算法来积累经验。通过学习我们的意思是,”如果计算机程序可以改善它是如何执行一项任务通过使用以前的经验,那么你可以说它已经学会了。还有更多的技术定义,您可以找到在我的文章和视频机器学习是什么?

对于像去的棋盘游戏,AlphaGo 系统演奏的数以百万计的游戏和”汲取”经验什么行得通,什么行不通,它建造对策基于以往的经验。然而这种经验是上下文当然无道德的维度。

弱的 AI 系统都已经在改变我们在网上看到的操作。社会媒体网站剪裁饲料基于我们”首选项”。有现在用作的招聘过程中,一部分的 AI 工具如果 AI 不喜欢你的简历,你不要被叫面试 !我们知道 Google 已经过滤劝导市民远离恐怖宣传,其搜索结果有可能是弱的 AI 系统参与这一进程在某个地方。目前这些系统的道德和伦理输入来自人类。然而,它是不可回避的现实,在某个时候的弱 AI 系统将学习 (通过推理) 某些道德和伦理的原则。

总结

问题是这样,可以从一个数据集学习道德原则吗?

在视频中的介南解释︰

  • 为什么机器人三定律拯救不了我们从谷歌的 AI — — 加里解释了
  • 为什么机器人三定律拯救不了我们从谷歌的 AI — — 加里解释了
  • 为什么机器人三定律拯救不了我们从谷歌的 AI — — 加里解释了
  • 为什么机器人三定律拯救不了我们从谷歌的 AI — — 加里解释了
  • 为什么机器人三定律拯救不了我们从谷歌的 AI — — 加里解释了
  • 为什么机器人三定律拯救不了我们从谷歌的 AI — — 加里解释了

那问题的答案的一部分已涉及有关的数据集本身的讨论。另一个部分的答案需要我们审视道德的本质,有的事情我们知道,是对与错,不基于我们的经验,但基于某些内置的绝对。此外,我们需要如实地看看如何人们想要表现 (他们是如何看待自己在他们最好的一天) 之间的差异和它们实际上的行为。它是公平地说人类体验的一部分可以总结了像这样,”我有希望做什么是正确的但并不总是履行它的能力。

这是底线,机器人三定律尽量减少道德、 伦理和三个简单的单词正确与错误的区别︰ 伤害、 服从和自我保护的本能。这种做法是过于简单和这些词语的定义是太不限成员名额的任何真正的用途。

最终我们将需要包括各个层次的道德投入我们创建的弱人工智能机器,然而,输入将需要更多复杂和刚性比机器人三定律。

你有什么想法?我们应该担心未来的 AI 系统的道德指南针吗?如果你想要我再聊这个话题那么请去其中我已开始一个线程的 Android 的权威论坛。

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址