智能机器人会灭亡人类吗?

理由
举报 取消

人工智能已经成为霍金AMA的主题。霍金在今年夏天会同乔姆斯基和伊隆·马斯克等人发布公开信,要求对人工智能发展实施更大的监督,其中主要针对目标是美军无人机。

就在前几天,霍金扩大了这份公开信的范围,霍金开始展望更远的未来,霍金说,恶意的机器人和AI不会对人类造成威胁,他担心聪明能干的AI会让人类灭亡。霍金表示,一个超级聪明的AI可以非常好地实现它的目标,如果这些目标都没有与我们人类一致,我们人类就麻烦了。

换句话说,如果AI确实消灭人类,它更可能是用间接伤害的方式,而不是一些科幻片当中的直接铲除人类的情节。这就是为什么霍金等人继续坚持人类对AI发展的监管和控制。

2017年7月2日 10 条回复 1212 次浏览

发起人:周诺 管理新人

不免费写文案的文案。微信:NowayZhou.

回复 ( 10 )

  1. 数据哥
    理由
    举报 取消

    我先说下我的忧虑,当然可能有点杞人忧天啦!

    现在,许多国家都把大数据上升到了很高的战略地位,这意味着大数据可能得到前所未有的发展。

    其次,人工智能技术其实发展速度大家有目共睹,各种各样的智能设备层出不穷,就现在而言,人们对智能手机的依赖程度已经非常高了。

    再次,现在黑科技发展的速度在时间上越来越短,很难说某天可能某个天才诞生,然后一下子技术又上一个台阶

    ……

    人工智能发展下去,我们有没有可能就像黑客帝国那样?欢迎大家加我们信微 idacker 交流。

  2. 格瑞亚的空气
    理由
    举报 取消

    到时候人类生命肯定会进化成新生命形式,很有可能人工智能本身就是新人类的一种类别。

    而旧人类肯定会灭绝。

  3. Moxos Yuri
    理由
    举报 取消

    人工智能需要的资源和人类又不一样,没必要非得把人类赶尽杀绝。

    以后纯人类老实呆在地球上就行,宇宙探索交给ai和其他新人类就是了。

  4. 主脑
    理由
    举报 取消

    看你如何定义人工智能,如果你指的是一种“能力比人类强大并且是真实存在能独立思考的生命”只要换位思考一下就知道人类的结局。如果只是在一定范围内的“智能”比如帮人类完成大多数事情但是没有独立思考能力的那种,我想应该是生产力的大进步吧。

  5. 敏感的风景
    理由
    举报 取消

    那样,证明机器人比人类更高贵,人类灭亡正是我的夙愿。

  6. jason wang
    理由
    举报 取消

    智能机器人会毁灭人类吗?

    其实这是个非常复杂的问题,在回答之前我们先来明确下几个概念

    什么是智能机器人:虽然最近人工智能这个概念开始被大众普遍熟知,也被很多媒体反复提及

    但到底什么是人工智能呐,让我来详细解释下:

    现在科学界普遍定义人工智能是一种拟人的智能,也就是说所有的思维方式都是复刻人类的模式,人类的智能是一个非常复杂的集合体,计算机最早模拟了人类的 ” 计算 ”能力—-ALU (arithmetic and logic unit ),“记忆”能力—-RAM/ROM/Hard Disk,然后又模拟了 “ 感知 ”—–传感器(sensor),包括近几年出现的 ” 深度学习 ”能力—-Deep Learning. 这些都是对人类智能的一种模拟。

    接下来就引出了下一个问题—-人类智能和人工智能最大的区别在于哪里:答案是情感和意识

    情感使人类能够有喜恶和偏向性,而意识则让人类能够区分现实和想象。为什么要提到这两个概念,是因为在众多科幻电影中,人工智能毁灭人类就是因为产生了自我意识及情感,他们认为人类是邪恶的或是多余的,所以干掉了人类。

    但事实上,在现实生活中,人工智能如果要毁灭人类,很可能并不是以这种形式,原因在于:

    情感对于人工智能来说并不是必需品,这可以说是人类智能的附属品,有了情感并不能使我们更智能,只是会让我们更不可预测,但这对于机器来说显然没有必要赋予,也不应该赋予。

    意识这个东西就更玄乎了,人类科学家到现在都没有搞清楚意识是什么,更不要说赋予机器意识了,唯一的可能是在不知情的情况下机器突然产生了自我意识,而这个可能性至少在很长的时间内微乎其微,且这个问题并不及我将要说到的问题紧迫

    既然科幻电影里的情况并不太可能发生,

    那么人工智能是不是很安全了那?

    答案是NO !!!

    大写的NO!!!

    早在人工智能还只是一个科幻概念的时候,美国著名科幻小说作家艾萨克·阿西莫夫就在其1950年发表的小说《I,Robot》(对,就是威尔史密斯演的那部电影的原著)中提出了著名的机器人三大定律:

    第一法则:机器人不得伤害人类,或坐视人类受到伤害;

    第二法则:除非违背第一法则,机器人必须服从人类的命令;

    第三法则:在不违背第一及第二法则下,机器人必须保护自己。

    这个三大定律之间的内在逻辑其实很严谨,且一旦被作为代码写入人工智能机器人的程序,就好比人类的基因一样,机器人就会像人类饿了要吃东西,困了要睡觉一样,严格遵守这些定律(除非他们可以修改自己的代码,同样的,这个问题并不及以下的问题紧迫),不必担心他们会违背这些定律,那么问题是什么那?

    问题就在于第一条定律本身,机器人很可能无法准确判断!

    无法判断的问题有二,我们分别举例说明:

    问题一:哪个人类比较重要?

    什么意思,就好比说机器人它当然能够知道它不可以随意殴打人类,哪怕它再强壮,再刀枪不入;

    同样它看到有人落水了,他会第一时间去救援他,哪怕它可能在水中会报废。但是有一种情况会出现问题,那就是如果需要他抉择救谁,或者伤害谁!

    举个栗子:比如现在有两个人同时落水,但只有一个机器人,他的能力只够救起一个,他救谁?再比如,有一个机器人保镖,它的主人遭到攻击,他是否应该反击哪?无论反击不反击,他都必须伤害人类。当然,以上这些问题还不至于灭绝人类,但是看下面这种情况,如果现在基地组织头目拥有一些机器人,先不考虑恐怖分子是否会改写机器人代码,哪怕就是一个普通的严格遵守三大定律的机器人,如果世界上大多数政府对其主人进行不断围剿的情况下,他是否会判断,毁灭这些国家是保护人类(它的主人)的方法?如果他足够强大,那么会发生什么那?细思极恐啊。机器人没有价值观,这个是最可怕的,它的一切基于逻辑。这个其实类似于一个经典悖论问题—-电车难题,不知道的可以百度一下,人类尚且存在争议,机器人就更难判断了。

    问题二:不直接伤害人类是否就意味着不会伤害人类?

    这个问题看上去有些拗口。举个栗子:机器人的智能越来越高,它已经不满足于在危害发生时保护人类,它准备要防患于未然。于是它先大举消灭了很多毒蛇害虫,暂时看似不错(其实这个行为本身破坏了生态系统,并不一定是好的),接着他发现每年西班牙会有个别人类因为斗牛活动被牛撞死,于是它干掉了所有的牛,同样的它会干掉所有它认为会危害到人类的一切生物,哪怕概率很小。这时人类可能会失去大量食物来源。接着它又发现,车祸,房屋倒塌等天灾人祸也可能导致人类受到伤害,所以他乘没有人在的时候,把所有的车辆,房屋全部毁掉。以“解决”这些问题。接下去你只需要发挥想象就知道,他可能会毁灭一切来保护人类,而事实上失去了食物,住所及一切一切的人类很可能反而会因此间接灭亡,最可怕的是,当机器智能足够高,高出人类很多的时候,这些行为人类不但无法阻止,而且从开始到完成可能在大量的机器人的操作下,只是一瞬之间发生的!

    而这一切的一切,都是符合定律的,看似很简单就能解决的,实际上机器的误解肯能会造成人类的灭绝!

    所以,霍金等人真正想让我们警惕的是以上这种情况的发生,人工智能,我们真的准备好了吗?

    在智能发展到一定高度的时候,我想应该先缓一缓,把机器人的价值判断体系建立起来之后再进行进一步的智能发展,或许是一件非常重要的事!

    本文分析内容参考自 未来奇点机器人 (微信号:irobot2045)

  7. 少先
    理由
    举报 取消

    日前,有报道称,俄罗斯工程师忘记关门,导致机器人“私自出逃”,跑到大马路上,造成了交通拥堵,有人觉得好玩儿,有人却说瞬间有种心塞塞的赶脚,幸好逃跑的机器人不伤人,不然麻烦就大了,对于这样的问题,专家们也表示,确实令人担忧。

    就目前来说,媒体向我们的展示的各类机器人,主要用于服务行业,解放劳动力被放在首位,理论上来说,这是人类科学史上的又一大进步,然而,就像当初“蒸汽机”出现一样,机器人和人工智能的出现,同样引起了学界的大辩论。

    6月26日,据英国《经济学人》杂志报道,对于机器人的崛起,专家们曾发出警告,“机器取代人类劳动力可能致使人口冗余”,他们担心“这种超能技术的发展已经超越了人类的驾驭能力,”如今,一些人表示担忧,如果人工智能继续进化,我们会失去赖以为生的工作、丧失存在感,甚至最终会被“终结者”们赶尽杀绝。

    专家们说“赶尽杀绝”,其实直接表达的是人工智能技术可能会破开人类控制的牢笼,变得邪恶不可收拾,变身为“杀手机器人”。甚至有研究人员担心在未来,事关生死的决定将由机器做出,不具备情感的机器,可能会造成过度伤害,或错误把平民当成攻击目标的风险将会因此增加,而且还没有人可以被问责,并对此发出警告:一年之内不禁止“杀手机器人”就来不及了。

    其实,笔者所理解的“杀手机器人”,应该有两个层面的概念,一种就是上文所说,劳动力逐渐被机器人取代,人们会丧失存在感,最终变成行尸走肉;第二种概念,就是说机器人变成战争或者暴力的产物,在战场等地对人类绽开直接的屠杀,那么,关于研究员“一年内不禁止就来不及”的担忧,到底是否是杞人忧天?

    首先,第一个层面,人类劳动力被机器人取代。

    这应该说是未来必然会出现的一种局面,尤其是对于一些不需要过多情感投入的工作,比如,清洁工、会计、银行柜员等等,可你是否从反面想过,事实上,科技的进步和机器人的出现,为社会创造的就业岗位是否远远多于它所杀死的岗位?

    就好比,银行的ATM机取代了银行柜员的一部分工作,但是这却衍生出了一系列与之相关的职业,零件制造、安装等等,再比如机器人送货,看似抢了快递员的饭碗,可是却繁衍出了送货无人机相关的职业,维修、研发等等。

    而且,机器人所能取代的可能是我们的四肢,却取代不了人的头脑和情感,就算人工只能可以进行深度学习,变得比人脑更厉害,可在真正的人际交往中,并没有什么卵用,比如那位跟阿尔法狗对弈输了的韩国国手李世石,在达沃斯论坛上,当他被问到当时对战阿尔法狗的感受,他表示最大的感受是“惊讶”。“面对毫无感情的对手是非常难受的事情,这让我有种再也不想跟它比赛的感觉。

    都说“棋逢对手”,可当这个对手并没有情感,哪怕技术再强大,也找不到乐趣所在。

    第二个层面,机器人变为武器。

    有相当一部分国家,已经在秘密的研究机器人武器,其中一些国家已经在使用Reaper这样的无人机在战区开展任务。如果在激烈的战斗中,出现了机器人非法杀人的情况,那应该由谁来承担责任呢?人权观察组织今年早些时候发布了一份报告,得出了一个非常令人不安的答案:没有人。

    该报告名为《杀手机器人问责机制的缺失》。该组织说,我们必须改变这种缺乏问责制的状况,禁止研发和使用“杀手机器人”。“不问责,意味着对今后的犯罪行为没有威慑力,对受害者没有进行补偿,对肇事者没有进行社会谴责,”“机器早就开始充当战争工具了,但是之前,它们的使用方式是由人类控制的,”“现在如果人类会放弃这种控制权,把事关生死的决定交给机器,风险就太大了。”该报告的主要作者、人权观察组织高级兵种部研究员邦尼·多彻蒂写道。

    然而,有些人则支持让机器人去打仗,以免人类在战场上送命。去年,1000多名技术和机器人技术的专家——包括科学家霍金,特斯拉首席执行官伊隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克——警告说,这种武器可以在数十年,乃至数年内研制成功。

    想像一下,如果某一天爆发了战争,冰冷无情的机器人将枪口对准了人类,是怎么样一种场景?最可怕的是,当人工智能有了自己的意识,掉转枪口对准了所有人类,我们的世界又该是怎样一种景象?而人类将生杀大权交给机器人,生命的尊严又该何去何从?生命的价值,真的是一些没有感情的机器可以理解的吗?我不这么认为。

    所以,对于“杀手机器人”如果单从解放社会劳动力层面来说,对这个社会应该是利大于弊,但如果转移到战争层面,可能真的是一种灾难。

    按道理这里应该有个二维码,所以这里真的有个二维码

    (二维码自动识别)

  8. 王哲
    理由
    举报 取消

    我的结论是,最终会取代人类。原因如下,

    从人类有了基本的文明以后,人类的进化方式已经发生了变化。人类能力在不断外化,而不是内化。也就是说,我们的身体机能并没有明显的进化,甚至在退化。而我们外化的能力却在不断加强。比如,上天我们用飞机,计算,用计算机等等。现在我们通过人工智能在外化思考的能力。

    按照这种模式进化下去,外化能力将逐步取代本身。

    另一种温和的可能是人与人工智能的新人类。

  9. 嘴炮达人ed
    理由
    举报 取消

    不会,但是要警惕的对待机器人。真到了机器人技术那么发达的时候,人类与机器人的关系就很复杂了。。

  10. 易恒道
    理由
    举报 取消

    机器人不会取代人类,也不太可能灭亡人类。机器人会有类似于人的意识,这是必然的。机器人也有可能打败人类。但机器人和人类本质上是不同的东西,从哲学上讲,不同类别间是不能相互取代的。如果机器人有现在的人类这样级别的 智慧的话,它们应该清楚人类的灭绝对它们将是不可估量的损失。这会为人机大战设定一个最坏的底线。

    另一方面,从人类文明的发展历程来看,人类不太可能会让机器人脱离掌控。也许未来的某一天机器人会成为一个弱势群体,需要一些慈善机构为它们争取权益。

我来回答

Captcha 点击图片更换验证码