霍金:人类社会要避免成为被淹没的蚁丘

霍金:人类社会要避免成为被淹没的蚁丘


普立兹巨作《枪炮、病菌与钢铁:人类社会的命运》作者贾德·戴蒙,认为世界会变成这个样子,是十六世纪开始人类利用资源优势掠夺、占领而来,现在的自由关税协议,只是以比较文明的方式解决,但自始自终都是全球化的一环,然全球化只会嘉惠优势一方,现在又在科技推波助澜下,更加深社会不平等隐忧。

英国著名物理学家史蒂芬·霍金在一场论坛中,被问及如何看待未来机器人对人类社会造成的影响。他悲观的认为,机器人只会让人类社会更不平等,穷人更无法翻身。他被问及几个问题,包括发展人工智能需要多久、当人工智能变聪明时会怎样、为何担心人工智能、是否想过工作被机器人取代的技术性失业等等。

首先,相同人类水平智能的人工智能要花多久时间发展,他说:「目前没有共识,所以请不要相信某些人信誓旦旦的说,人工智能这辈子内会发生或是不会的说法。」且他认为就算最终发生了,对人类不是带来最好的影响,就是最坏的影响,所以得到权力会带来巨大价值。

如果人工智能也可如人类一样演化变得更聪明,我们可能会面临「智能爆炸」 (intelligence explosion),最终导致机器的智能超过我们,且超过的程度大于人模拟蜗牛的程度。

「智能爆炸」是 1965 年统计学家 I.J. Good 于 1965 年提出,当时他说,二十世纪内人类就会设计出远超过任何智力的超级机器,超级智能机器就会生产更优良的机器,之后必定出现「智能爆炸」,人类智能会被远远抛在后头。霍金也赞同这样的推测。

霍金担心人工智能的原因是,他认为人工智能真正的风险不是恶意,而是竞争。他举例,「你或许不是一个讨厌蚂蚁的人,但是如果你负责的是水电绿能计划,这项工程会淹没区域内的蚁丘,这对蚂蚁来说就是一场灾难,我们要避免自己成为那些蚂蚁。」意思就是说,人工智能会完成任务,但如果手段与人类不一致,那就完蛋了。

关于机器人取代人类工作造成技术失业问题,霍金认为这要看资源如何分配。他说,「如果机器创造的财富是共享的,那么每个人都能享受奢华生活,如果机器拥有者成功游说反对财富重新分配的话,大部分的人会终其一生贫穷。随着科技加深不平等,现在看来趋势是往不好的方向走。」

人工智能对人类社会是否是个威胁。霍金认为,虽然人工智能设计目的不是演化,而是完成目标,但是未来人工智能仍会发展出生存驱动力,并需要更多资源来完成目标,因为生存与拥有更多资源可增加完成其他目标的机会,这对人类而言就会产生问题,因为人类的资源会被抢走。

I.J. Good 当时提出智能爆炸的可能性时,就说人类制造人工智能应该适可而止,他说,「第一台超级智能机器是人类需要完成的最后一项发明,前提是这台机器足够听话,会告诉我们如何控制它。」

 


精彩评论 0

还可以输入100个字,评论长度3个中文字符以上
105564000:2017-09-21 11:21:01