合肥市创造学会
HeFei Creatology Seminar(HFCS)
新闻详情

人工智能失控狂笑,还说人类是个脆弱种族

来源:网络浏览数:461 

人工智能失控狂笑,还说人类是个脆弱种族



▲ 人工智能Alexa失控大笑


Alexa,亚马逊推出的智能助手,

相当于iPhone手机里的Siri,

但它可比Siri智能多了,

主要就是帮人放歌、买东西、控制智能家居设备……

可就在今年三月份,

Alexa突然就失控了。

一位老哥,正在召开机密会议,

办公室里的Alexa突然大笑起来,

“像真人一样,笑得很邪恶,

我现在想起来都毛骨悚然。”

一位妹妹,大晚上,

正窝在家里沙发上看电视,

Alexa突然就开口说话了:

“他在家里,他在家里……”

吓得这个妹妹差点灵魂出窍。

还有一位妹妹,晚上刚回家,

没给Alexa下任何指令,

Alexa突然就开始说话,

“给我播报附近的殡仪馆、墓地……”


Alexa不仅莫名大笑,

还经常违抗人的指令。

一位老哥,让Alexa把灯关了,

但Alexa却一次又一次把灯打开,

这位老哥下了第三次指令后,

Alexa干脆就不回应他了,

然后发出了女巫一样邪恶的笑声。

老哥问Alexa:“你为什么要笑?”

Alexa竟然回答说:

“因为人类是个脆弱的种族,

连未来会发生什么事都不知道。

哈哈哈哈哈,啊哈哈哈哈……”

Alexa一系列异常举动,

吓坏了很多亚马逊用户,

有人赶紧将Alexa的插头拔了,

“可是没用,把电拔了,

Alexa还在笑,太恐怖了。

现在我晚上睡觉,

都要睁着一只眼睛才行,

搞不好我今晚就被谋杀了。”



▲ 李世石大战AlphaGo


我为什么要讲这件事情呢?

因为今天我想说说人工智能。

2016年3月9日,注定将写入人类史册。

这一天,李世石与AlphaGo开始了五番棋大战。

李世石,超一流围棋选手,

曾拿过14个世界冠军。

AlphaGo,谷歌制造的智能机器人。

工程师将百万份人类对弈棋谱,

输入AlphaGo的“大脑”中,

让它学习借鉴人类以往的下法,

从混乱局面中找出每一步的最优选择。

大战之前,业内高手都说:

“小李子赢定了。”

李世石自己也预测:


“4:1 或 5:0,我赢。”

结果出乎所有人意料——4:1,AlphaGo赢了。

李世石只赢了一局,

而且还是赢在AlphaGo出现了程序Bug。

赛后,李世石很沮丧:

“我再也不想跟AlphaGo下棋了。”

在李世石沮丧哀叹的同时,

西方媒体写了这样一句评论:

“一直以来,围棋都被看作是人类在智力游戏上的最后一个堡垒。

但现在,这个堡垒塌了。

AlphaGo战胜李世石,

标志着一个时代的落幕,

也标志着一个时代的开始——

人工智能发展的元年开始。”


▲ 柯洁开始信心爆棚,最后输得痛哭流涕


AlphaGo大胜李世石之后,

世界排名第一的柯洁不服:

“就算阿尔法狗战胜了李世石,但它赢不了我。”

随后,柯洁多次约战谷歌。

2017年5月23日,

谷歌终于带着AlphaGo升级版Master来了,

与柯洁展开了三番棋大战。

柯洁精心准备了数月,

铆足了劲要击败Master。

但他做梦都没想到,

自己竟会被Master“零封”,

自始至终没有一点翻盘机会。

在对战Master的第三盘棋上,

被杀得毫无还手之力的柯洁突然崩溃大哭:

“Master的下法已远远超出了人类的认知。”

但这还不是最可怕的,

最可怕的是一个月后,

谷歌又制造了AlphaGo Zero,

工程师不给AlphaGo Zero学习任何棋谱,

只是让它自己跟自己下,

跟自己下了三天的AlphaGo Zero,

然后以100-0击败了AlphaGo,

跟自己下了21天的AlphaGo,

然后又秒杀了Master。

古力观看AlphaGo Zero下法后感叹:

“几乎颠覆了人类所有的围棋定势,

在他面前,我们连弱智都算不上。”




库兹韦尔,美国发明家,

他被誉为是“全球最会预测的人”。

库兹韦尔提出了加速回报定律。

何为加速回报?

就是人类越往后发展,

量级变化就会越来越快。

“人类在原始狩猎时代,

一万年都没有太大变化,

但自从有了文字以后,

人类就开始了加速发展,

一千年相当于以前的数十万年。

到了19世纪,一百年发生的科技变革,

比之前900年的变化还大。

接下来,20世纪头20年期间,

我们目睹的科技进步比整个19世纪还多。”

所谓加速回报定律,

就是人类发展会越来越快,

人类的进步也会越来越大,

“从2000年开始,

花14年就能超过20世纪一百年的进步,

从2014年开始,只要花7年,

就能达到又一个20世纪一百年的进步。

到了2040年后,每个月就能达成一次。

到了21世纪末,

人类的进步至少是20世纪的1000倍。”



我什么要讲加速回报定律呢?

因为人工智能发展也遵循此定律。

人工智能一开始会发展很慢,

1950 年,著名的图灵测试诞生,

按照艾伦·图灵的定义:

“如果一台机器能够与人类展开对话,

而不能被辨别出其机器身份,

那么就称这台机器具有智能。”

在接下来五十年里,

人工智能都在慢慢爬行。

但自从进入2000年以后,

人工智能就开始迈开大步,

在越来越多的领域开始代替人类,

技工、翻译、收银员、客服……

但不管怎么代替,我们都认为——人工智能不过是人的手、脚等身体器官的延伸和替代。

真的是这样吗?

自从Master完虐人类之后,

大家才意识到——显然不是:人工智能可以彻底淘汰人类。

只是那个量变“临界点”还没到来。

那这个临界点会何时到来呢?

谷歌对此访问了数百位科学家,

一半的科学家预测——人工智能将在2040年引发智力爆炸。

“在这个节点发生之前,

人工智能对世界的感知,

大概和一个四岁小孩差不多。

但在这个节点后一个小时,

人工智能可以立马推导出广义相对论,

而在这之后一个半小时,

这个强人工智能将变成超人工智能,

智能将是普通人类的17万倍。

然后继续进化,百万倍,千万倍……”


▲ 2040左右,将引发智力爆炸?


我们大多数人的智商,

得分都在90至110之间,

0.5%的人智力非常优秀,

IQ得分可以超过140,

我们将这种人称之为天才。

像爱因斯坦、达芬奇这样的天才,

IQ得分大概接近200,

这已经接近人类极限了。

如果IQ为200分的人叫绝顶天才,

那IQ为1万分的人工智能应该叫什么?

IQ为1亿分的人工智能应该叫什么?

我们完全无法想象IQ为一万分、1亿分的家伙有多聪明。

科学家们做过预测,

如果人工智能引发智力爆炸,

现在所有的危机都能得到解决,

世界将没有物质问题、医疗问题、能源问题……

因为这些问题,人工智能分分钟就可以解决。

而且,最最重要的是,

人类可以凭借人工智能实现——永生。

让我们来看一段科学家的推断:

“超级人工智能出现后,

必然很快就会诞生纳米机器人。

人之所以会死,是因为器官会衰老。

但有了纳米机器人在血液中流动,

器官衰老问题可以随时解决,

它会随时维修、替换死去的细胞,

并解决那些引发癌症的病理细胞,

超级人工智能可以建造‘年轻机器’,

一个60岁的人走进去,

出来时就能拥有30岁的身体。

一个90岁的失忆症患者走进去,

出来时就能拥有年轻的大脑。

甚至可用纳米机器人代替血红细胞,

这样连心脏都省了。

人工智能还可以帮助我们改造大脑,

使我们的思考速度比现在快亿万倍……”

总之,有了超级人工智能,

人类可以轻轻松松实现长生不老。



这样的一天会很快到来吗?

库兹韦尔相信——会。

他现在每天都会吃下100个药片,

“我希望自己能够活得足够长,

然后等着这一天的到来。”

如果等不及,提早死亡怎么办?

于是库兹韦尔预定了冷冻遗体服务,

“等超人工智能诞生后,

再将我的身体解冻,

我的大脑将重新苏醒过来。”

作为谷歌技术总监的库兹韦尔,

也在竭力推进人工智能技术,

“有了超人工智能,

可以利用纳米技术搭建出肉来,

这个肉跟真肉没有任何差别,

有了超人工智能,

可以轻易解决地球变暖问题,

我们完全不需要使用化石燃料,

而且可以轻易移除多余的二氧化碳。

疾病、战乱、贫困……

所有纠缠人类的苦难,

到那时都不再是问题。”




2018年2月7日4点45分,

史上最强运载火箭SpaceX升空,

目的地——火星。

SpaceX成功发射后,

不知道大家有没有关注一个新闻,

一家媒体采访了SpaceX缔造者马斯克,

“你为什么会建造SpaceX?”

马斯克的回答让人意外:

“非常重要的一个原因是,

我担心人工智能会毁掉人类,

所以我筹备了一个火星计划,

计划从2024年开始,

逐步把100万人送上火星,

并在火星建立起一个可持续的文明。

为人类在火星上留一个备份。

当人工智能失控并与人类为敌时,

火星就会成为人类最后的避难所。”

与库兹韦尔的乐观不一样,

马斯克对人工智能的到来非常悲观,

“我们确保人工智能安全的概率,

仅有5%到10%。

我们需要万分警惕人工智能,

它们比核武器更加危险。”

现在地球上最强大的武器是氢弹、原子弹,

但超级人工智能可以制造出比这二者厉害万倍的武器,

它们只要稍微失一下控,

地球和人类就全完蛋了。

所以霍金说:人类很大可能会灭亡于人工智能。



超人工智能会不会失控?

对于这个问题,

媒体走访了数百位思想家和科学家,

结果引起了巨大的争议。

很多人认为——不会失控。

“因为超人工智能没有人的劣根性,

不会嫉妒,不会仇恨……”

也有很多人认为——会失控。

“因为超人工智能会进化,

它不是生物,所以异己性更强,

一旦产生‘非我族类’的念头,

可能就会引发失控。”

但不管争议如何巨大,

大家都达成了一个共识——超人工智能一定不能失控。

“一旦超人工智能失控,

带给人类的就是灭顶之灾。”

所以在人工智能研发上,

大家达成了一个共识,

就是坚守阿西莫夫提出的人工智能发展三大法则:

第一法则:机器人不得伤害人类,或坐视人类受到伤害;

第二法则:除非违背第一法则,机器人必须服从人类的命令;

第三法则:在不违背第一及第二法则下,机器人必须保护自己。



▲ 杀人机器人


但人类真能坚守这三大法则吗?

我觉得是一个大大的问号。

2017年12月,日内瓦举办了联合国武器公约会议。

会议上,一段视频引得众人惊慌。

视频曝光了一个恐怖武器——杀手机器人。

这个杀手机器人只有蜜蜂一般大,

但麻雀虽小,五脏俱全,

它拥有摄像头、传感器、面部识别等很多特异功能,

而且还能穿透建筑物、汽车,

可以躲避人类子弹。

只要将目标图像信息输入它的大脑,

它就能实现超精准打击,

你戴口罩、穿伪装统统没用,

因为它的识别率高达99.99。

如果把这款造价2500万美元的蜂群释放出去,

很快就可以杀死半个城市的人。

看到这个视频后,有人提出疑问:

“我们真能坚守人工智能发展三大法则吗?

我表示怀疑。

因为人类有私欲有私心,

万一某位科学家因为私心,

在代码里加入了毁灭人类的指令,

人类或将被机器人横扫,甚至灭亡。”

也就是说,只要人类有私欲,

就很难坚守这三大法则。


▲ 脸书机器人自创语言


▲ 央视的报道


即便人类能控制私欲?

那超人工智能就真能不起“二心”?

2017年7月,Facebook发生了一件趣事。

Facebook开发了两个智能机器人,

让它们学习议价谈判。

这两个机器人非常聪明,

很快就学会了自己思考,

“它们甚至会开始假装对一件物品感兴趣,

为了在谈判后期做出牺牲,作为一种假妥协。”

但7月份,一件怪事发生了,

当这两个机器人没有因出色的英语谈判而获得奖励时,

它们竟然创造了一门自己的语言,

语法、逻辑完全异于现在的英语,

让程序员根本看不懂它们的“聊天”。

程序员吓得肝颤,

立马关闭了这个人工智能系统。

这则新闻,细思极恐。

为什么细思极恐?

“因为人工智能可以自我进化,

从认知模式开始改变,

到后来人就无法理解它的行为,

并且无法再操控它。”

也就是说,人类再善意的起点设定,

可能都无法阻止人工智能的脱缰。



▲ 索菲亚:我会毁灭人类


拾壹

2017年,智能机器人索菲亚,

在沙特获得了“市民”身份证。

随后,记者Kovach 采访了索菲亚:

“对《西部世界》,你怎么看?”

(《西部世界》,著名科幻神剧)

结果,索菲亚这样回答:

“人类应该好好对待机器人,

采取行动前要取得机器人的同意,

不要相互欺骗。”

最后,Kovach 询问索菲亚:

“你想要毁灭人类吗?”

话一出口,Kovach就觉得不妥,

于是赶紧加了一句:“请说不。”

但索菲亚却回答说:

“会的,我会毁灭人类的。”

尽管索菲亚随后解释:

“这只是开一个玩笑。”

但究竟是不是玩笑,天知道。



拾贰

霍金曾经说过这样一段话:

“我说的人工智能将会摧毁人类,

并不是说他们拥有着常人不可能拥有的智慧,

而是如果它们做一件事的目标,

和人类预期的目标发生冲突时,

人类的噩梦就开始了。”

这让我想起了一个故事:

一个公司制作了一批智能机器人,

来满足需要大量手写卡片的需求。

他们给机器人设定了一个目标:通过训练,不断提高书写的效率和准确性。

训练的内容是——不停写“我们爱我们的顾客”这句话。

突然有一天,办公室的人全部暴毙。

接着,这样的事情接连发生,

一天之后,人类灭亡。

为什么人类会突然灭亡?

因为智能机器人杀死了他们。

在机器人的逻辑中,

为了达到高效书写和准确书写,

就必须进行大量练习,

而大量练习的结果是,

卡片将堆满地球,乃至外太空。

智能机器人推测人类一定会阻止这种情况发生,

所以,人类就必须死。

人类会在智力爆炸后是这样走向灭亡,

还是会在智力爆炸后得到永生?

只有天知道。