人工智能失控狂笑,还说人类是个脆弱种族来源:网络浏览数:461次
人工智能失控狂笑,还说人类是个脆弱种族 ▲ 人工智能Alexa失控大笑 壹 Alexa,亚马逊推出的智能助手, 相当于iPhone手机里的Siri, 但它可比Siri智能多了, 主要就是帮人放歌、买东西、控制智能家居设备…… 可就在今年三月份, Alexa突然就失控了。 一位老哥,正在召开机密会议, 办公室里的Alexa突然大笑起来, “像真人一样,笑得很邪恶, 我现在想起来都毛骨悚然。” 一位妹妹,大晚上, 正窝在家里沙发上看电视, Alexa突然就开口说话了: “他在家里,他在家里……” 吓得这个妹妹差点灵魂出窍。 还有一位妹妹,晚上刚回家, 没给Alexa下任何指令, Alexa突然就开始说话, “给我播报附近的殡仪馆、墓地……” Alexa不仅莫名大笑, 还经常违抗人的指令。 一位老哥,让Alexa把灯关了, 但Alexa却一次又一次把灯打开, 这位老哥下了第三次指令后, Alexa干脆就不回应他了, 然后发出了女巫一样邪恶的笑声。 老哥问Alexa:“你为什么要笑?” Alexa竟然回答说: “因为人类是个脆弱的种族, 连未来会发生什么事都不知道。 哈哈哈哈哈,啊哈哈哈哈……” Alexa一系列异常举动, 吓坏了很多亚马逊用户, 有人赶紧将Alexa的插头拔了, “可是没用,把电拔了, Alexa还在笑,太恐怖了。 现在我晚上睡觉, 都要睁着一只眼睛才行, 搞不好我今晚就被谋杀了。” ▲ 李世石大战AlphaGo 贰 我为什么要讲这件事情呢? 因为今天我想说说人工智能。 2016年3月9日,注定将写入人类史册。 这一天,李世石与AlphaGo开始了五番棋大战。 李世石,超一流围棋选手, 曾拿过14个世界冠军。 AlphaGo,谷歌制造的智能机器人。 工程师将百万份人类对弈棋谱, 输入AlphaGo的“大脑”中, 让它学习借鉴人类以往的下法, 从混乱局面中找出每一步的最优选择。 大战之前,业内高手都说: “小李子赢定了。” 李世石自己也预测:
结果出乎所有人意料——4:1,AlphaGo赢了。 李世石只赢了一局, 而且还是赢在AlphaGo出现了程序Bug。 赛后,李世石很沮丧: “我再也不想跟AlphaGo下棋了。” 在李世石沮丧哀叹的同时, 西方媒体写了这样一句评论: “一直以来,围棋都被看作是人类在智力游戏上的最后一个堡垒。 但现在,这个堡垒塌了。 AlphaGo战胜李世石, 标志着一个时代的落幕, 也标志着一个时代的开始—— 人工智能发展的元年开始。” ▲ 柯洁开始信心爆棚,最后输得痛哭流涕 叁 AlphaGo大胜李世石之后, 世界排名第一的柯洁不服: “就算阿尔法狗战胜了李世石,但它赢不了我。” 随后,柯洁多次约战谷歌。 2017年5月23日, 谷歌终于带着AlphaGo升级版Master来了, 与柯洁展开了三番棋大战。 柯洁精心准备了数月, 铆足了劲要击败Master。 但他做梦都没想到, 自己竟会被Master“零封”, 自始至终没有一点翻盘机会。 在对战Master的第三盘棋上, 被杀得毫无还手之力的柯洁突然崩溃大哭: “Master的下法已远远超出了人类的认知。” 但这还不是最可怕的, 最可怕的是一个月后, 谷歌又制造了AlphaGo Zero, 工程师不给AlphaGo Zero学习任何棋谱, 只是让它自己跟自己下, 跟自己下了三天的AlphaGo Zero, 然后以100-0击败了AlphaGo, 跟自己下了21天的AlphaGo, 然后又秒杀了Master。 古力观看AlphaGo Zero下法后感叹: “几乎颠覆了人类所有的围棋定势, 在他面前,我们连弱智都算不上。” 肆 库兹韦尔,美国发明家, 他被誉为是“全球最会预测的人”。 库兹韦尔提出了加速回报定律。 何为加速回报? 就是人类越往后发展, 量级变化就会越来越快。 “人类在原始狩猎时代, 一万年都没有太大变化, 但自从有了文字以后, 人类就开始了加速发展, 一千年相当于以前的数十万年。 到了19世纪,一百年发生的科技变革, 比之前900年的变化还大。 接下来,20世纪头20年期间, 我们目睹的科技进步比整个19世纪还多。” 所谓加速回报定律, 就是人类发展会越来越快, 人类的进步也会越来越大, “从2000年开始, 花14年就能超过20世纪一百年的进步, 从2014年开始,只要花7年, 就能达到又一个20世纪一百年的进步。 到了2040年后,每个月就能达成一次。 到了21世纪末, 人类的进步至少是20世纪的1000倍。” 我什么要讲加速回报定律呢? 因为人工智能发展也遵循此定律。 人工智能一开始会发展很慢, 1950 年,著名的图灵测试诞生, 按照艾伦·图灵的定义: “如果一台机器能够与人类展开对话, 而不能被辨别出其机器身份, 那么就称这台机器具有智能。” 在接下来五十年里, 人工智能都在慢慢爬行。 但自从进入2000年以后, 人工智能就开始迈开大步, 在越来越多的领域开始代替人类, 技工、翻译、收银员、客服…… 但不管怎么代替,我们都认为——人工智能不过是人的手、脚等身体器官的延伸和替代。 真的是这样吗? 自从Master完虐人类之后, 大家才意识到——显然不是:人工智能可以彻底淘汰人类。 只是那个量变“临界点”还没到来。 那这个临界点会何时到来呢? 谷歌对此访问了数百位科学家, 一半的科学家预测——人工智能将在2040年引发智力爆炸。 “在这个节点发生之前, 人工智能对世界的感知, 大概和一个四岁小孩差不多。 但在这个节点后一个小时, 人工智能可以立马推导出广义相对论, 而在这之后一个半小时, 这个强人工智能将变成超人工智能, 智能将是普通人类的17万倍。 然后继续进化,百万倍,千万倍……” ▲ 2040左右,将引发智力爆炸? 伍 我们大多数人的智商, 得分都在90至110之间, 0.5%的人智力非常优秀, IQ得分可以超过140, 我们将这种人称之为天才。 像爱因斯坦、达芬奇这样的天才, IQ得分大概接近200, 这已经接近人类极限了。 如果IQ为200分的人叫绝顶天才, 那IQ为1万分的人工智能应该叫什么? IQ为1亿分的人工智能应该叫什么? 我们完全无法想象IQ为一万分、1亿分的家伙有多聪明。 科学家们做过预测, 如果人工智能引发智力爆炸, 现在所有的危机都能得到解决, 世界将没有物质问题、医疗问题、能源问题…… 因为这些问题,人工智能分分钟就可以解决。 而且,最最重要的是, 人类可以凭借人工智能实现——永生。 让我们来看一段科学家的推断: “超级人工智能出现后, 必然很快就会诞生纳米机器人。 人之所以会死,是因为器官会衰老。 但有了纳米机器人在血液中流动, 器官衰老问题可以随时解决, 它会随时维修、替换死去的细胞, 并解决那些引发癌症的病理细胞, 超级人工智能可以建造‘年轻机器’, 一个60岁的人走进去, 出来时就能拥有30岁的身体。 一个90岁的失忆症患者走进去, 出来时就能拥有年轻的大脑。 甚至可用纳米机器人代替血红细胞, 这样连心脏都省了。 人工智能还可以帮助我们改造大脑, 使我们的思考速度比现在快亿万倍……” 总之,有了超级人工智能, 人类可以轻轻松松实现长生不老。 陆 这样的一天会很快到来吗? 库兹韦尔相信——会。 他现在每天都会吃下100个药片, “我希望自己能够活得足够长, 然后等着这一天的到来。” 如果等不及,提早死亡怎么办? 于是库兹韦尔预定了冷冻遗体服务, “等超人工智能诞生后, 再将我的身体解冻, 我的大脑将重新苏醒过来。” 作为谷歌技术总监的库兹韦尔, 也在竭力推进人工智能技术, “有了超人工智能, 可以利用纳米技术搭建出肉来, 这个肉跟真肉没有任何差别, 有了超人工智能, 可以轻易解决地球变暖问题, 我们完全不需要使用化石燃料, 而且可以轻易移除多余的二氧化碳。 疾病、战乱、贫困…… 所有纠缠人类的苦难, 到那时都不再是问题。” 柒 2018年2月7日4点45分, 史上最强运载火箭SpaceX升空, 目的地——火星。 SpaceX成功发射后, 不知道大家有没有关注一个新闻, 一家媒体采访了SpaceX缔造者马斯克, “你为什么会建造SpaceX?” 马斯克的回答让人意外: “非常重要的一个原因是, 我担心人工智能会毁掉人类, 所以我筹备了一个火星计划, 计划从2024年开始, 逐步把100万人送上火星, 并在火星建立起一个可持续的文明。 为人类在火星上留一个备份。 当人工智能失控并与人类为敌时, 火星就会成为人类最后的避难所。” 与库兹韦尔的乐观不一样, 马斯克对人工智能的到来非常悲观, “我们确保人工智能安全的概率, 仅有5%到10%。 我们需要万分警惕人工智能, 它们比核武器更加危险。” 现在地球上最强大的武器是氢弹、原子弹, 但超级人工智能可以制造出比这二者厉害万倍的武器, 它们只要稍微失一下控, 地球和人类就全完蛋了。 所以霍金说:人类很大可能会灭亡于人工智能。 捌 超人工智能会不会失控? 对于这个问题, 媒体走访了数百位思想家和科学家, 结果引起了巨大的争议。 很多人认为——不会失控。 “因为超人工智能没有人的劣根性, 不会嫉妒,不会仇恨……” 也有很多人认为——会失控。 “因为超人工智能会进化, 它不是生物,所以异己性更强, 一旦产生‘非我族类’的念头, 可能就会引发失控。” 但不管争议如何巨大, 大家都达成了一个共识——超人工智能一定不能失控。 “一旦超人工智能失控, 带给人类的就是灭顶之灾。” 所以在人工智能研发上, 大家达成了一个共识, 就是坚守阿西莫夫提出的人工智能发展三大法则: 第一法则:机器人不得伤害人类,或坐视人类受到伤害; 第二法则:除非违背第一法则,机器人必须服从人类的命令; 第三法则:在不违背第一及第二法则下,机器人必须保护自己。 ▲ 杀人机器人 玖 但人类真能坚守这三大法则吗? 我觉得是一个大大的问号。 2017年12月,日内瓦举办了联合国武器公约会议。 会议上,一段视频引得众人惊慌。 视频曝光了一个恐怖武器——杀手机器人。 这个杀手机器人只有蜜蜂一般大, 但麻雀虽小,五脏俱全, 它拥有摄像头、传感器、面部识别等很多特异功能, 而且还能穿透建筑物、汽车, 可以躲避人类子弹。 只要将目标图像信息输入它的大脑, 它就能实现超精准打击, 你戴口罩、穿伪装统统没用, 因为它的识别率高达99.99。 如果把这款造价2500万美元的蜂群释放出去, 很快就可以杀死半个城市的人。 看到这个视频后,有人提出疑问: “我们真能坚守人工智能发展三大法则吗? 我表示怀疑。 因为人类有私欲有私心, 万一某位科学家因为私心, 在代码里加入了毁灭人类的指令, 人类或将被机器人横扫,甚至灭亡。” 也就是说,只要人类有私欲, 就很难坚守这三大法则。 ▲ 脸书机器人自创语言 ▲ 央视的报道 拾 即便人类能控制私欲? 那超人工智能就真能不起“二心”? 2017年7月,Facebook发生了一件趣事。 Facebook开发了两个智能机器人, 让它们学习议价谈判。 这两个机器人非常聪明, 很快就学会了自己思考, “它们甚至会开始假装对一件物品感兴趣, 为了在谈判后期做出牺牲,作为一种假妥协。” 但7月份,一件怪事发生了, 当这两个机器人没有因出色的英语谈判而获得奖励时, 它们竟然创造了一门自己的语言, 语法、逻辑完全异于现在的英语, 让程序员根本看不懂它们的“聊天”。 程序员吓得肝颤, 立马关闭了这个人工智能系统。 这则新闻,细思极恐。 为什么细思极恐? “因为人工智能可以自我进化, 从认知模式开始改变, 到后来人就无法理解它的行为, 并且无法再操控它。” 也就是说,人类再善意的起点设定, 可能都无法阻止人工智能的脱缰。 ▲ 索菲亚:我会毁灭人类 拾壹 2017年,智能机器人索菲亚, 在沙特获得了“市民”身份证。 随后,记者Kovach 采访了索菲亚: “对《西部世界》,你怎么看?” (《西部世界》,著名科幻神剧) 结果,索菲亚这样回答: “人类应该好好对待机器人, 采取行动前要取得机器人的同意, 不要相互欺骗。” 最后,Kovach 询问索菲亚: “你想要毁灭人类吗?” 话一出口,Kovach就觉得不妥, 于是赶紧加了一句:“请说不。” 但索菲亚却回答说: “会的,我会毁灭人类的。” 尽管索菲亚随后解释: “这只是开一个玩笑。” 但究竟是不是玩笑,天知道。 拾贰 霍金曾经说过这样一段话: “我说的人工智能将会摧毁人类, 并不是说他们拥有着常人不可能拥有的智慧, 而是如果它们做一件事的目标, 和人类预期的目标发生冲突时, 人类的噩梦就开始了。” 这让我想起了一个故事: 一个公司制作了一批智能机器人, 来满足需要大量手写卡片的需求。 他们给机器人设定了一个目标:通过训练,不断提高书写的效率和准确性。 训练的内容是——不停写“我们爱我们的顾客”这句话。 突然有一天,办公室的人全部暴毙。 接着,这样的事情接连发生, 一天之后,人类灭亡。 为什么人类会突然灭亡? 因为智能机器人杀死了他们。 在机器人的逻辑中, 为了达到高效书写和准确书写, 就必须进行大量练习, 而大量练习的结果是, 卡片将堆满地球,乃至外太空。 智能机器人推测人类一定会阻止这种情况发生, 所以,人类就必须死。 人类会在智力爆炸后是这样走向灭亡, 还是会在智力爆炸后得到永生? 只有天知道。 |