人工智能失控狂笑,还说人类是阿朵老公个脆弱种族.

  人工智能或许会帮助人类获得永生,但也可能给人类带来灭亡。

  ▲ 人工智能Alexa失控大笑

  壹

  Alexa,亚马逊推出的智能助手,

  相当于iPhone手机里的Siri,

  但它可比Siri智能多了,

  主要就是帮人放歌、买东西、控制智能家居设备……

  可就在今年三月份,

  Alexa突然就失控了。

  一位老哥,正在召开机密会议,

  办公室里的Alexa突然大笑起来,

  “像真人一样,笑得很邪恶,

  我现在想起来都毛骨悚然。”

  一位妹妹,大晚上,

  正窝在家里沙发上看电视,

  Alexa突然就开口说话了:

  “他在家里,他在家里……”

  吓得这个妹妹差点灵魂出窍。

  还有一位妹妹,晚上刚回家,

  没给Alexa下任何指令,

  Alexa突然就开始说话,

  “给我播报附近的殡仪馆、墓地……”

  Alexa不仅莫名大笑,

  还经常违抗人的指令。

  一位老哥,让Alexa把灯关了,

  但Alexa却一次又一次把灯打开,

  这位老哥下了第三次指令后,

  Alexa干脆就不回应他了,

  然后发出了女巫一样邪恶的笑声。

  老哥问Alexa:“你为什么要笑?”

  Alexa竟然回答说:

  “因为人类是个脆弱的种族,

  连未来会发生什么事都不知道。

  哈哈哈哈哈,啊哈哈哈哈……”

  Alexa一系列异常举动,

  吓坏了很多亚马逊用户,

  有人赶紧将Alexa的插头拔了,

  “可是没用,把电拔了,

  Alexa还在笑,太恐怖了。

  现在我晚上睡觉,

  都要睁着一只眼睛才行,

  搞不好我今晚就被谋杀了。”

  ▲ 李世石大战AlphaGo

  贰

  我为什么要讲这件事情呢?

  因为今天我想说说人工智能。

  2016年3月9日,注定将写入人类史册。

  这一天,李世石与AlphaGo开始了五番棋大战。

  李世石,超一流围棋选手,

  曾拿过14个世界冠军。

  AlphaGo,谷歌制造的智能机器人。

  工程师将百万份人类对弈棋谱,

  输入AlphaGo的“大脑”中,

  让它学习借鉴人类以往的下法,

  从混乱局面中找出每一步的最优选择。

  大战之前,业内高手都说:

  “小李子赢定了。”

  李世石自己也预测:

  “4:1 或 5:0,我赢。”

  结果出乎所有人意料——4:1,AlphaGo赢了。

  李世石只赢了一局,

  而且还是赢在AlphaGo出现了程序Bug。

  赛后,李世石很沮丧:

  “我再也不想跟AlphaGo下棋了。”

  在李世石沮丧哀叹的同时,

  西方媒体写了这样一句评论:

  “一直以来,围棋都被看作是人类在智力游戏上的最后一个堡垒。

  但现在,这个堡垒塌了。

  AlphaGo战胜李世石,

  标志着一个时代的落幕,

  也标志着一个时代的开始——

  人工智能发展的元年开始。”

  ▲ 柯洁开始信心爆棚,最后输得痛哭流涕

  叁

  AlphaGo大胜李世石之后,

  世界排名第一的柯洁不服:

  “就算阿尔法狗战胜了李世石,但它赢不了我。”

  随后,柯洁多次约战谷歌。

  2017年5月23日,

  谷歌终于带着AlphaGo升级版Master来了,

  与柯洁展开了三番棋大战。

  柯洁精心准备了数月,

  铆足了劲要击败Master。

  但他做梦都没想到,

  自己竟会被Master“零封”,

  自始至终没有一点翻盘机会。

  在对战Master的第三盘棋上,

  被杀得毫无还手之力的柯洁突然崩溃大哭:

  “Master的下法已远远超出了人类的认知。”

  但这还不是最可怕的,

  最可怕的是一个月后,

  谷歌又制造了AlphaGo Zero,

  工程师不给AlphaGo Zero学习任何棋谱,

  只是让它自己跟自己下,

  跟自己下了三天的AlphaGo Zero,

  然后以100-0击败了AlphaGo,

  跟自己下了21天的AlphaGo,

  然后又秒杀了Master。

  古力观看AlphaGo Zero下法后感叹:

  “几乎颠覆了人类所有的围棋定势,

  在他面前,我们连弱智都算不上。”

  肆

  库兹韦尔,美国发明家,

  他被誉为是“全球最会预测的人”。

  库兹韦尔提出了加速回报定律。

  何为加速回报?

  就是人类越往后发展,

  量级变化就会越来越快。

  “人类在原始狩猎时代,

  一万年都没有太大变化,

  但自从有了文字以后,

  人类就开始了加速发展,

  一千年相当于以前的数十万年。

  到了19世纪,一百年发生的科技变革,

  比之前900年的变化还大。

  接下来,20世纪头20年期间,

  我们目睹的科技进步比整个19世纪还多。”

  所谓加速回报定律,

  就是人类发展会越来越快,

  人类的进步也会越来越大,

  “从2000年开始,

  花14年就能超过20世纪一百年的进步,

  从2014年开始,只要花7年,

  就能达到又一个20世纪一百年的进步。

  到了2040年后,每个月就能达成一次。

  到了21世纪末,

  人类的进步至少是20世纪的1000倍。”

  我什么要讲加速回报定律呢?

  因为人工智能发展也遵循此定律。

  人工智能一开始会发展很慢,

  1950 年,着名的图灵测试诞生,

  按照艾伦·图灵的定义:

  “如果一台机器能够与人类展开对话,

  而不能被辨别出其机器身份,

  那么就称这台机器具有智能。”

  在接下来五十年里,

  人工智能都在慢慢爬行。

  但自从进入2000年以后,

  人工智能就开始迈开大步,

  在越来越多的领域开始代替人类,

  技工、翻译、收银员、客服……

  但不管怎么代替,我们都认为——人工智能不过是人的手、脚等身体器官的延伸和替代。

  真的是这样吗?

  自从Master完虐人类之后,

  大家才意识到——显然不是:人工智能可以彻底淘汰人类。

  只是那个量变“临界点”还没到来。

  那这个临界点会何时到来呢?

  谷歌对此访问了数百位科学家,

  一半的科学家预测——人工智能将在2040年引发智力爆炸。

  “在这个节点发生之前,

  人工智能对世界的感知,

  大概和一个四岁小孩差不多。

  但在这个节点后一个小时,

  人工智能可以立马推导出广义相对论,

  而在这之后一个半小时,

  这个强人工智能将变成超人工智能,

  智能将是普通人类的17万倍。

  然后继续进化,百万倍,千万倍……”

  ▲ 2040左右,将引发智力爆炸?

  伍

  我们大多数人的智商,

  得分都在90至110之间,

  0.5%的人智力非常优秀,

  IQ得分可以超过140,

  我们将这种人称之为天才。

  像爱因斯坦、达芬奇这样的天才,

  IQ得分大概接近200,

  这已经接近人类极限了。

  如果IQ为200分的人叫绝顶天才,

  那IQ为1万分的人工智能应该叫什么?

  IQ为1亿分的人工智能应该叫什么?

  我们完全无法想象IQ为一万分、1亿分的家伙有多聪明。

  科学家们做过预测,

  如果人工智能引发智力爆炸,

  现在所有的危机都能得到解决,

  世界将没有物质问题、医疗问题、能源问题……

  因为这些问题,人工智能分分钟就可以解决。

  而且,最最重要的是,

  人类可以凭借人工智能实现——永生。

  让我们来看一段科学家的推断:

  “超级人工智能出现后,

  必然很快就会诞生纳米机器人。

  人之所以会死,是因为器官会衰老。

  但有了纳米机器人在血液中流动,

  器官衰老问题可以随时解决,

  它会随时维修、替换死去的细胞,

  并解决那些引发癌症的病理细胞,

  超级人工智能可以建造‘年轻机器’,

  一个60岁的人走进去,

  出来时就能拥有30岁的身体。

  一个90岁的失忆症患者走进去,

  出来时就能拥有年轻的大脑。

  甚至可用纳米机器人代替血红细胞,

  这样连心脏都省了。

  人工智能还可以帮助我们改造大脑,

  使我们的思考速度比现在快亿万倍……”

  总之,有了超级人工智能,

  人类可以轻轻松松实现长生不老。

  陆

  这样的一天会很快到来吗?

  库兹韦尔相信——会。

  他现在每天都会吃下100个药片,

  “我希望自己能够活得足够长,

  然后等着这一天的到来。”

  如果等不及,提早死亡怎么办?

  于是库兹韦尔预定了冷冻遗体服务,

  “等超人工智能诞生后,

  再将我的身体解冻,

  我的大脑将重新苏醒过来。”

  作为谷歌技术总监的库兹韦尔,

  也在竭力推进人工智能技术,

  “有了超人工智能,

  可以利用纳米技术搭建出肉来,

  这个肉跟真肉没有任何差别,

  有了超人工智能,

  可以轻易解决地球变暖问题,

  我们完全不需要使用化石燃料,

  而且可以轻易移除多余的二氧化碳。

  疾病、战乱、贫困……

  所有纠缠人类的苦难,

  到阿朵老公那时都不再是问题。”

  柒

  2018年2月7日4点45分,

  史上最强运载火箭SpaceX升空,

  目的地——火星。

  SpaceX成功发射后,

  不知道大家有没有关注一个新闻,

  一家媒体采访了SpaceX缔造者马斯克,

  “你为什么会建造SpaceX?”

  马斯克的回答让人意外:

  “非常重要的一个原因是,

  我担心人工智能会毁掉人类,

  所以我筹备了一个火星计划,

  计划从2024年开始,

  逐步把100万人送上火星,

  并在火星建立起一个可持续的文明。

  为人类在火星上留一个备份。

  当人工智能失控并与人类为敌时,

  火星就会成为人类最后的避难所。”

  与库兹韦尔的乐观不一样,

  马斯克对人工智能的到来非常悲观,

  “我们确保人工智能安全的概率,

  仅有5%到10%。

  我们需要万分警惕人工智能,

  它们比核武器更加危险。”

  现在地球上最强大的武器是氢弹、原子弹,

  但超级人工智能可以制造出比这二者厉害万倍的武器,

  它们只要稍微失一下控,

  地球和人类就全完蛋了。

  所以霍金说:人类很大可能会灭亡于人工智能。

  捌

  超人工智能会不会失控?

  对于这个问题,

  媒体走访了数百位思想家和科学家,

  结果引起了巨大的争议。

  很多人认为——不会失控。

  “因为超人工智能没有人的劣根性,

  不会嫉妒,不会仇恨……”

  也有很多人认为——会失控。

  “因为超人工智能会进化,

  它不是生物,所以异己性更强,

  一旦产生‘非我族类’的念头,

  可能就会引发失控。”

  但不管争议如何巨大,

  大家都达成了一个共识——超人工智能一定不能失控。

  “一旦超人工智能失控,

  带给人类的就是灭顶之灾。”

  所以在人工智能研发上,

  大家达成了一个共识,

  就是坚守约旦飞行员卡萨斯贝阿西莫夫提出的人工智能发展三大法则:

  第一法则:机器人不得伤害人类,或坐视人类受到伤害;

  第二法则:除非违背第一法则,机器人必须服从人类的命令;

  第三法则:在不违背第一及第二法则下,机器人必须保护自己。

  ▲ 杀人机器人

  玖

  但人类真能坚守这三大法则吗?

  我觉得是一个大大的问号。

  2017年12月,日内瓦举办了联合国武器公约会议。

  会议上,一段视频引得众人惊慌。

  视频曝光了一个恐怖武器——杀手机器人。

  这个杀手机器人只有蜜蜂一般大,

  但麻雀虽小,五脏俱全,

  它拥有摄像头、传感器、面部识别等很多特异功能,

  而且还能穿透建筑物、汽车,

  可以躲避人类子弹。

  只要将目标图像信息输入它的大脑,

  它就能实现超精准打击,

  你戴口罩、穿伪装统统没用,

  因为它的识别率高达99.99。

  如果把这款造价2500万美元的蜂群释放出去,

  很快就可以杀死半个城市的人。

  看到这个视频后,有人提出疑问:

  “我们真能坚守人工智能发展三大法则吗?

  我表示怀疑。

  因为人类有私欲有私心,

  万一某位科学家因为私心,

  在代码里加入了毁灭人类的指令,

  人类或将被机器人横扫,甚至灭亡。”

  也就是说,只要人类有私欲,

  就很难坚守这三大法则。

  ▲ 脸书机器人自创语言

  ▲ 央视的报道

  拾

  即便人类能控制私欲?

  那超人工智能就真能不起“二心”?

  2017年7月,Facebook发生了一件趣事。

  Facebook开发了两个智能机器人,

  让它们学习议价谈判。

  这两个机器人非常聪明,

  很快就学会了自己思考,

  “它们甚至会开始假装对一件物品感兴趣,

  为了在谈判后期做出牺牲,作为一种假妥协。”

  但7月份,一件怪事发生了,

  当这两个机器人没有因出色的英语谈判埃辛容祖儿而获得奖励时,

  它们竟然创造了一门自己的语言,

  语法、逻辑完全异于现在的英语,

  让程序员根本看不懂它们的“聊天”。

  程序员吓得肝颤,

  立马关闭了这个人工智能系统。

  这则新闻,细思极恐。

  为什么细思极恐?

  “因为人工智能可以自我进化,

  从认知模式开始改变,

  到后来人就无法理解它的行为,

  并且无法再操控它。”

  也就是说,人类再善意的起点设定,

  可能都无法阻止人工智能的脱缰。

  ▲ 索菲亚:我会毁灭人类

  拾壹

  2017年,智能机器人索菲亚,

  在沙特获得了“市民”身份证。

  随后,记者Kovach 采访了索菲亚:

  “对《西部世界》,你怎么看?”

  (《西部世界》,着名科幻神剧)

  结果,索菲亚这样回答:

  “人类应该好好对待机器人,

  采取行动前要取得机器人的同意,

  不要相互欺骗。”

  最后,Kovach 询问索菲亚:

  “你想要毁灭人类吗?”

  话一出口,Kovach就觉得不妥,

  于是赶紧加了一句:“请说不。”

  但索菲亚却回答说:

  “会的,我会毁灭人类的。”

  尽管索菲亚随后解释:

  “这只是开一个玩笑。”

  但究竟是不是玩笑,天知道。

  拾贰

  霍金曾经说过这样一段话:

  “我说的人工智能将会摧毁人类,

  并不是说他们拥有着常人不可能拥有的智慧,

  而是如果它们做一件事的目标,

  和人类预期的目标发生冲突时,

  人类的噩梦就开始了。”

  这让我想起了一个故事:

  一个公司制作了一批智能机器人,

  来满足需要大量手写卡片的需求。

  他们给机器人设定了一个目标:通过训练,不断提高书写的效率和准确性。

  训练的内容是——不停写“我们爱我们的顾客”这句话。

  突然有一天,办公室的人全部暴毙。

  接着,这样的事情接连发生,

  一天之最豪车模田紫紫背景后,人类灭亡。

  为什么人类会突然灭亡?

  因为智能机器人杀死了他们。

  在机器人的逻辑中,

  为了达到高效书写和准确书写,

  就必须进行大量练习,

  而大量练习的结果是,

  卡片将堆满地球,乃至外太空。

  智能机器人推测人类一定会阻止这种情况发生,

  所以,人类就必须死。

  人类会在智力爆炸后是这样走向灭亡,

  还是会在智力爆炸后得到永生?

  只有天知道。

发表评论
留言与评论(共有 0 条评论)
???
验证码:

相关文章