特斯拉CEO埃隆·马斯克(Elon Musk)曾不止一次的公开表示对人工智能的担忧,马斯克一向崇尚自由主义,但在人工智能问题上,他却认为最佳的补救措施就是主动监管,并且他把人工智能称之为“人类文明面临的最大风险”:
我接触过最先进的人工智能,我认为人类的确应该对它感到担心。人工智能对人类文明的存在构成了根本性的风险,这跟汽车事故、飞机相撞、药物错配、食品安全的影响方式不同。人工智能是我认为少数几个应该主动监管,而非被动监管的领域。因为我认为,等到我们被动监管人工智能的时候,就太晚了。
不仅是马斯克,包括著名物理学家史蒂芬·霍金(Stephen Hawking)等名人都曾警告过人工智能的安全性问题,认为这项技术将对所有人类构成重大威胁。一直以来,Facebook CEO马克·扎克伯格(Mark Zuckerberg)却认为马斯克等人关于人工智能危险的警告言论是言过其实了,但是最近有报道称他可能要打脸了,真的有这么快吗?
原来是因为7月份Facebook“关闭”了那个引发广泛争议的“开发出人类无法理解的语言”的沟通智能对话机器人项目。
上个月Facebook 人工智能研究所(FAIR)使用机器学习方法,对两个聊天机器人进行对话策略的迭代升级,Facebook 的人工智能研究院 (FAIR) 想要训练一个聊天机器人,让它学会谈判。于是他们开发了一个人工智能系,用了一个神经网络结构来开发这个系统,这个结构叫做“生成式对抗网络”(Generative Adversarial Networks),结果发现它们竟自行发展出了人类无法理解的独特语言:
系统中的聊天机器人(bots)完全放弃了用英语进行交流,但是,升级版的系统确实能够与其他的智能体进行交流。一开始,研究者认为他们所使用的词汇似乎是无法理解的,但是,通过长期的观察,研究者发现,这些词汇其实代表了智能体面临的任务。
例如,在一次交流中,两个进行对话的机器人——Bob 和 Alice,使用自己创造的语言来完成了交流,这两个AI的对话,从对话形式和这些语句来看,两个AI似乎在“争吵”,而谁都不肯让步于自己的“想法”。
Bob 开始说:
I can can I I everything else
Alice回答:
Balls have zero to me to me to me to me to me to me to me
Bob又说:
You i everything else
Alice则回复:
Balls have a ball to me to me to me to me to me to me to me
而他们并没有停歇,接下来的对话都是类似这样的句子,字面理解应该是Bob说能给她任何东西,Alice就开始要球,球对我特别重要,然后Bob说没有球,其他的可以给,Alice说就要球就要球就要球……
这不是第一次发现 AI 偏离训练所用的英文,转向发展出新的更加有效的语言。虽然在人类看来,这些沟通更像是胡言乱语。但是,从AI 智能体的角度上看,他们实际上是有词义意义的。
虽然这些词语组合第一眼看上去没什么实际意义,但是,研究者认为,他们的对话揭示了两个机器人的工作原理,每一个词汇都代表了他们需要进行多少次的处理。Bob的重复说明了他如何使用这一词汇,来向Alice传递更多的信息。如果用这种方法来进行阐述,那么它所说的那就好就有点像人们所说的
I don not have ball and you can have everything else
这一研究一经发布,迅速在网络和媒体上引起了广泛的关注和传播,不少人在惊呼:机器创造了自己的语言,人类都无法理解,细思极恐。现在,这一系统被关进了“小黑屋”,甚至有国外媒体的报道现在Facebook 的研究院已经停止了这一项目的研究,而原因是“担心可能会对这些AI失去控制”,所以研究者不得不对其进行了人工干预:把插头!
但是也有人指出,这对话不就是一堆无意义的乱码吗?关闭项目难道不是因为乱码没意义吗?继续开着就是费电!
当下,以深度学习为主的AI 遵循的是“回馈”(Reward)原则,智能体通过依照一系统特定的行为行动,会获得相应的利益(Benefit)。但是,Facebook AI Research (FAIR)的研究员并没有在实验中设置相应的能让智能体通过遵从英语语法而获得所谓的回馈的项,所以,在这一场景中,继续使用英语并并不能带来相应的回馈,所以智能体决定适应更加高效的方法进行沟通。
智能体会偏离人类能理解的语言,创造出自己的“专属语言”吗?比如,如果提到‘the’ 5次,那么就是我想要复制这一术语5次。这和人类创造的缩写其实也没有多大的差别。其他的AI开发者也注意到了智能体会使用“缩写”来简化沟通。在Open AI,研究者成功地让AI机器人学会自己创造的语言。
如果AI继续创建自己的语言,开发人员可能会在创建和采用新的神经网络时遇到问题,但是不清楚这是否会让机器实际上推翻其研发者。然而,这些新的发展使得AI能够更有效地工作,并且如果他们在工作中学习新的AI创建的“缩写”,并保持最新的这种新的沟通方式,可以使研究团队长期受益。
这一研究体现出两个方面的问题,一个是智能体可能已经可以为了提高沟通效率而开发出自身能够理解的专属语言,而这个转速语言还可能是建立在使用常见的英文单词的基础上,这就造成一个后果:你能看懂所有单词,但是你不知道具体是什么意思,比如大家对“·”和“-”这两个字符都不会陌生,但是对下面的句子可能就无从下手了:
.. .-.. --- ...- . -.-- --- ..-
其实这是莫尔斯电码,用“·”和“-”这两个字符来不断进行重新组合形成的新的沟通方式,上面那句话根据对应关系,翻译成英文的意思是:
I LOVE YOU
AI在训练过程里发明出自己的语言的案例,Facebook的AI并不是首例。此前,Google就曾发现人工智能能通过翻译工具创造自己的沟通语言。
机器或系统自己在发展过程里开发出一个属于自己系统内沟通的方式,并且不会被人类打断,自己进化和发展几十年甚至几百年,这种情况在未来是会发生的。但是短时间内还不会,Facebook的AI出现这一情况是偶然的,而且也不能证实是智能体的有效沟通行为,所以Facebook的AI这次的事故并不能代表这种未来趋势,因为它的水平还很低。
尽管如此,Facebook此前曾发表过一篇关于人工智能的研究论文,表示AI在学习了人类的谈判技巧后,他们的表现已经很像“人”。比如说,AI会假装自己对某个特定的内容感兴趣,然后在谈判的过程中假装让步,以看似“牺牲”的方式获得更大的利益空间。
在电影《赌神》中也曾有过类似的桥段,小马哥为了迷惑对手的行为侦查,提前500局在自己的对局中加了一个在有欺骗行为时转戒指的小动作,结果让对手上当。不得不说,如果AI真的学会了这中技巧,恐怕今后人类的文明真的会收到巨大的冲击。
所以现在众说纷纭,各种人工智能威胁论再次甚嚣尘上,大有《黑客帝国》来袭的征兆,幸亏Facebook的研究员及时出来辟谣:Alice和Bob其实并没发明新的语言,因为他们还是在用“i”、“balls”、“the”等英文单词沟通,只是没有了英语语法的这个激励项,创造了一种新的表达方式而已。所以最终,Facebook并不是“关掉”这个系统,而是重新设定了正确的激励,修正了机器人的行为,让机器人用标准的英文语法来进行交流,修正的原因也不是因为害怕系统失控。
其实,对于人工智能的担心是可以理解的,技术的发展在前期都是会引起恐慌的,而技术所带来的愉悦在后期都是会引起惊呼的。就像是飞机的发明,在那个时代就是个笑话,而现如今是离不了的交通工具;对原子能的恐惧在那个年代是不由分说的,但是现在呢,核能虽然有重污染、高辐射等等弊端,但是用核能来发电却也是最大程度的造福人类,一切的技术发展都将会造福人类,毕竟,技术改变世界。
人工智能尚处于摸索阶段,至于现在就开始鼓吹人工智能威胁论的人,他们比人工智能本身更可怕。
没有探索,人类现在还在树上吃香蕉呢……
壹
AI威胁论已经不是个新鲜话题了。
几年前,谷歌旗下人工智能实验室DeepMind的联合创始人哈萨比斯造访马斯克的SpaceX火箭工厂时,马斯克说,SpaceX的终极目标是这个世界上最重要的项目:星际殖民,这样“将来如果人工智能向人类发起攻击,我们还有一个藏身之地。”
哈萨比斯的反应是哈哈大笑说,那人工智能也会追着人类去火星。
因此,马斯克的担忧一直没有被打消。
著名物理学家霍金也抱有同样的忧虑。他曾向BBC表示:“我认为,人工智能的发展可能预示着人类的灭亡。”
贰
人工智能是否如此凶猛?
李开复在给Quartz的约稿中提到:人工智能擅长对目标明确的工作进行优化(但是不能创造,没有感情);机械控制的发展速度较人工智能软件的发展要缓慢得多;传感器虽然得到迅猛发展,但价格昂贵、体积偏大且太耗电。
人工智能时代正在走近,机器在帮助我们提升工作效率、节省成本、带来效益,甚至在高重复性劳动中能够替代人的部分工作,但是,它们还远不具备“人性”。人工智能在数年前,还连猫和狗都无法区分。它们现在,也许只是摄像头、车辆中的自动驾驶系统、按照设置脚本完成工作的物流机器人,或者辅助教学的工具。
拥有自我意识、情感的机器,目前还没有出现。
那么,这一天是否终会到来呢?
鲁白曾在博鳌论坛上表示:“人工智能可以有认知功能,包括逻辑思维分析,以及决策之类。人还有另外的一个方面的认知叫做高级认知功能,里面包括语言包括自我的意识,包括想象力、创造力最后还有人所特有的一种目的性的行为,而我认为,人类是在这方面,是不能被机器代替的。”
在深圳IT领袖峰会上,李彦宏曾表示,机器学习的算法还在初级阶段,未来还有很多提升空间,但同时,他说,强人工智能时代,可能永远也不会到来,用电脑的方法模拟人脑,达到人脑的水平,是永远做不到的:“人工智能什么时候能挑战人的认知能力?我觉得还有很长很长的时间。我说话比较保守,我说很长,但我其实认为,这一天永远不可能来到。”
叁
但对人工智能,人类对它的“不信任”是存在的。因为,从本质上看,目前深度学习,是个非常黑的“黑箱”。也即是,你是不能看出它是如何工作的。也许机器输出的结果,可以给到合理的解释,但也有可能,有的你还完全没有任何理由去推断。
因此,我们在利用机器决策时,不能简单地去相信或拒绝相信它的判断,同样,我们也要保证,如何让AI系统学会作出符合我们道德标准和社会规范的判断。
之前,美国五大科技巨头谷歌、Facebook、亚马逊、IBM和微软罕见携手,成立了人工智能合作组织。此外,欧盟也开始探讨机器人和人工智能方面的道德问题。
当然,AI之间对抗的实验也已经在进行。
Google本部的人工智能团队Google Brain(不是 DeepMind),就针对这个问题在去年做了实验。研究者用到了三个并不复杂的神经网络,其中两个均未学过任何的加密知识,而是单纯依靠二者之间的共识(一段共享的密钥 K),去设计出一个加密的方法;另一个则为解密方。
结果发现他们搭建的人工智能系统,自己创造出了一个加密算法,不光人猜不透,还能“自我升级”,让算法无法破解。
DeepMind 则是找了两个人工智能玩对抗游戏,结果发现,它们之间也能学会共赢和合作。
在今年5月乌镇的围棋峰会的人机配对赛中,即将终局前,面对劣势,与古力搭档的AlphaGo决定投子认输,古力却拒绝了AlphaGo的要求,仍坚持鏖战。而之后,AlphaGo的棋路变得越来越消极,最终,古力在不可逆转的情势下,也只得认输。
但是,这些实验并没有脱离人类的控制,作为环境的搭建者,人类需要设计和搭建神经网络,以及对失败和成功的定义等。
但对于AI威胁论,在马斯克忙碌之余,我们或许现在还大可以放下心来。用马云的话说,现在AlphaGo还不会下臭棋,那么,so what?
声明:本文观点仅代表作者本人。
更多奥兰多房源咨询:
1.拨打电话:
美国1-407-405-3140
中国13699289903
2.微信直接留言:
请尽量详细阐述您的需求并留下您的联系方式
3.登录我们的网站:
http://www.mymultichoice.com
4.发送E-MAIL:
mymultichoice@gmail.com
如果您喜欢这篇文章...
【订阅我们】点击右上角...→关注公众账号,或在添加朋友处输入账号:mymultichoice
【分享或收藏】点击右上角...
【查看新房推荐】关注本账号后,回复“新房推荐”
MULTI-CHOICE REALTY, LLC是您首选的美国佛罗里达奥兰多房地产中介(经纪)公司,我们致力于向国内高端投资人士提供专业、客观、有效的美国房地产投资咨询以及房地产出租、房地产物业管理等一系列服务,做最值得您信赖的美国房地产服务专家。
微信号:mymultichoice
经纪人微信号:js4074053140
经纪人微信号:lixiao534347
了解更多户型结果及价格,请点击“阅读原文”
↓↓↓