• 
    联系我们

    广东联迪信息科技有限公司

    服务热线

    网络集成:400⑻99-0899

    软件支持:400⑻877⑼91

    咨询热线

    公司前台:0756⑵119588

    公司传真:0756⑵119578

    售前咨询:0756⑵133055

    公司地址

    珠海市香洲区兴华路212号能源大厦2楼

    社会新闻
    当前位置 > 首页 > 社会新闻

    霍金北京演讲:人工智能或是人类文明终结者

    种别:社会新闻发布人:联迪发布时间:2017-04⑵7

    4月27日,著名物理学家史蒂芬·霍金在北京举行的全球移动互联网大会上做了视频演讲。在演讲中,霍金重申人工智能崛起要末是人类最好的事情,要末就是最糟的事情。他认为,人类需警惕人工智能发展要挟。由于人工智能1旦脱离束缚,以不断加速的状态重新设计本身,人类由于遭到漫长的生物进化的限制,将没法与之竞争,从而被取代

    以下为霍金演讲内容:

    在我的1生中,我见证了社会深入的变化。其中最深入的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来讲,我认为强大的人工智能的崛起,要末是人类历史上最好的事,要末是最糟的。我不能不说,是好是坏我们仍不肯定。但我们应当竭尽所能,确保其未来发展对我们和我们的环境有益。我们别无选择。我认为人工智能的发展,本身是1种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

    人工智能的研究与开发正在迅速推动。或许我们所有人都应当暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长时间未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统须要依照我们的意志工作。跨学科研究是1种可能的前进道路:从经济、法律、哲学延伸至计算机安全、情势化方法,固然还有人工智能本身的各个分支。

    文明所提产生的1切都是人类智能的产物,我相信生物大脑可以到达的和计算机可以到达的,没有本质辨别。因此,它遵守了“计算机在理论上可以模仿人类智能,然后超出”这1原则。但我们其实不肯定,所以我们没法知道我们将无穷地得到人工智能的帮助,还是被藐视并被边沿化,或很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

    在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在耽忧创造1个可以同等或超出人类的事物所导致的结果:人工智能1旦脱离束缚,以不断加速的状态重新设计本身。人类由于遭到漫长的生物进化的限制,没法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,1个与我们冲突的意志。虽然我对人类1贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们便可以看到人工智能可以解决世界上大部份问题的潜力。但我其实不肯定。

    在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在耽忧创造1个可以同等或超出人类的事物所导致的结果:人工智能1旦脱离束缚,以不断加速的状态重新设计本身。人类由于遭到漫长的生物进化的限制,没法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,1个与我们冲突的意志。虽然我对人类1贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们便可以看到人工智能可以解决世界上大部份问题的潜力。但我其实不肯定。

    2015年1月份,我和科技企业家埃隆·马斯克,和许多其他的人工智能专家签署了1份关于人工智能的公然信,目的是提倡就人工智能对社会所酿成的影响做认真的调研。在这之前,埃隆·马斯克就正告过人们:超人类人工智能可能带来不可估计的利益,但是如果部署不当,则可能给人类带来相反的效果。我和他同在“生命未来研究所”的科学顾问委员会,这是1个为了减缓人类所面临的存在风险的组织,而且之条件到的公然信也是由这个组织起草的。这个公然信号令展开可以禁止潜伏问题的直接研究,同时也收获人工智能带给我们的潜伏利益,同时致力于让人工智能的研发人员更关注人工智能安全。另外,对决策者和普通大众来讲,这封公然信内容翔实,并非耸人听闻。人人都知道人工智能研究人员们在认真思索这些担心和伦理问题,我们认为这1点非常重要。比如,人工智能是有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能。那封只有4段文字,题目为《应优先研究强大而有益的人工智能》的公然信,在其附带的102页文件中对研究的优先次序作了详细的安排。

    在过去的20年里,人工智能1直专注于围绕建设智能代理所产生的问题,也就是在特定环境下可以感知并行动的各种系统。在这类情况下,智能是1个与统计学和经济学相干的理性概念。通俗地讲,这是1种做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交叉孕育被利用在人工智能、机器学习、统计学、控制论、神经科学、和其它领域。共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功。例如语音辨认、图象分类、自动驾驶、机器翻译、步态运动和问答系统。

    随着这些领域的发展,从实验室研究到有经济价值的技术构成良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长时间、更伟大的投入和研究。目前人们广泛认同,人工智能的研究正在稳步发展,而它对社会的影响很可能扩大,潜伏的好处是巨大的,既然文明所产生的1切,都是人类智能的产物;我们没法预测我们可能取得甚么成果,当这类智能是被人工智能工具放大过的。但是,正如我说过的,根除疾病和贫困其实不是完全不可能,由于人工智能的巨大潜力,研究如何(从人工智能)获益并规避风险是非常重要的。

    现在,关于人工智能的研究正在迅速发展。这1研究可以从短时间和长时间来讨论。1些短时间的耽忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,1辆无人驾驶汽车不能不在小风险的大事故和大概率的小事故之间进行选择。另1个耽忧在致命性智能自主武器。他们是否是该被制止?如果是,那末“自主”该如何精肯定义。如果不是,任何使用不当和故障的过失应当如何问责。还有另外1些耽忧,由人工智能逐渐可以解读大量监控数据引发的隐私和耽忧,和如何管理因人工智能取代工作岗位带来的经济影响。

    长时间耽忧主要是人工智能系统失控的潜伏风险,随着不遵守人类意愿行事的超级智能的崛起,那个强大的系统要挟到人类。这样错位的结果是否是有可能?如果是,这些情况是如何出现的?我们应当投入甚么样的研究,以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?

    当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,我们需要进1步研究来找到和确认1个可靠的解决办法来掌控这1问题。

    近来的里程碑,比如说之条件到的自主驾驶汽车,和人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入倾注到这项科技。我们目前所取得的成绩,和未来几10年后可能取得的成绩相比,必定相形见绌。而且我们远不能预测我们能取得甚么成绩,当我们的头脑被人工智能放大以后。或许在这类新技术革命的辅助下,我们可以解决1些工业化对自然界酿成的侵害。关乎到我们生活的各个方面都行将被改变。简而言之,人工智能的成功有多是人类文明史上最大的事件。

    但是人工智能也有多是人类文明史的终结,除非我们学会如何避免危险。我曾说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和1些来自世界各国的科学家共同在联合国会议上支持其对核武器的禁令。我们正在焦急的等待协商结果。目前,9个核大国可以控制大约1万4千个核武器,它们中的任何1个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是引发核冬季,火和烟雾会导致全球的小冰河期。这1结果使全球粮食体系崩塌,末日般动荡,很可能导致大部份人死亡。我们作为科学家,对核武器承当着特殊的责任,由于正是科学家发明了它们,并发现它们的影响比最初料想的更加可怕。

    现阶段,我对灾害的探讨可能惊吓到了在坐的各位。很抱歉。但是作为今天的预会者,重要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们团结在1起,来呼吁国际条约的支持或签署呈交给各国政府的公然信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。

    去年10月,我在英国剑桥建立了1个新的机构,试图解决1些在人工智能研究快速发展中出现的还没有定论的问题。“利弗休姆智能未来中心”是1个跨学科研究所,致力于研究智能的未来,这对我们文明和物种的未来相当重要。我们花费大量时间学习历史,深入去看——大多数是关于笨拙的历史。所以人们转而研究智能的未来是使人欣喜的变化。虽然我们对潜伏危险有所意识,但我内心仍秉承乐观态度,我相信创造智能的潜伏收益是巨大的。或许借助这项新技术革命的工具,我们将可以削减工业化对自然界酿成的伤害。

    我们生活的每1个方面都会被改变。我在研究所的同事休·普林斯承认,“利弗休姆中心”能建立,部份是由于大学成立了“存在风险中心”。后者更加广泛地审视了人类潜伏问题,“利弗休姆中心”的重点研究范围则相对狭窄。

    人工智能的最新进展,包括欧洲议会呼吁起草1系列法规,以管理机器人和人工智能的创新。使人感到些许惊讶的是,这里面触及到了1种情势的电子人格,以确保最有能力和最早进的人工智能的权利和责任。欧洲议会发言人评论说,随着平常生活中越来越多的领域日益遭到机器人的影响,我们需要确保机器人不管现在还是将来,都为人类而服务。向欧洲议会议员提交的报告,明确认为世界正处于新的工业机器人革命的前沿。报告中分析的是否是给机器人提供作为电子人的权利,这同等于法人(的身份),或许有可能。报告强调,在任甚么时候候,研究和设计人员都应确保每1个机器人设计都包括有终止开关。在库布里克的电影《2001太空漫游》中,出故障的超级电脑哈尔没有让科学家们进入太空舱,但那是科幻。我们要面对的则是事实。奥斯本·克拉克跨国律师事务所的合伙人,洛纳·布拉泽尔在报告中说,我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受1个机器人人格。但是耽忧1直存在。报告承认在几10年的时间内,人工智能可能会超出人类智力范围,人工智能可能会超出人类智力范围,进而挑战人机关系。报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。如果欧洲议会议员投票同意立法,该报告将提交给欧盟委员会。它将在3个月的时间内决定要采取哪些立法步骤。

    我们还应当扮演1个角色,确保下1代不单单有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造1个更加美好的的世界。这就是我刚谈到学习和教育的重要性时,所要表达的意思。我们需要跳出“事情应当如何”这样的理论探讨,并且采取行动,以确保他们有机会参与进来。我们站在1个美丽新世界的入口。这是1个使人兴奋的、同时充满了不肯定性的世界,而你们是先行者。我祝愿你们。