• 
    联系我们

    广东联迪信息科技有限公司

    服务热线

    网络集成:400⑻99-0899

    软件支持:400⑻877⑼91

    咨询热线

    公司前台:0756⑵119588

    公司传真:0756⑵119578

    售前咨询:0756⑵133055

    公司地址

    珠海市香洲区兴华路212号能源大厦2楼

    社会新闻
    当前位置 > 首页 > 社会新闻

    人类背锅:人工智能已出现种族和性别偏见

    种别:社会新闻发布人:联迪发布时间:2017-04⑴7

    英国媒体《卫报》近日发表评论文章指出,人工智能已开始出现了种族和性别偏见,但是这类偏见并非来自机器本身,而是计算机在学习人类语言时吸收了人类文化中根深蒂固的观念。科学家呼吁,应当建立1个监管机构,去纠正机器的这类行动。

    以下是文章主要内容:

    让计算机具有理解人类语言的人工智能(AI)工具已出现了明显的种族和性别偏见。

    这些发现使人耽忧现有的社会不同等和偏见正在以新的、不可预知的方式得到强化,由于影响人们平常生活的大量决策正越来越多地由机器人做出。

    在过去的几年里,谷歌翻译等程序的语言翻译能力有了显著提高。这些成绩要得益于新的机器学习技术和大量在线文本数据的使用,并在此基础上对算法进行训练。

    但是,最新研究显示,随着机器越来越接近于掌握人类的语言能力,它们也在吸收隐藏于语言中的根深蒂固的偏见。

    巴斯大学的计算机科学家、论文合著者乔安娜·布莱森(Joanna Bryson)说:“很多人都认为这表明人工智能(AI)存在偏见。不,这表明我们有偏见,人工智能正在有样学样。”

    但布莱森正告说,人工智能有可能强化现有偏见,由于算法与人类不同,可能没法故意识地抵制学到的偏见。“危险在于,你具有的人工智能系统没有1处零部件明确需要依托道德观念驱动,这就不好了,”她说。

    ▲微软去年推出的Twitter机器人因不当言论而紧急下线

    上述研究发表在《科学》杂志上,重点关注1种名为“单词嵌入”机器学习工具,后者已改变了计算机解读语音和文本的方式。有人认为,下1步科技发展将自但是然地触及到开发机器的类人化能力,如常识和逻辑。

    “我们选择研究单词嵌入的1个主要缘由是,近几年来,它们已帮助电脑在破解语言方面取得了巨大成功,”这篇论文的资深作者、普林斯顿大学计算机科学家阿尔文德·纳拉亚南(Arvind Narayanan)说。

    这类方法已在网络搜索和机器翻译中使用,其原理是建立1套语言的数学表示式,根据与每一个单词同时出现的最常常使用单词,将这个词的意思提炼成1系列数字(也就是词向量)。或许使人惊讶的是,这类纯洁的统计方法仿佛能够捕捉到每一个词所在的丰富的文化和社会背景,这是字典没法定义的。

    例如,在数学“语言空间”,与花朵有关的辞汇常常与描绘心情愉悦的话语聚集在1起,而与昆虫相干的辞汇则常常与心情不愉快的辞汇同时出现,反应出人们对昆虫与花朵的相对特点所达成的共鸣。

    最新的文件显示,人类心理实验中1些更使人不安的隐性偏见也很容易被算法捕获。“雌性”和“女性”与艺术、人文职业和家庭的联系更紧密,“雄性”和“男性”与数学和工程专业更加接近。

    而且,人工智能系统更有可能将欧美人的名字与诸如“礼物”或“快乐”之类的愉快词语联系在1起,而非裔美国人的名字通常与不愉快的词语联系在1起。

    研究结果表明,算法与隐式联想测试具有一样的偏见,也就是把表示愉快的单词与(美国和英国的)白人面孔联系起来。

    这些偏见会对人类行动产生深远的影响。1项先前的研究表明,相对非洲裔美国人,如果申请者的名字是欧洲裔美国人,即使简历内容相同,后者所能取得的面试约请将比前者多出50%。最新的研究结果表明,除非采取明确的编程来解决这个问题,否则,算法将与现实社会1样,充斥着相同的社会偏见。

    “如果你不相信种族主义与姓名存在联系,这就是例证,”布莱森说。

    研究中使用的机器学习工具是在被称为“通用爬虫”语料库的训练数据集中接受训练的,其中的8400亿个词语都是从网上公布的材料当选取的。当研究人员把训练数据集换成谷歌新闻的数据对机器学习进行训练时,也出现了类似结果。

    牛津大学数据伦理和算法领域的研究人员桑德拉·沃彻(Sandra Wachter)说:“世界存在偏见,历史数据存在偏见,因此,我们得到带有偏见的结果,不足为奇。”

    她补充说,算法不但代表1种要挟,也可能为采取适当方式消除和对抗偏见提供机会。

    “最少利用算法,我们可能知道算法会在甚么时候出现偏差,”她说。例如,人类会在解释为甚么不雇佣某人时说谎,与此相反,算法不会撒谎,不会欺骗我们。”

    但是,沃彻说,问题在于如何从旨在理解语言的算法中消除不恰当的偏见,同时又不剥夺它们的解读能力,这将是具有挑战性的工作。

    “原则上,我们可以建立1些系统对带有偏见的决定进行检测,然后采取行动,”沃彻说,并与其他人1起呼吁建立1个人工智能监管机构。“这是1项非常复杂的任务,但作为1种社会责任,我们不应躲避。”