中国日报网4月19日电 据英国《卫报》报道,科学家表示,机器学习算法正在不断吸收隐藏在语言使用模式中根深蒂固的种族和性别偏见。
有一种人工智能(AI)工具能计算机的能力具有革命性的变化,理解人类日常语言,表现出明显的性别和种族偏见。
现在大量的决策以自动化方式形成,且越来越多影响人们日常生活。在这种情况下,上述研究也发人们担心当下的社会不平等和偏见将会以新的、不可预知的方式呈现。
前几年,谷歌翻译等软件的语言翻译能力有了显著提高。这得益于新的机器学习技术和大量在线文本数据的使用,在此基础上算法也得以不断优化。
然而,最新研究显示,随着机器越来越接近于掌握人类的语言能力,它们也在吸收隐藏于人类语言中那些根深蒂固的偏见。
巴斯大学计算机科学家乔安娜 布莱森(Joanna Bryson)说:“很多人都认为这表明人工智能(AI)存在偏见。事实并非如此。这表明我们有偏见,人工智能正在向我们学习。”
不过,布莱森警告称,人工智能有可能强化现有偏见,原因是算法与人类不同,可能无法有意识地抵制所学到的偏见。“危险在于,你拥有的人工智能系统没有一处零部件明确指明是由道德观念驱动,这就不好了。”她说。
这一研究发表在《科学》杂志上,重点关注一名为“单词嵌入”机器学习工具,它改变了计算机解读语音和文本的方式。有人认为,深度学习技术的下一步的发展将自然而然地涉及到机器开发出类人化能力,如常识和逻辑。
“我们选择研究单词嵌入的一个主要原因是,近几年来,它已帮助电脑在破解语言方面取得了巨大成功。”这篇论文的资深作者、普林斯顿大学计算机科学家阿尔文德纳拉亚南(Arvind Narayanan)说。
这种方法在网络搜索和机器翻译中得到使用,其原理是建立一套语言的数学表示式,依据与每个单词同时出现的最常用单词,将这个词的意思提炼成一系列数字(也就是词向量)。也许,令人惊讶的是,这种纯粹的统计方法似乎能够捕捉到每个词所蕴含的丰富的文化和社会背景,而这是字典无法定义的。
例如,在数学“语言空间”,与花朵有关的词汇往往与描绘心情愉悦的话语聚集在一起,而与昆虫相关的词汇则往往与心情不愉快的词汇同时出现。这反映出人们对昆虫与花朵的相对特点达成了共识。
最新的研究显示,人类心理实验中,一些更令人不安的隐性偏见也很容易被算法捕获。“雌性”和“女性”与艺术、人文职业和家庭的联系更紧密,“雄性”和“男性”与数学和工程专业更为接近。
而且,人工智能系统更有可能将欧美人的名字与诸如“礼物”或“快乐”之类的愉快词语联系在一起,而非裔美国人的名字通常与不愉快的词语联系在一起。
上述研究结果表明,算法与隐式联想测试拥有同样的偏见,也就是把表示愉快的单词与(美国和英国的)白人联系起来。
这些偏见会对人类行为产生深远的影响。此前一项研究表明,相对于非洲裔美国人,如果申请者的名字是欧洲裔美国人,即使简历内容相同,后者能获得面试邀请的几率将比前者多出50%。最新的研究结果表明,除非采用明确的编程来解决这个问题,否则算法将与现实社会一样,充斥着同样的社会偏见。
(编译:崔珊珊、张梦予 编辑:王旭泉)
推荐