您现在的位置: 首 页 >> 农业论文 >> AI也“偏见”!或应鼓励女性参与AI研发

AI也“偏见”!或应鼓励女性参与AI研发

作者:毕业论文
出处:www.lunrr.com
时间:2020-02-22

作者:韩阳梅资料来源:Science.com发布日期:2019/6/16 194336028336046

选择字体大小:中小

人工智能也是“偏见”!或者应该鼓励女性参与人工智能的研究和发展

当听到诸如“荡妇”这样的侮辱性言论时,人类要么反击,要么保持沉默。

但是在人工智能语音助手的世界里,苹果的Siri会说“如果可以,我会脸红”(如果可以,我会脸红);亚马逊的阿列克谢说,“谢谢你的反馈”;谷歌语音助理说“我不明白”.如果你对他们提出进一步的“明确”要求,他们很少直接拒绝。(目前已经修订)

最近,联合国教科文组织发表了一份长达145页的报告,题为《如果我能,我会脸红》(以下简称报告),批评了大多数人工智能语音助手的性别偏见,“因为几乎所有人工智能语音助手都有女性的名字和声音,并被树立为陈规定型和顺从的女性形象。”根据《人工智能强化性别偏见》报告中对四家公司的语音助理的调查,当听到用户对性骚扰的评论时,语音助理的回答往往模糊而温和。几乎没有语音助手给出否定的回答,或者将用户的评论标记为不恰当。

”这发出了一个信号,即女人是乐于助人、温顺和取悦他人的。用户只需按下按钮,发出生硬的语音命令。”据报道。

联合国教科文组织(UNESCO)性别平等部门负责人凯拉特(Kelat)表示,这种被迫服从的形象将影响人们与女性声音沟通的方式,以及女性对他人需求的回应方式。

这也意味着“女性”人工智能可能会强化人类社会中的性别偏见。

事实上,早在1964年,聊天机器人伊莱扎预设的声音就是女性的声音。目前,除了Siri和Cortana之外,中国领先的智能语音助理也有这样的现象,比如百度的“小杜”、阿里的“天猫精神”和小米的“萧艾同学”。

曾毅,中国科学院自动化研究所研究员,北京致远人工智能研究所人工智能伦理与安全研究中心主任,告诉《中国科学报》,人工智能语音助手中的性别偏见不是由算法本身造成的,而是产品设计师的选择,这直接反映了人类的倾向。

虽然现代性别观念提倡“男女平等”,但在现实社会中,妇女仍然普遍存在陈规定型观念,即人们普遍认为妇女温柔顺从,有足够的耐心和理解。

曾毅说,“人工智能产品开发者的最初动机可能来自所谓的‘大多数用户的偏好’,但它实际上制造了性别偏见,而人工智能只不过是学习数据特征和属性。事实上,目前的人工智能模型和技术仍然难以理解“偏见”的真正含义及其对人类的影响

人工智能似乎已经学会了人类的“性别歧视”,这种偏见可以在其他领域得到充分的“展示”。

例如,亚马逊基于人工智能技术的简历筛选和招聘系统“学习”选择男性求职者,而女性简历将被自动剔除。该项目去年被迫关闭。当职业平台领英(LinkedIn)通过复杂的人工智能算法向用户推荐工作时,它大多向男性求职者推荐高收入工作,但很少向女性推荐高收入工作。这种人工智能系统的应用不仅不能促进人类的福利,而且直接危害人类,应该在人工智能产品和服务的发展中加以纠正曾毅说。

人工智能开发者性别失衡或导致“偏见”

该报告认为,产品开发者之间严重的性别失衡是“偏见”的原因之一。

一项国内调查发现,中国程序员群体中的男女比例接近12: 1。上述报告还提到,只有12%的人工智能开发者是女性。软件开发人员中女性的比例低至6%。信通技术专利申请人的性别比例为13: 1。传统的性别社会化教育形成了这样一种普遍的社会分工,这使得人工智能和计算机领域由男性主导人工智能和新媒体技术与文化专家、北京大学教授吴静说。

发表在《科学》杂志上的一项研究证实了吴静的观点。研究表明,基于互联网标准文本语料库的机器学习模型蕴含着人类历史偏见的持久印记,非常准确。例如,在美国,男人与工作、数学和科学联系在一起,而女人与家庭和艺术联系在一起。这是事实。曾毅说,人工智能开发者的大部分教育背景来自科学和工程,这可能导致他们对社会、风险、道德和伦理的理解有限。"他们自己的偏见将直接嵌入人工智能系统."

吴静分析说,过去人工智能产品打破了内容和技术之间的壁垒,内容生产的话语权和技术工具的权力日益整合,主要掌握在技术研发团体手中,也就是说,“编码农民”团体可能拥有更大的主导力量。

今天的智能语音互动产品更赋有媒体属性,如亚马逊阿列克谢(Amazon Alexa)嵌入大量专业媒体内容,根据用户特征定制制作和重新编辑。

公众对社会的认知和理解往往来自媒体。吴静认为,“与传统大众媒体相比,人们对新技术下媒体的性别偏见没有更多的反思和批判。此外,由于社会陈规定型观念和人工智能的精确定位和精确分布,性别偏见得到加强和自然化。”

呼吁妇女参与人工智能的研发

不仅性别偏见,而且人类社会根深蒂固的“偏见”,如不平等和种族偏见,正在通过人工智能等新技术得到加强,并影响到人类决策。

报告建议探索将语音助理的“性别”设定为中性的可行性;用户可以根据需要更改智能助手设置;培养妇女从事先进科学技术研究的能力,以便她们能够与男子一起领导新技术的发展方向等。“这是在人工智能开发者中平衡男女性别比例的积极尝试。”曾毅提到,许多国际组织目前正在为更多妇女提供与人工智能相关的教育和培训。各行各业的性别比例应该更加平衡,以便增进相互间的交流和理解,减少偏见的产生吴京建议将性别社会化教育的理念融入早期教育过程。

此外,曾毅还说,发展无偏见、公平和公正的人工智能是我们的愿景。为了实现这一愿景,我们需要建模、算法化和系统化地将其集成到相关的核心技术、产品和服务中。在人工智能产品和服务生命周期的所有阶段,都应该尽可能进行公平的设计。

过去,“技术中立”的原则在人工智能技术中并不适用。它有自己的“价值观”。

“通过价值的‘校准’,使它们尽可能与人类认同的价值相一致,是人工智能学者正在做的事情。”曾毅说,“我们希望实现能够自动检测偏差的人工智能算法和应用,从而尽可能避免数据中的潜在偏差和算法中的可能偏差,从而引导公平公正的社会和技术发展。”

最新论文
中国工程院2015年实施新院士增选政策
AI也“偏见”!或应鼓励女性参与AI研发
AI也“偏见”!或应鼓励女性参与AI研发
18年里18人获诺奖,好学术环境比获奖更重要
AI也“偏见”!或应鼓励女性参与AI研发
AI也“偏见”!或应鼓励女性参与AI研发
AI也“偏见”!或应鼓励女性参与AI研发
10kV电网中外网配套施工技术的管理应用
中国工程院2015年实施新院士增选政策
10kV电网中外网配套施工技术的管理应用
10kV电网中外网配套施工技术的管理应用
中国工程院2015年实施新院士增选政策
热门论文
关于数字化条件下校园安防体系的研究与实践
人工智能技术和职业教育的人才培养研究
复旦投毒案被告最后陈述曝光:如死掉是报应
关于FSC赛车翼型的选择与二维流场分析
小学班主任德育教育的有效开展方式
关于培养学生的音乐鉴赏能力效率化的研究
关于未经抵押权人同意的转让合同效力辨析
中国青年报:大学师生恋要不要封杀
48例糖尿病合并重症感染的临床护理的分析
企业财务管理信息系统的探究及分析
中国制订防控艾滋病计划经费投入10年增加19倍
夏军院士:直面变化环境下水安全问题
FTO抑制剂或可用于白血病治疗
热门标签
日期归档
2020年02月
2020年01月
2019年12月
2019年11月
2019年10月
2019年09月