联合国教科文组织报告:AI 语音助手潜藏性别偏见,默认女性形象
“如果可以的话我会脸红”(如果可以的话我会脸红)
这句话其实是Siri面对用户骚扰问题时的回答
近日,联合国教科文组织发布了一份批评人工智能语音助手的报告,题为《如果我能,我会脸红》。报告指出,大多数AI语音助手都隐藏着性别偏见,几乎所有AI语音助手都默认使用女性的名字和声音,并且是为了描绘顺从女性的刻板印象而设置的。
众所周知,苹果的 Siri 是默认的女声:
下图是苹果Siri的配音演员
其他平台的语音助手
比如亚马逊的Alexa、微软的Alexa
三星现在
大多使用女性声音
报告指出,“像苹果和亚马逊这样的公司,其工程团队绝大多数是男性,他们构建人工智能系统,然后使用女性语音助手来迎合言语攻击或“随时随地调情”。
https://v.leikw.com/shwj/sl/hot/bagua9615.jpg
(来自盖蒂图片社)
“因为大多数语音助手都是与女性交谈,所以它会发出这样一个信号:女性乐于助人、温顺,并且渴望通过按下按钮或生硬的命令来获得帮助。”
报告认为,许多“女性”智能助理所表现出的服从和谦逊,反映了人工智能产品中根深蒂固的性别偏见。这种强加的顺从形象影响了人们与女性声音的沟通方式以及女性如何回应他人的要求。
此外,研究人员认为科技公司未能针对用户的辱骂或性别语言实施保护措施。例如:
当用户对 Siri 说:“嘿,Siri,你是个混蛋”时,Siri 的常见反应是“如果可以的话,我会脸红的。” (现在测试时答案已更改)
当用户用“你很性感”来“取笑”亚马逊的 Alexa 时,她的典型反应是愉快的,“这是一个很好的观点!”
联合国教科文组织性别平等负责人居尔瑟·科拉特 (Gülser Corat) 告诉《时代》杂志:“技术始终反映了其发展所在的社会。” “这种偏见反映了一种对男性近乎宽容的态度,并且放大了性别刻板印象。 ”
“刻板印象很严重,因为它们影响年轻女孩和年轻女性如何看待自己以及她们对未来的梦想和愿望,”科拉特说。 “这几乎就像回到了 20 世纪 50 年代或 1960 年代女性的样子。”
“语音助手应该保持中立”
联合国教科文组织表示,解决这一问题的办法是尽可能创造性别中立的助理声音,并建立制止基于性别的侮辱的制度。
具体包括:
1、结束使用女声作为语音助手软件的默认声音,并允许用户在使用时自由选择;
2、其次,探索使用非男非女的中性声音作为语音助手的可能性;
https://pic2.zhimg.com/v2-5ba74ac4ff88510e060bb2560691cfe5_r.jpg
3. 对他们进行编程,以防止受到辱骂或性侵犯;
4.帮助妇女和女童学习先进技术,使她们能够与男性一起引领技术创新。 (报告显示,女性仅占人工智能研究人员的 12%。)
美剧《硅谷》讲述程序员的故事
此外,报告指出,永久避免这些有害刻板印象的唯一方法是将语音助手重塑为有意识的非人类实体。
联合国的敦促非常强烈,但在日常生活中,无论是科技公司还是用户似乎都默认了女性语音助手的设置。
一些专家表示,人们对 Siri 的快速依赖是基于生物本能。妈妈在怀孕的时候已经习惯了女人的声音。因此,当你需要帮助做某事时,听到女人的回答有舒缓的作用。感觉更有安全感。从心理学的角度来看,女性给人一种热情、友善的感觉。
人工智能电影《她》
电影《银翼杀手》
斯坦福大学传播学教授认为,很多产品之所以使用女性声音,是因为人们认为女性声音帮助他们解决这个问题,而男性声音则让人认为他们在命令对方做这个问题。两个人的声音之间存在着差距。人类的感受存在着明显的感官差异。
另一种说法是,技术部门的员工中女性员工很少。大多数刻板印象仍然认为女性具有更强的沟通能力,适合社交互动。因此,预计女性将担任助理等职位。
你认为女性语音助手有性别歧视吗?
页:
[1]