件、简历扫描软件和网络搜索算法,它们的数据也充斥着性别数据缺口。我搜索了英国国家语料库[34](收录了20世纪晚期大量文本中的1亿个单词),发现女性代词的出现率始终只有男性代词的一半左右。[35]尽管当代美国英语语料库有5.2亿个词,收录了近至2015年的文本,但男女代词的比例也是2比1。[36]依据这些满是缺口的语料库来训练的算法,就给人留下这样一种印象:这个世界实际上是由男性主宰的。
图像数据集看来也存在性别数据缺口的问题:2017年,一项对两组常用数据集的分析发现,男性图像的数量远超女性图像;这两组数据集包含“来自网络的10万多张复杂场景的图像,并附有说明”。[37]华盛顿大学的一项类似研究发现,在他们所测试的45种职业中,女性在谷歌图像搜索中出现的比例偏低,其中CEO的比例最为悬殊:美国27%的CEO是女性,但在谷歌图像的搜索结果中,女性只占11%。[38]搜索“作家”的结果也是不平衡的,谷歌图片中只有25%的搜索结果是女性,相比之下,美国作家中女性的实际占比有56%,研究还发现,至少在短期内,这种差异确实影响了人们对某个领域性别比例的看法。当然,对于算法来说,影响会更长远。
这些数据集不仅未能充分代表女性,而且歪曲了她们的形象。2017年一项对常用文本语料库的分析发现,女性的名字和相关用词(“妇女”“女孩”等)与家庭的关系大于与职业的关系,而男性的情况正好相反。[39]2016年,一项基于谷歌新闻的流行公共数据集分析发现,与女性相关的最热门职业是“家庭主妇”,与男性相关的最热门职业是“名家大师”。[40]与性别相关的十大职业还包括:哲学家、社交名人、队长、前台接待员、建筑师和保姆——你可以自行猜测,哪些是男性,哪些是女性。2017年的图像数据集分析还发现,图像中包含的活动和物体表现出“明显的”性别偏见。[41]研究人员之一马克·亚茨卡尔预见了这样一种未来:如果机器人是通过这些数据集来训练的,当它不确定人们正在厨房里做什么的时候,它就会“给一个男人一杯啤酒,让一个女人帮忙洗碗”。[42]
这些文化成见可从现已广泛使用的人工智能技术中找到。例如,斯坦福大学的教授隆达·席宾格想把报纸对她的采访从西班牙语译成英语,而谷歌翻译和Systran翻译系统都反复使用男