自从今年支付宝抽奖活动诞生了巨型“锦鲤”信小呆之后,抽奖就成为了全民关注的焦点。一时间各种抽奖活动兴起,就连“国民老公”王思聪也趁着IG夺冠在微博上搞了一次“壕气冲天”的抽奖活动。
此后,网友们乐此不疲地转发评论,各种膜拜中奖大神,只求自己也能成为“锦鲤”,甚至有网友表示今年双11就靠王思聪给的一万块活着了。这本来也就是一场网络狂欢而已,然而在中奖名单公布之后,却让人无法再狂欢了,因为113名获奖者中只有一名男性。
有人分析称,一些用户被微博抽奖系统标记为“垃圾用户”,所以怎样参与也不会中奖,而新浪微博CEO也给出了自己的解释。
当然,这样的解释并不能让网友服气,而且人们发现了更多“不公平”的抽奖结果:天猫抽10人清空购物车,中奖者全部为女性;天猫锦鲤和支付宝锦鲤都是女性;苏宁抽奖,中奖者全部为女性…
其中的深层原因我们不得而知,当然很可能有人为因素干涉,然而背后更有算法的支撑。现在各个平台都流行以人工智能来管理,甚至人工智能有取代人类之势。都说人工智能会抹平各种鸿沟,消除各种不平等,人类在人工智能时代会迎来新气象,然而种种迹象却表明那种乌托邦式的美好愿景不可能轻易实现,因为就连AI也学会了歧视,并且不只体现在抽奖活动中。
现在人工智能非常流行的一种应用方式是语音识别。如果人类听不清对方说话可以要求对方放慢语速,机器却没有这种能力,但更大的问题是,如果在训练语音识别的过程中带有歧视,会导致更为严重的后果。
例如华盛顿邮报曾与Globalme、Pulse Labs两家语言研究公司合作研究智能音箱的口音问题,发现以非英文作为第一语言的人说英文被Google Home 和Amazon Echo识别出的几率低,而印度族群所说的英文被识别的几率高。这是因为许多工程师来自印度,在开发产品时与智能语音助理对话所导致的。当然这是一种无意识的歧视,但它也造成了不平等。
因为搜集带口音数据的成本高,所以企业选择体量较大的群体着手也是必然,但许多企业在语音识别方面会优先针对美国、英国、澳大利亚的口音做训练,久而久之很容易导致没有这方面优势的人群被排除在外,无法享受到先进的AI语音识别技术。
在职场中,越来越多的公司会使用AI替代HR人工来筛选HR简历,但亚马逊在使用了一段时间后宣布停止这一做法,原因是AI程序给男性的分数高于女性。因为AI程序分析的数据源是亚马逊此前10年中收到的全部简历,在这些简历中,男性申请者较多,所以男性录取比例高。AI根据这一结果通过深度学习形成了“男性比女性优秀”的认知,最终形成了AI歧视。
在与人类的互动中,AI也可能会被带偏。2016年微软推出的聊天机器人Tay在推特上线,但在24小时之内就被匆匆下线,原因是许多用户有意引导Tay发表种族歧视和性别歧视的言论。
归根结底,AI都是人类设计和训练出来的,不论是研发者还是使用者,任何一个环节的偏见都会造成AI歧视的结果。当最为公平的科技都开始学会了歧视,新技术的普及对人类将会是一场灾难。
科技虽然能够让人类进步,却也潜藏着很大的风险。如果不能及时制止AI的歧视行为,那么对于人类的影响绝不止一场不公平的抽奖那样简单,所以人类应该对此种可能性加以重视,以便防患于未然。否则技术再怎么进步,不平等也依旧存在,甚至还可能有进一步扩大化的趋势。