越来越多的技术和数字服务建立在人工智能和机器学习上,或由其驱动。但正如我们开始看到的,这些项目开始复制其中的偏见,特别是围绕性别的偏见。因此必须对机器学习的过程——从输入到输出,包括数据、算法、模型、培训、测试和预测进行管理,以确保这种偏见不再存在。
《赫芬顿邮报》记者巴哈尔·格里珀尔(Bahar Gholipour)指出这种偏见就是
人工智能所谓的“黑匣子”问题——我们无法看到算法内部,因此无法理解如何做出决策。
他声称,如果这个问题不解决将破坏我们的社会,因为这会使得许多人努力遗忘的历史歧视再次改变我们的未来。
技术专业知识不足以检查、监控和保护机器学习过程的每一阶段。这需要所有年龄段、各行各业人们的经验和观点,来辨别明显或潜意识的社会和语言的偏见,并提出调整建议来建立准确性和信任。比有机会评估“黑匣子”中的性别偏见更重要的是,可以自由纠正发现的偏见。
第一步是打开“黑匣子”。
用户越来越要求人工智能是诚实、公平、透明、负责和以人为本的。但专有权益和安全问题往往排除了透明性。但是,目前加快开源代码、制定透明度标准的积极举措正在制订。AI Now是纽约大学一个倡导算法公平的非营利组织,它有一个值得遵循的简单原则:“当涉及到为人们提供服务时,如果设计师无法解释算法的决定,那么你就不应该使用它。“
现在有许多公共和私人机构开始认真对待这个问题。谷歌人工智能有几个项目推动商业世界和社会,思考人工智能的偏见,包括GlassBox、Active Question和PAIR倡议(People + AI Research),它们为机器学习系统手动增加了限制,从而使输出更准确和可理解。
美国国防部高级研究计划署还资助了一项名为XAI(Explainable AI)的大型工程,以使人工智能控制的系统对用户更负责。
微软CEO Satya Nadella也捍卫了“算法问责制”的必要性,以便人类可以消除任何意外伤害。
尽管这些努力是值得称赞的,但是打开盒子并制定法规和政策以确保透明度几乎没有价值——
除非有人可以检查算法内部,评估数据是否公平和公正。
单独的自动化语言处理无法做到这一点,因为语言在历史上就带有偏见——不仅仅是基本词汇,而是单词之间的关联,以及单词和图像之间的关系。
语义很重要。两位女性Casey Miller 和Kate Swift在1980年撰写了“无性别文学写作手册” ,这是该领域的第一本手册。她们致力于用语言促进性别平等。那是差不多40年前的事了,虽然技术自那个时期呈现了指数级增长,但我们在从词汇中消除性别偏见方面取得的进展微乎其微。
人工智能面临的挑战是将不断变化的词汇编程为二进制数值系统。人为干预对于判断程序员、语境和语言本身是否有偏见十分必要。
但性别偏见不仅仅存在于算法中。它也存在于结果——预测和建议中——而这是由算法所驱动的。
人工智能虚拟助手甚至可以强化常见的刻板印象:那些负责处理简单问题的(例如Apple的Siri和亚马逊的Alexa)是女性的声音,而更复杂的问题解决机器人(例如IBM的Watson和微软的Einstein)是男性的声音。
这一领域工作的女性不足,进一步加剧了性别偏见。AI Now2017年报告发现,
人工智能领域缺乏女性和少数民族是一个根本性问题,最有可能对人工智能系统产生重大影响并决定其在社会中的影响。
人们必须对流程的每个阶段提问,每个问题都需要一个多元化、跨学科、能代表公共和私人部门的团队的视角,并包括种族、性别、文化、教育、年龄和社会经济地位等因素,来审计和监控系统及其生成的内容。
他们不需要知道答案,只需要知道如何提出问题。
在某些方面,21世纪的机器学习需要回到古老的苏格拉底学习方法——基于提问和回答问题来激发批判性思维,提出想法并挑战潜在的假设。开发人员应该明白,这种审查和重新制定有助于他们从训练数据中清除已识别的偏差,根据经验证据进行持续模拟并相应地微调其算法。这种人工审计将加强人工智能的可靠性和问责制,并最终使人们对其产生信任。
(