与深度学习不同,人工智能方案必须以负责任的方式通过更为简单且合法有效的语言向无技术背景的法官及用户作出决策解释。对于法官及用户而言,深度学习的复杂性使其更像是一种“魔法”,这无疑是一类法律风险、而不仅是一项很酷的功能。深度学习能够向人类发出建议或警告——例如从医学影像当中检测疾病,并由医生加以验证,但这种自动化机制仍然缺乏充足的细节。我们可以设想,相关方要如何向被人工智能拒绝的用户(例如拒绝其贷款或者工作申请)作出解释?
法律当中包含“解释权”,即负责解释申请人的工作或贷款申请为何会被拒绝。然而,深度学习给出的结果不具备自然(法律)语言的解释内容。虽然能够提供深度学习变量页,但法官或用户仍然无法接受,因此即使是最杰出的数学家或其它算法也无法弄清其内容并将其简化为深度学习模型。另外,即使对于那些由人类作出决策的场景,人工智能工具也应该能够给出详细的可判断原因(例如据此否决人工智能的决策),或者通过简单地复制、粘贴以及确认由人工智能提供的解释内容以完成快速认证。
目前还没人知道要如何修改深度学习算法以给出与人类相近的简单解释内容,因此深度学习显然无法通过合规性审计!这个问题也同样影响到其它多种人工智能与机器学习算法,但这种影响程度远不及深度学习。在增强或组合的情况下,决策树也同样无法进行解释。但在未来,我相信会出现新型或者经过重新发明的认证机制,且其足以捍卫自己的决策并彻底替代传统深度学习以及人类的判断方法。
在GDPR的约束下,只有人力部门能够处理申请拒绝工作:人工智能仅可接受申请,而对贷款或工作申请的拒绝则必须被交由人力资源部门处理,只有这样才能为遭到拒绝的对象提供有说服力的解释信息。
但即使是在这样的情况下,如果人工智能选择拒绝,人力资源部门仍然无法获得任何帮助或者解释信息,也无从知晓深度学习所遵循的逻辑是对还是错。他们将被迫从头开始重新检查数据,从而决定是否仍然加以拒绝,并为此作出合理的解释。这样做的风险在于,为了节约时间与金钱,人力资源部门会倾向于为人工智能提供并不属实的拒绝解释,或者盲目接受人工智能的批准意见。
然而,法官会要求验证人工智能决策的公平性,包括询问为何情况类似的其他人会被接受等等。出于安全考虑,大家需要主动获取坚定的批准理由——无论GDPR等法律是否作出明确要求。未来的非深度学习型人工智能系统应能够提供人类可读的决策解释以供用户、法官以及支持人员进行参考,只有这样其才能被最终全面引入自动化决策流程。
可解释性在相关法律甚至是深度学习出现之前就已经存在。在反垄断案件当中,谷歌等企业被问及为何某些产品——而非其它产品——被显示在搜索结果的顶部。这意味着早在深度学习技术出现之前,其它众多算法同样在以令人无法理解的方式混合数据以获取结果,即没人能够轻松重构相关决策的产生原因。
工程师们向法官解释称他们也不确切了解整个决策过程,并提交线性代数页作为证据。但这并不能很好地解决争议,多起案件结果显示这些企业遭遇到数十亿美元的罚款,甚至在特定法律出台之前,其被警告需要对现有机制作出彻底改变。用户所提出的与就业、贷款以及退税等相关的拒绝判断成为集体诉讼中的“常客”,并导致相关零售、银行以及保险等自动化决策单位因无法作出合理解释而面临着罚款甚至是公关危机的挑战。