在司法审判领域应用人工智能是否能更好地促进公平正义是人们在审视这一技术应用时最关心的话题,而算法的可解释性是其是否能促进公平正义的关键。
在对算法的可信度与可解释性进行讨论时,首先应当区分不同的算法应用场景,在用于提升人工决策效率的辅助性应用场景中,没有必要对算法的可解释性进行要求。但如果算法(如类案判决的推送及提供量刑建议)在司法判决的场景中应用,则应当对其可解释性提出要求。除此之外,还应当请专家对算法的可解释性进行评估。其次,由于中国的法律还处于飞速发展的阶段,在不同的历史阶段,很多类案的判决并不相同,因此,在讨论算法的可信度及可解释性时,还应当对算法使用的数据进行审查、分类。
对于算法的可信度与可解释性问题,实务届人士认为应当研究具体的问题,而不是讨论抽象的主义。
因为在讨论宏观问题时,分歧可能是绝对的,在讨论法律AI的时候,可以更加关注实际应用的问题,进行降维的讨论。比如对于实际应用场景的算法可信度及可解释性问题,让法律人去解释算法的可信度是十分困难的,但在产品设计时完全可以回避这一问题。以量刑建议的推送为例,有只推送历史数据不进行量刑建议、将量刑建议作为可选按钮以及直接推送量刑建议三种模式,如果选择第一种或第二种方式,则判断的主动权仍然掌握在法官的手中,算法的可信度问题在产品中也就不那么凸显,也即价值只有在面对具体用户的时候才有意义。在讨论法律AI时,首要目的还是要促进公平正义。
但应当注意的是,目前法律人工智能产品主要还是由商业力量进行开发,商业的逻辑是逐利而不是促进公平正义,由商业力量主导进行人工智能开发带来的问题可能是法律私有化,因此,对商业力量开发的法律人工智能产品持保守态度是较为谨慎的做法。