公平不仅是现代法治国家法的基本价值,更是人类所共同追求的崇高理想。坚持生成式人工智能应用的人本主义立场,要求公平原则贯穿生成式人工智能应用的全生命周期。国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,提出“坚持普惠性和包容性,促进社会公平正义和机会均等”,应关注生成式人工智能应用中所产生的歧视、偏见、刻板印象等,完善公平保障机制。
第一
,
在生成式人工智能应用的系统设计过程中
,
将人类负责等价值观内嵌于系统中
。在生成式人工智能的早期技术设计阶段就应嵌入价值设定,如隐私、信任等,来解决设计道德问题。具体而言,可以在生成式人工智能应用之前,设置“系统应用前伦理倾向测试”。一方面,扩大技术系统质量评价标准的范围,将伦理价值作为考量因素;另一方面,提前设定符合应用者价值倾向的算法,并设置错误价值观矫正机制,推动生成式人工智能对应用者的正向反馈,必要时可将“以人为本”“服务人类”等人类价值理念融入算法,对生成式人工智能实现潜移默化的修正价值观的效果。
第二
,
人类介入并对相关数据进行标注
,
促成输入结果的真实性
,
并形成生成式人工智能应用真实性的规范和制度
。正如《生成式人工智能服务管理办法》第8条规定:“在生成式人工智能技术研发过程中进行数据标注的,提供者应当制定符合本办法要求的清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作。”通过数据标注能够保障生成式人工智能的真实性与可靠性。创建和改进有关伦理原则,结合典型案例,基于对生成式人工智能伦理困境的创造,从训练伦理案例中抽象出一般性原则,并将其不断投入新案例训练中,测试检验原则的准确性,循环往复,对生成式人工智能所遵循的原则进行反复修正。
第三
,
打破算法黑箱
,
推动算法透明
,
促成生成式人工智能应用过程可解释性实现
。既然生成式人工智能可能引发伦理问题,其应用过程就应当受到人类监督;而确保生成式人工智能应用过程中监督有效性的落实,理应推动算法的透明化、可解释化。要利用自动推理技术,确保伦理决策系统的真实可靠。同时,要设定科学合理的推断规则,其中因果推断是决策规则的最佳选择,它具备可解释性,需要保证整个推理过程对人类和机器来说是可检查、可交流的。