《东盟人工智能治理和伦理指南》作为具有开创性意义的有关AI技术治理与伦理的文件虽然促进了AI技术、法学等诸多领域的发展,但是其部分的内容的实行仍然存在一些潜在的问题和漏洞。
首先,虽然指南中规定了“透明度与可解释性”原则,但是某些算法比较复杂的AI系统或者软件,由于其底层逻辑是从庞大的数据网中搜索信息并进行分析解读最后产出结果,其内部的运算过程和工作机制AI本身可能无法阐述而使用者或者操作者也无法进行理解和解释,这就导致了“黑箱”问题,即外部观察者无法清楚地了解AI系统运算和决策的全过程,从而无法严格达成“透明度和可解释性”原则的标准,这种“黑箱问题”就极有可能降低人们对于AI的信任,比如在医疗诊断中,一个AI系统给出了一个治疗方案,但是以医生的知识储备无法对其进行解释,此时患者就会对AI系统的结果产生疑虑,产生与“透明度与可解释性”相悖的矛盾。除了技术难题,还有不同地区对透明度要求不统一等客观原因,因商业机密不愿泄露AI算法过程,不同知识水平的人的解释门槛等主观因素也是阻碍“透明度与可解释性”原则贯彻实施的障碍。
其次,“公平性与公正性”原则要求AI系统减少甚至是消除歧视和现有的不公平观念,但是由于AI系统一般是从数据库中寻找素材再进行运算,AI系统存在偏见的可能性很大程度上取决于数据偏见。如果喂给AI系统的数据本身存在偏见,或者某一种类的数据投喂的比较多,而相反种类的数据投喂的很少甚至不投喂,这种情况下就可能导致AI系统模仿甚至是放大这些偏见,从而呈现出结果上的不公平性,比如一个面部识别系统主要在具体特定种族特征比如白人的数据上进行训练,那么它可能在识别其他种族个体比如黄种人和黑人的时表现不佳。另外,AI系统的性能受限于其可利用数据的质量和多样性,而不同AI系统的数据池的广度和深度不同可能导致不同的AI系统对同一问题的处理结果不同,而这其中就会存在偏向性,比如最近较为热议的Mate的AI图像生成器无法准确生成“亚洲男性和白人妻子”或者“亚洲女性和白人丈夫”这类图像,从而引发关于种族和人种歧视的矛盾。因此贯彻“公平性与公正性”原则和消除AI歧视,只对AI系统进行规范和调教是无法达成目的的,更大的阻碍在数据来源上。
再次,指南中要求AI系统需要遵守“鲁棒性与可靠性”原则,即AI系统需要兼具对偏差的灵活的应对力和在不同情况中的一致性,但是在现实对AI系统运算模型的设定中,这两者的平衡是难以把握的和校准的。如果过于强调鲁棒性,那么就会导致AI系统对环境变化的敏感性,即AI系统可能对于输入数据的微小变化过于敏感,导致AI系统的普世性降低,在现实世界的应用不稳定,比如在图像识别任务中,对于同一种物品由于光照、角度和周围环境的变化而产生不同的识别结果,导致无法准确识别物品。而如果过度强调可靠性,那么由于AI系统主要依赖的是发生过的数据进行分析,用这种“过时”的数据进行分析的AI系统所做出的决策的准确性可能会随着时间的推移而下降,比如一个用于股市预测的AI系统可能会随着市场条件的变化而准确性会逐渐下降。除了把握两者平衡性的问题,在可靠性上,由于AI系统的只能依据过去的数据进行分析,因此在未来的事件的预测上准确性会降低,例如天气预报中,对未来的天气预测是基于过去的相关条件的气候变化进行预测的,有时会出现误差。
最后,指南虽然给出了国家级建议和区域级建议,但是在落地实施中可能会遇到一些困难。比如,不同地区和国家之间对于AI技术治理的监管和审查的程度和水平是不同的,相关的法律规定也存在显著的差异,因此同一个AI模型在不同国家和地区中所接受的规范要求也是不同的,而标准的不同可能就会导致研发导向的不清晰和矛盾。除此之外,不同国家和地区的文化和价值导向的不同可能会影响当地人对AI技术治理和伦理的理解程度和接受程度的不同,导致AI系统的跨区域协作遇到阻碍,比如不同地区对于面部识别态度的不同,有些地区可能对这种技术不置可否,但是也有一些地区认为这是侵犯隐私的。因此,指南虽然给出了建议和原则,但是想要在区域内或者不同国家间落地,仍然存在现实困难和阻碍。