随着人工智能深度融入科学研究,“本领域技术人员”标准面临的理论挑战主要源于人工智能赋能的自主性和协同性,这要求关注使用人工智能引发的认知能力差异,以及该差异对本领域内技术人员间共识形成的潜在影响。其引发的实践问题包括:一是如何认定人工智能“常规”使用;二是如何界定人工智能及其与人类协同呈现的“一般技术能力”;三是如何应对人工智能介入引发的“后见之明偏见”(hindsight bias)。
以DeepSeek为代表的生成式人工智能的出现,使得“本领域技术人员”标准面临挑战。在此背景下,首要的争议是,人工智能的使用是否属于“本领域技术人员”的“常规”手段。如果答案是肯定的,则会显著提升“本领域技术人员”的知识和能力水平。由此,专利授权门槛将有所提高,专利权保护范围得到扩大。这一调整的合理性基础在于,只有当人工智能在发明所属技术领域的应用趋于常规化,即为社会普遍接受并广泛应用,方可认定构成普遍或多数主体间的共识。鉴于此,发明人、实施者以及社会公众须承担来自共识的约束与责任。
关于人工智能在本领域内“常规”使用的判断,一类观点主张结合人工智能的使用情况作出具体判断,另一类观点则建议推定发明人“常规”使用人工智能。我国目前仅有8%的企业将生成式人工智能部署在生产环境中,且人工智能的应用存在显著行业差异,一概推定使用常规化,将会不合理地提高“本领域技术人员”标准,导致众多未使用人工智能的发明人难以获得专利保护,损害社会公共利益。即使从“促进人工智能的使用及发展”这一政策出发,也存在操之过急、矫枉过正的问题,故不可取。
人工智能使用的深度与广度持续拓展,其“常规”使用认定可能面临期望膨胀和应用场景泛化的双重困境,二者交互作用致使法律评价标准趋向复杂化。其一,人工智能使用程度存在夸大之嫌。根据Gartner发布的2024年人工智能成熟度曲线(Hype Cycle)可知,人工智能目前大多处于技术萌芽期(13项)和期望膨胀期(9项),这两个时期的技术项目数约占总技术项目数(29项)的75.9%。这反映出人工智能的应用面临被过度炒作的风险,虽有成功的案例,但大多尝试是失败的。即使生成式人工智能已度过期望膨胀的高峰期,但尚未进入泡沫破裂低谷期,对其炒作仍在继续。其二,人工智能在各个应用场景或领域中的使用程度存在显著差异。当前人工智能已广泛应用于自动驾驶、生物识别、社交机器人和司法人工智能等多个领域,应用场景日益丰富且不断深化。然而,人工智能的应用深度和广度因应用场景不同而有所区别。以生成式人工智能为例,其在文本生成、图像生成以及音乐创作等领域已实现规模化应用,但由于技术可靠性尚未完全验证,在医疗健康、自动驾驶等高风险领域的应用仍面临重大挑战。这种跨领域发展的不均衡性,导致对人工智能“常规”使用的认定变得更加复杂。
1. 人工智能的“一般技术能力”的界定难题
“本领域技术人员”标准中的“一般技术能力”要求,因人工智能的介入呈现出由“低”向“高”演变的趋势。由此引出的核心问题是如何界定人工智能技术能力的“一般”水平?然而,鉴于人工智能内在的复杂性、不透明性及不可解释性等特征,加上应用时的数据资源、应用场景与环境因素影响,最终结果的输出往往伴随着高度不稳定性和不确定性。基于当前“假设或推测”的标准,通过比较不同人工智能技术能力界定“一般”水平的尝试变得极为困难。
首先,在数据输入阶段,高质量数据及其可获取性直接决定输出结果的可靠性,并对人工智能技术能力产生决定性影响。当前数据经济持续向行业整合的方向深化,导致行业参与者掌握的数据资源差异显著。技术壁垒和商业模式差异导致大型企业(相较于中小型企业)、创新型企业(相较于传统型企业)具备更强的数据收集与整合能力,从而构建起多维度、大规模的数据集合。由此,那些掌握数据资源的少数群体将会主导人工智能的应用。训练数据的质量亦与人工智能技术能力的强弱直接相关,使用低质量数据训练模型会导致模型有效性缺失和可靠性不足。此外,数据集的动态演变特性,尤其是实时数据的持续更新,对模型训练和性能评估会产生显著影响。即使是同一模型架构,也会因输入数据不同而输出不同结果。总之,数据资源的差异性和动态性,使人工智能在性能表现上差异明显,难以形成统一和稳定的评估标准。
其次,在模型选择与训练阶段,算法模型的复杂性导致决策过程缺乏透明度,进而阻碍了对人工智能技术能力的评估。一般而言,复杂度更高的算法模型性能更优,但其可解释性明显弱于简单模型。以深度神经网络(DNN)为例,其内部多层非线性隐藏层包含大量神经元,导致决策过程呈现复杂性与不透明性,即典型的“黑箱效应”。此外,不同算法模型优势不同,分别适合于不同类型的数据处理任务。例如,卷积神经网络(CNN)擅长图像识别,而Transformer架构主导自然语言处理。即使是相同架构的模型,其参数的初始化方法不同,也会影响模型收敛速度与最终性能。上述因素的叠加效应使人工智能的决策过程及输出结果高度不确定,导致对其“一般技术能力”的评估难度大幅上升。
最后,输出结果的可复现性受应用场景及外部环境因素的制约。随着人工智能在跨领域多场景中广泛应用,其内部技术细节呈现愈发繁杂的态势,进一步彰显出人工智能的多变性和复杂性。此外,人工智能的实际应用还会受到外部环境因素的影响,诸如地理环境、文化背景以及个人行为不确定性等,在训练阶段这些因素难以被全面模拟,导致训练环境与真实场景存在显著差异。如此,输出结果的可复现性不仅加剧输出结果的不可复现性,更显著提升了人工智能的“一般技术能力”的界定难度。
总之,在人工智能领域内,界定技术能力的“一般”水平似乎难以完成,在理论上也可能不存在。究其原因:在数据输入阶段,数据资源的规模、质量及其可获取程度存在显著差异;在模型训练及结果输出过程中,人工智能呈现出不确定性、复杂性以及应用场景多样性等特征。这些因素的共同作用往往导致人工智能技术性能表现差异显著且不可解释,从而阻碍对其“一般技术能力”的判断。
2. 人机协同呈现的“一般技术能力”的界定难题
随着智能时代的到来,特别是以DeepSeek、ChatGPT为代表的生成式人工智能的突破,人机协同效能显著提升。在此背景下,人类的认知能力和人工智能的计算能力相互作用、优势互补,进一步增强了技术人员的实践创造能力。实证研究表明,在有无人工智能辅助的对照组实验中,人工智能的引入对输出结果具有决定性意义:ChatGPT类技术的贡献占比高达81%,而人类个体因素,诸如教育程度、智商及性格,所占比重则不足20%。这一数据表明,传统“本领域技术人员”标准中的程度限制要求已无法适应人工智能的发展,且远超人类单独完成任务的“一般技术能力”基准。因此,亟须基于整体性思维审视人工智能的辅助功能,重新界定人机协同场景中的“一般技术能力”标准。
人工智能尤其是生成式人工智能在创新活动中表现出色,可有效增强人类的分析、推理以及整合能力,从而更好地释放发明人的创新潜能。技术迭代驱动新一代人工智能的技术性能持续优化,但在人机协同中展现的技术优势相对有限。有学者针对ChatGPT 3.5和ChatGPT 4.0进行研究,指出后者虽在性能表现上超越前者,但对人机协同的性能提升不足2%。在人工智能广泛应用的情况下,技术因素的影响力仅有10.9%,而人类个体因素发挥决定性作用。其中人的“智商”因素的贡献程度高达33%,“AI使用熟练程度”因素的贡献占比是15.9%。随着对人工智能使用经验的累积,更为先进的人工智能所能带来的增量效益将逐渐减少。因此,应当重视人工智能发展的无限潜力,及其在增强创新能力方面的重要作用;同时,也必须清晰地认识到人类参与者在其中扮演的关键角色。
人机协同呈现的“一般技术能力”,将同时受到技术因素与人的因素双重约束。从机器层面考量,“人工智能技术能力”是关键要素;就人类角度而言,人类对人工智能的使用能力已成为一项新兴且不可或缺的技能,对人机协同效能产生直接影响。因此,“一般技术能力”的界定,不应局限于传统人类认知能力,还需考量普通研究人员的“人工智能使用能力”与“人工智能技术能力”的协同效应,构建整体性、系统性的评估框架。
专利法保护的发明创造是含有时代因素且具有历史性的产物。“本领域技术人员”标准构成一个“时间的函数”,其知识和能力水平是相对于某一特定时间而言的。在专利授权、确权及侵权程序中,基于专利文件披露的技术及其发展而诉诸“后见之明偏见”的倾向往往难以避免。若专利审查员或法官将迭代后的人工智能纳入判断基准,则会加剧“后见之明偏见”,可能不当限缩专利授权范围或导致专利权保护范围过宽。其根本原因在于法律拟制的静态性与技术发展的动态性之间产生结构性冲突,具体表现为以下两个方面。
一是人工智能快速迭代引发的认知偏差。人工智能的迭代升级影响对规定时间点的认知水平的精准认定。人工智能领域存在算法和算力的指数级迭代规律。以ChatGPT为例,自其发布以来,已历经十余次的更新和升级,未来其迭代周期甚至可能以天为单位。专利审查员或法官持续接触指数级进化的技术成果后,其认知基准可能会无意识地锚定于最新技术状态,导致“本领域技术人员”被拟制为配备最先进人工智能的主体。
二是人工智能不透明性引致的认知缺失。人工智能领域内的“黑箱效应”对规定时间点的认知状态进行准确重构造成阻碍。利用人工智能辅助生成发明时,在人工智能系统中输入的数据和输出的结果之间,存在着公众无法知悉的“隐层”,即“黑箱”。专利申请人出于商业秘密保护或成本控制的考虑,往往选择不完全披露技术方案细节。这意味着即使“本领域技术人员”研究了相关领域规定时间内的所有可查阅文件,也无法充分理解人工智能生成的技术方案。此困境迫使专利审查员或法官依赖事后解释方法,客观上强化了“后见之明偏见”。