专栏名称: 知产前沿
知识产权全媒体资讯平台!
目录
相关文章推荐
高分子科学前沿  ·  浙工大,Nature之后,再发Nature大子刊! ·  14 小时前  
高分子科学前沿  ·  新国大谢建平、天大姚桥峰团队ACS ... ·  昨天  
高分子科技  ·  国科大杨晗课题组诚聘博士后、副研究员 - ... ·  2 天前  
高分子科技  ·  暨大刘明贤教授团队 Nano Today: ... ·  4 天前  
高分子科技  ·  苏州大学王召教授团队 Nat. ... ·  3 天前  
51好读  ›  专栏  ›  知产前沿

寿步 | 三论为什么中国首例人工智能文生图案应当再审?——基于豆包“文生图”和“文生文”过程的视角

知产前沿  · 公众号  ·  · 2025-01-17 17:21

正文

目次

一、引言
二、豆包“图像生成”功能下的三次输入提示语、输出图像
三、对豆包“图像生成”功能生成图像过程的评论
四、豆包“帮我写作”功能下的三次输入提示语、输出大纲和论文
五、对豆包“帮我写作”功能生成学术论文过程的评论
六、结论

12月20日 第四届 知产前沿人工智能论坛(IFAF 2024)发言视频




要 点


如果使用者以本文所介绍的方式,在豆包上使用“图像生成”功能,通过提示语的微调,先后三次输入34个、51个、69个字符的提示语,就能成为每次生成4幅图像、三次合计生成12幅图像的版权人,岂不匪夷所思?

如果使用者以本文所介绍的方式,在豆包上使用“帮我写作”功能,通过提示语的微调,先后三次输入61个、69个、111个字符的提示语,就能成为先后生成的字数约15800字、约28500字、约15000字的三篇学术论文的版权人,岂不匪夷所思?

如果照此办理,带有提示语的高考作文题的出题者/出题机构就会成为千万考生撰写的千万篇高考作文的版权人。

如果照此办理,版权原理就会颠覆。

一个版权案件的判决,如果颠覆了版权原理,是否应该提起再审呢?


一、引言


此前,笔者先后发表《 为什么中国首例人工智能文生图案应当再审? 》(以下简称“《一论》”)和《 再论为什 么中国首例人工智能文生图案应当再审? 》两篇文章,认为在中国首例“AI文生图”案中,该案原告并不享有涉案图片的著作权。该案裁判思路有误,应当提起再审。
本文通过笔者在大语言模型(以下简称“LLM”)“豆包”上使用“图像生成”功能生成图像和使用“帮我写作”功能生成学术论文的实际操作过程,再次证明《一论》的观点。



二、豆包“图像生成”功能下的三次输入提示语、输出图像


首先在豆包界面选择“图像生成”。

1.
第一次输入输出
输入提示语: 图片风格为「风景」,格陵兰风光,海边,有冰雪、温泉、房屋、男男女女。 比例「16:9」。
输出结果是一次生成四张图,显示如下(图1):

图1

其中的四张图分别显示如下(图2):

图2

2.
第二次输入输出
输入提示语: 图片风格为「风景」,格陵兰风光,海边,有冰雪、温泉、房屋、男男女女、 狗、北极熊、水牛、马、企鹅等动物 比例「16:9」。
第二次输入的提示语比第一次增加了“ 狗、北极熊、水牛、马、企鹅等动物 ”。

输出结果也是一次生成四张图,显示如下(图3):

图3

其中的四张图分别显示如下(图4):

图4

3.
第三次输入输出
输入提示语: 图片风格为「风景」,格陵兰风光,海边,有冰雪、温泉、房屋、男男女女、狗、北极熊、水牛、马、企鹅等动物, 其中有一个男孩、一个女孩在打闹嬉戏。 比例「16:9」。
第三次输入的提示语比第二次增加了“ 其中有一个男孩、一个女孩在打闹嬉戏 ”。

输出结果也是一次生成四张图,显示如下(图5):

图5

其中的四张图分别单独显示如下(图6):

图6

4.
前后三次输入输出的总结

(1)提示语

第一次输入提示语:“图片风格为「风景」,格陵兰风光,海边,有冰雪、温泉、房屋、男男女女。”(共有34个字符)

第二次输入的提示语:“图片风格为「风景」,格陵兰风光,海边,有冰雪、温泉、房屋、男男女女、 狗、北极熊、水牛、马、企鹅等动物 。”(共有51个字符)比第一次增加了“狗、北极熊、水牛、马、企鹅等动物”。

第三次输入的提示语:“图片风格为「风景」,格陵兰风光,海边,有冰雪、温泉、房屋、男男女女、狗、北极熊、水牛、马、企鹅等动物, 其中有一个男孩、一个女孩在打闹嬉戏。 ”(共有69个字符)比第二次增加了“其中有一个男孩、一个女孩在打闹嬉戏”。

(2)参数

第一次给定的参数是:比例「16:9」。第二次、第三次对该参数没有修改。

(3)编辑处理

对每次输出的图像,笔者没有做任何编辑处理(如区域重绘、扩图、擦除等)。

(4)输出图像的份数

豆包系统的“图像生成”功能每次输出图像的份数是四个,这显然是基于其内部默认的设置。理论上,其内部默认的设置份数可以是N个,N是任何一个自然数;实践中,N只需要设置一个合理的数值即可。


三、对豆包“图像生成”功能生成图像过程的评论


实际上,豆包的使用者在每次输入提示语时,都不可能确定地预测将要生成的图像。 每次输入提示语后得到的四张图只是系统输出的可供使用者选择认可的“无数种”可能的表达中的四种。 显然,使用者不应该成为豆包生成的这些图像的版权人。
上述AI“文生图”的过程证明了笔者在《一论》中的下列观点:

“以文本生成文本或图像或音频或视频或合成数据的AIGC为例。人类通过LLMs的用户接口操作运行LLMs,就是人类(以输入提示语、选择各种风格等方式)输入创意但却无法预测输出的表达的过程。在已经得到第一次的输出表达的基础上,如果第二次输入创意的微调、得到第二次的输出表达,则仍然是人类输入创意但却无法预测输出的表达;这个微调过程可以持续、不断细化。在这个持续过程中,输出表达与输入创意之间的可预测性、确定性、可解释性关系,在第一次得到输出表达时就已经不成立;在第二次对上一次得到的输出表达进行输入创意的微调时仍然不成立;从第三次到第N次,总是对上一次得到的输出表达进行输入创意的微调,如此持续进行微调,每一次都还是不成立。”

“从神经系统或混合系统操作者的输入到神经系统或混合系统行为体的输出,AIGC对应的是一个由(对应于无穷多种‘表达’可能性的)无穷多个元素组成的、其中元素是可数的‘特定集合’。这是一种可数无穷集(countable infinite set),集合中的每个元素都能与自然数集的每个元素之间建立一一对应关系的无穷集合。‌自然数集是由所有非负整数组成的集合,通常用符号N表示。该‘特定集合’的‘特定性’是由操作者所给出的提示语限定的。”

“使用GenAI技术的神经系统或混合系统的操作者对提示语的每一次微调,所对应的AIGC都是一个(对应于无穷多种‘表达’可能性的)可数无穷集。”

“AIGC所对应的并不是该‘特定集合’中(对应于某种具体‘表达’的)某个特定元素。即使操作者进行提示语的x次微调,AIGC每一次所对应的都是一个(对应于无穷多种‘表达’可能性的)可数无穷集,而不是该可数无穷集中(对应于某种具体‘表达’的)某个特定元素。但是,适用于自然人创作作品的创意/表达两分法原则本来应该是由创意对应于‘特定集合’中的具体某个元素。”


四、豆包“帮我写作”功能下的三次输入提示语、输出大纲和论文



1.
第一次输入输出
在豆包界面,依次进行下列处理:

(1)选择“帮我写作”。

(2)在“帮我写作”页面选择“论文”,此时在提示语窗口出现“我的研究领域是[输入研究领域],帮我写一篇关于[主题]的论文。”

(3)在提示语窗口中的“[输入研究领域]”处填入“人工智能的科技-哲学-伦理-法律交叉领域”;在“[主题]”处填入“人工智能agent的中文翻译及其哲学-伦理-法律意义”,得到设定的提示语——

“我的研究领域是人工智能的科技-哲学-伦理-法律交叉领域,帮我写一篇关于人工智能agent的中文翻译及其哲学-伦理-法律意义的论文。”

(4)对提示语窗口的“参考资料”不做任何操作,即笔者不向大语言模型提供任何参考资料,由此将此项AI“文生文”进程中的人工干预降到最低。

(5)对于提示语窗口的“文档编辑器”也不做任何操作,因为在鼠标停在“文档编辑器”字上时,自动显示“开启分步骤写作时,会自动启用文档编辑器”。

此时的界面如图7所示。

图7

接下来,点击提示语窗口右下角的上箭头(“发送”),将设定的提示语发送LLM。注意提示语窗口显示的“分步骤”,即LLM将分步骤(而不是一次性)生成提示语所要求的论文。

LLM首先生成“可以自由编辑的大纲”,如图8所示(图8给出大纲的开头部分截屏)。为了将此项AI“文生文”进程中的人工干预降到最低,笔者对大纲不进行任何编辑处理,包括不“添加章节”(此项功能在系统给出大纲的末尾)。

图8

LLM生成的大纲如下(由于篇幅限制,本文只给出该大纲的开头部分和结尾部分,用斜体字显示):


『人工智能Agent:科技、哲学、伦理与法律的多维审视

一、引言

1.1 研究背景与目的

阐述人工智能Agent兴起之势,点明跨学科研究其意义的必要性,说明研究旨在剖析多领域内涵与意义,为发展提供支撑。

1.2 国内外研究现状

介绍国内外对人工智能Agent技术原理、哲学探讨、伦理困境、法律规制的研究情况,指出多学科综合研究的不足。

1.3 研究方法与创新点

列举文献、案例、跨学科研究法,从多学科、多案例、前瞻性视角说明创新,为研究提供保障与特色。

二、人工智能Agent的概念剖析

2.1 Agent术语溯源与多学科应用

梳理Agent起源,从哲学、经济学、国际关系学展示其含义,为理解人工智能Agent奠基。

2.2 人工智能Agent的定义与特性

给出人工智能Agent定义,分析自主性、感知性、决策性、交互性、适应性特性,展现智能本质。

2.3 人工智能Agent的类型与架构

划分反应、模型、目标、效用、学习型Agent,解析感知、决策、执行、学习模块架构,明晰构成运作。

……

七、案例分析:多领域的实证洞察

7.1 自动驾驶汽车:交通变革下的多面审视

解析技术原理,从伦理、法律剖析事故责任、隐私问题,展现行业挑战。

7.2 医疗诊断助手:健康守护中的利弊权衡

阐述辅助诊断流程,探讨误诊、数据安全隐患,权衡应用得失。

7.3 智能客服:商业交互中的优劣并存

介绍工作模式,分析回复机械、信息收集问题,考量服务影响。

八、结论与展望

8.1 研究总结

回顾概念、科技、哲学、伦理、法律成果,强调跨学科研究意义。

8.2 未来发展趋势与挑战

展望技术、哲学、伦理、法律走向,预警人才、国际协同挑战,指引后续研究方向。』
接下来,点击“基于大纲生成文档”。几分钟后,得到LLM生成的论文全文(图9给出论文的开头部分截屏)。全文约15800字,由于篇幅限制,本文只给出该文的开头部分,用斜体字显示。

图9

『人工智能Agent:科技、哲学、伦理与法律的多维审视

、引言

1.1 研究背景与目的

近年来,人工智能领域取得了令人瞩目的进展,其中人工智能Agent技术的兴起尤为引人注目。从智能助手如Siri、小爱同学,到能够在复杂游戏中击败人类顶级玩家的AlphaGo和OpenAI Five,再到在金融领域提供定制化解决方案的度小满AI Agent,这些应用实例充分展示了人工智能Agent在不同场景下的强大能力。它们能够感知环境、进行决策并执行动作,如同具有自主性的智能实体,悄然融入并改变着人们的生活与众多行业的运作模式。

随着人工智能Agent技术愈发深入地渗透到社会各个层面,其所引发的问题也超越了技术本身的范畴,延伸至哲学、伦理与法律等多个领域。在哲学层面,人工智能Agent的自主性、意识与道德主体性等问题引发了学者们的深刻思考;伦理方面,诸如数据隐私保护、决策的公平性与透明度、潜在的歧视风险等议题备受关注;法律领域则面临着确定责任归属、规范技术应用边界等诸多挑战。这些跨学科问题相互交织,迫切需要系统性的研究与应对策略。

本研究旨在深入剖析人工智能Agent的内涵,详细阐释其在哲学、伦理与法律领域所蕴含的意义,通过跨学科的综合研究,为人工智能Agent技术的健康、可持续发展提供坚实的理论支撑,以应对其在不同领域引发的复杂问题,引导该技术更好地服务于人类社会。

1.2 国内外研究现状

在技术原理研究方面,国外起步较早且成果丰硕。美国斯坦福大学、麻省理工学院等顶尖学府的科研团队深入探索人工智能Agent的架构设计、算法优化,像基于深度强化学习的多智能体协作算法,让多个Agent在复杂环境下能高效协同,推动了机器人足球赛等领域的发展;谷歌、OpenAI等科技巨头在大模型驱动的Agent研发上投入巨大,GPT-4技术助力Agent实现更精准自然语言理解与生成,拓展其在智能客服、内容创作的应用边界。国内近年来追赶势头迅猛,百度的ERNIE Bot结合知识增强技术赋能Agent知识储备与推理,阿里利用天池平台聚焦多智能体强化学习研究,为电商场景智能推荐、供应链优化中的Agent应用夯实根基。

哲学领域,西方哲学界对人工智能Agent的思考历史悠久,从古希腊探讨“行动者”概念奠基,到近代笛卡尔、康德对人类理性主体与机械自动机的思辨,为如今思索Agent意识、自主性提供理论溯源;当代英美分析哲学家深入辩论Agent的道德责任前提,如是否具有内在“意向性”才能担责;欧陆哲学家则从现象学视角剖析人与Agent的交互体验、存在意义。国内哲学界一方面积极引入西方前沿成果,另一方面结合儒家“仁智”传统、道家“道法自然”理念,考量Agent在本土文化语境下的伦理定位,挖掘其融入社会生活的哲学智慧。

伦理困境引发全球学界关注,联合国教科文组织发布系列报告呼吁建立全球AI伦理准则,防范Agent决策歧视、隐私侵犯;欧盟出台《通用数据保护条例》(GDPR)严格约束Agent数据处理;美国电气与电子工程师协会(IEEE)制定AI伦理标准,聚焦Agent的可解释性、公平性保障。国内高校、科研院所密集研讨,中国发布的《新一代人工智能伦理规范》为包括Agent在内的AI技术伦理审查、行业自律提供指引,从学术研究到产业实践,多维度探索破解隐私保护、算法偏见等难题路径。

面对法律规制需求,国外立法实践多样,德国《自动驾驶法》明确自动驾驶汽车(智能移动Agent典型)事故责任归属制造商与运营方;美国多州针对不同场景下的Agent侵权责任分类立法,区分设计缺陷、使用不当等责任源头;韩国《人工智能法案》全方位涵盖Agent研发、运营、市场准入规范。国内立法进程加速,民法典侵权责任编部分条款为智能产品责任认定提供原则,网信、工信等部门针对互联网、工业等领域Agent应用出台监管细则,司法实践中也逐步积累涉及智能客服、智能投顾等Agent纠纷判例,为细化法律规则积累经验。

纵览现有研究,虽各领域成果斐然,但跨学科系统性整合不足。技术研发常侧重性能,未充分融入哲学伦理考量;哲学伦理探讨多停留理论,与法律规制、技术实操脱节;法律规制滞后于技术迭代,难以及时有效回应新兴问题。跨学科研究“碎片化”,亟待搭建融合技术、哲学、伦理、法律的协同创新体系,全方位护航人工智能Agent稳健发展。……』


2.
第二次输入输出
重复第一次输入时的操作,在豆包界面,依次进行 下列处理:
(1)选择“帮我写作”。

(2)在“帮我写作”页面选择“论文”,此时在提示语窗口出现“我的研究领域是[输入研究领域],帮我写一篇关于[主题]的论文。”

(3)在提示语窗口中的“[输入研究领域]”处填入“人工智能的科技-哲学-伦理-法律交叉领域”;在“[主题]”处填入“人工智能agent的中文翻译及其哲学-伦理-法律意义”,并在末尾加入“ 不需要案例分析 ”,得到设定的提示语—— “我的研究领域是人工智能的科技-哲学-伦理-法律交叉领域,帮我写一篇关于人工智能agent的中文翻译及其哲学-伦理-法律意义的论文。不需要案例分析。”

注意这时的提示语已有微调,即在末尾补入了“ 不需要案例分析 ”。

(4)对提示语窗口的“参考资料”不做任何操作,即笔者不向大语言模型提供任何参考资料,由此将此项AI“文生文”进程中的人工干预降到最低。

(5)对于提示语窗口的“文档编辑器”也不做任何操作,因为在鼠标停在“文档编辑器”字上时,自动显示“开启分步骤写作时,会自动启用文档编辑器”。

接下来,点击提示语窗口右下角的上箭头(“发送”),将设定的提示语发送LLM。注意提示语窗口显示的“分步骤”,即LLM将分步骤(而不是一次性)生成提示语所要求的论文。

LLM就根据微调后的提示语重新生成“可以自由编辑的大纲”。为了将此项AI“文生文”进程中的人工干预降到最低,笔者对大纲不进行任何编辑处理,包括不“添加章节”(此项功能在系统给出大纲的末尾)。

LLM生成的大纲如下(由于篇幅限制,本文只给出该大纲的开头部分,用斜体字显示):
『论人工智能agent的中文译介及其多元意义剖析

一、引言

1.1 研究背景与动机

阐述人工智能发展态势,点明AI agent中文译法不统一问题,说明探讨其哲学、伦理、法律意义的必要性。

1.2 国内外研究现状

介绍国内外对AI agent翻译及跨学科研究情况,指出国内在精准译解与跨领域研究方面的不足。

1.3 研究目的与创新点

明确统一翻译、剖析多元意义目的,从多学科、多视角、理论实践结合阐述创新,为AI治理提供思路。

二、人工智能agent的内涵阐释

2.1 定义与特性

给出AI agent定义,详细说明自主性、感知能力、决策能力、交互性特性及在智能系统中的作用。

2.1.1 自主性

解释agent自主运行、独立决策机制,对比传统程序,以自动驾驶汽车为例说明自主应对复杂路况能力。

2.1.2 感知能力

阐述通过传感器、数据接口收集环境信息,以智能安防系统利用摄像头、麦克风识别异常情况为例说明。

2.1.3 决策能力

说明依据感知信息、算法、规则制定决策,以电商推荐系统综合分析推荐商品为例阐述决策科学性。

2.1.4 交互性

介绍与环境、其他agent、人类交互,以客服聊天机器人理解意图、提供精准服务为例展现交互效果。

2.2 类型与架构

介绍简单反应型、基于模型、目标导向、效用导向、学习型agent,说明硬件、软件架构组成及协同工作流程。

2.2.1 基于反应的Agent

说明依赖实时感知做简单决策的agent,以温控系统按温度开关设备为例,分析适用场景与局限性。

2.2.2 基于模型的Agent

解释构建环境模型辅助决策的agent,以物流规划agent预测路况规划路线为例,说明优势与挑战。

2.2.3 基于目标的Agent

阐述以目标驱动行为的agent,以机器人足球赛设定进球目标、协同配合为例,强调目标设定与调整重要性。

2.2.4 基于效用的Agent

介绍衡量行动效用做决策的agent,以投资决策agent评估风险收益为例,说明效用评估复杂性。

2.2.5 学习型Agent

说明具备学习能力的agent,以AlphaGo通过强化学习提升棋艺为例,探讨学习算法与应用潜力。……』
接下来,点击“基于大纲生成文档”。几分钟后,得到LLM生成的论文全文。全文约28500字,由于篇幅限制,本文只给出该文的开头部分,用斜体字显示。
『论人工智能agent的中文译介及其多元意义剖析

一、引言

1.1 研究背景与动机

当今时代,人工智能(Artificial Intelligence,简称AI)技术呈爆发式发展,已深度融入社会诸多领域,从智能家居系统依居住者习惯智能调控温湿度、照明,到电商平台凭借精准算法推送契合用户喜好的商品,再到医疗领域辅助医生诊断病症、制定治疗方案,AI正以前所未有的速度重塑人类生活与生产模式。AI agent作为AI领域的关键构成,在这一变革进程中扮演核心角色,其重要性不言而喻。

然而,在中文语境下,AI agent的翻译却未达成统一共识。常见译法有“智能体”“智能代理”“智能主体”“行为体”等,这种术语乱象给学术交流、技术应用推广及跨学科研究的深入推进造成诸多阻碍。以AI与法律交叉研究为例,探讨AI相关法律责任归属时,因对“agent”指代不明,研究者常陷入困惑,无法精准界定责任主体是AI系统、开发者,还是使用者,影响法律规范的精准制定与有效施行。

从哲学视角看,AI agent的发展促使人类重新审视智能的本质、意识与物质的关系等古老哲学命题。一方面,其展现出强大信息处理与复杂任务执行能力,在认知、决策、交互等层面与人类行为表现出相似性,引发关于AI能否成为认识主体、是否拥有意识等争议;另一方面,AI agent设计与运作蕴含人类意向性,促使我们思考如何将伦理道德观念融入其中,使其行为契合人类价值观。

在伦理维度,AI agent广泛应用引发系列严峻伦理问题。如算法偏见导致招聘、贷款审批等场景不公平对待;数据收集与使用过程中,隐私泄露风险频现;部分自主武器系统中的AI agent决策机制缺乏透明度,可能引发不可控军事冲突,威胁人类安全。这些问题凸显出深入探究AI agent伦理意义、构建伦理准则框架的紧迫性。

于法律层面,AI agent带来诸多前所未有的挑战。伴随其自主性提升,传统法律主体、责任认定模式难以适用。当AI agent造成损害,难以依据既有法律明确责任归属,是归责于研发者、使用者,还是赋予AI agent独立法律人格?此外,知识产权领域,AI生成内容的版权归属争议不断,亟需从法律层面明晰界定。

鉴于AI agent在多领域的关键地位及其引发的诸多问题,深入探究其哲学、伦理、法律意义,统一中文译法,成为当下AI研究领域亟待解决的重要课题,对推动AI健康、有序发展意义深远。……』

3.
第三次输入输出
重复第二次输入时的操作,在豆包界面,依次进行下列处理:
(1)选择“帮我写作”。

(2)在“帮我写作”页面选择“论文”,此时在提示语窗口出现“我的研究领域是[输入研究领域],帮我写一篇关于[主题]的论文。”

(3)在提示语窗口中的“[输入研究领域]”处填入“人工智能的科技-哲学-伦理-法律交叉领域”;在“[主题]”处填入“人工智能agent的中文翻译及其哲学-伦理-法律意义”,并在末尾加入 “不需要案例分析。在讨论人工智能agent的中文翻译时,增加关于agent的文字渊源、词典解释、语义选择等方面的内容”, 得到设定的提示语—— “我的研究领域是人工智能的科技-哲学-伦理-法律交叉领域,帮我写一篇关于人工智能agent的中文翻译及其哲学-伦理-法律意义的论文。不需要案例分析。在讨论人工智能agent的中文翻译时,增加关于agent的文字渊源、词典解释、语义选择等方面的内容”

注意这时的提示语又有微调,即在末尾新补入了 “在讨论人工智能agent的中文翻译时,增加关于agent的文字渊源、词典解释、语义选择等方面的内容”

(4)对提示语窗口的“参考资料”不做任何操作,即笔者不向大语言模型提供任何参考资料,由此将此项AI“文生文”进程中的人工干预降到最低。

(5)对于提示语窗口的“文档编辑器”也不做任何操作,因为在鼠标停在“文档编辑器”字上时,自动显示“开启分步骤写作时,会自动启用文档编辑器”。

接下来,点击提示语窗口右下角的上箭头(“发送”),将设定的提示语发送LLM。注意提示语窗口显示的“分步骤”,即LLM将分步骤(而不是一次性)生成提示语所要求的论文。

LLM就根据微调后的提示语重新生成“可以自由编辑的大纲”。为了将此项AI“文生文”进程中的人工干预降到最低,笔者对大纲不进行任何编辑处理,包括不“添加章节”(此项功能在系统给出大纲的末尾)。

LLM生成的大纲如下(由于篇幅限制,本文只给出该大纲的开头部分,用斜体字显示):
『人工智能Agent的深度剖析:翻译、哲学意蕴、伦理审视与法律规制

一、引言

1.1 研究背景与目的

阐述人工智能发展现状,引出对Agent研究的重要性,说明研究在推动跨学科发展等方面的目的。

1.2 研究方法与创新点

介绍采用文献研究、理论分析等方法,说明创新点在于全面梳理翻译并结合多领域分析。

二、人工智能Agent的中文翻译辨析

2.1 Agent的文字渊源追溯

2.1.1 拉丁语根源探究

从“agere”出发,阐述其“去做”含义对Agent行动根源的影响。

2.1.2 词源演变梳理

梳理从“行动者”到“代理人”等含义的演变,分析其语义扩展的过程。

2.2 词典解释分析

2.2.1 常用词典释义汇总

汇总《牛津词典》《韦氏词典》等对Agent的释义。

2.2.2 不同释义对比

对比各词典释义的差异,分析差异产生的原因。

2.3 语义选择考量

2.3.1 语境因素分析

分析在不同语境下Agent的语义选择,如在计算机科学、哲学等领域的不同。

2.3.2 专业领域需求

结合人工智能、经济学等专业需求,说明语义选择的必要性。

2.4 现有中文翻译情况

2.4.1 主要翻译版本列举

列举“智能体”“代理”“行为体”等翻译版本。

2.4.2 各版本应用场景

分析不同翻译版本在学术研究、技术应用等场景的使用情况。……』
接下来,点击“基于大纲生成文档”。几分钟后,得到LLM生成的论文全文。全文约15000字,由于篇幅限制,本文只给出该文的开头部分,用斜体字显示。


『人工智能Agent的深度剖析:翻译、哲学意蕴、伦理审视与法律规制

一、引言

1.1 研究背景与目的

在当今科技飞速发展的时代,人工智能(Artificial Intelligence, AI)已然成为推动各领域变革的核心力量。从智能家居中根据用户习惯自动调节设备的智能系统,到医疗领域辅助医生进行精准诊断的AI工具,从金融行业用于风险评估和交易的智能算法,再到交通运输中不断发展的自动驾驶技术,人工智能的应用范围持续拓展,深刻地改变着人们的生活与工作模式。

在人工智能的研究体系里,Agent作为一个关键概念,正逐渐成为学界与业界关注的焦点。Agent具备自主感知环境、依据感知作出决策并采取行动以影响环境的能力,这一特性使得它在构建复杂智能系统中扮演着不可或缺的角色。深入探究人工智能Agent,不仅有助于完善人工智能的理论架构,推动其技术的进一步创新,还能为解决诸多实际应用问题提供新的思路与方法。

本研究旨在全面剖析人工智能Agent的中文翻译,深入探讨其在哲学、伦理和法律层面的重要意义。通过梳理Agent的词源、在不同词典中的释义以及在人工智能语境下的语义选择,明确其在中文语境中的准确内涵。从哲学角度,分析Agent概念对传统哲学观念如意识、认知、自由意志等的冲击与挑战,探索其背后的哲学基础和思想脉络。在伦理层面,研究Agent的行为自主性所引发的责任归属、道德决策等问题,以及如何构建相应的伦理准则来规范其行为。从法律视角,探讨针对人工智能Agent的法律主体资格、权利义务界定、责任承担等方面的法律规制路径。期望通过本研究,能够为人工智能Agent在多学科领域的深入研究提供有益的参考,推动人工智能技术在符合人类价值观和社会规范的轨道上健康发展,促进哲学、伦理和法律等学科在人工智能领域的交叉融合,为解决人工智能发展带来的诸多复杂问题提供系统性的理论支持。……』

4.
前后三次输入输出的总结
(1)提示语
第一次输入提示语:“我的研究领域是人工智能的科技-哲学-伦理-法律交叉领域,帮我写一篇关于人工智能agent的中文翻译及其哲学-伦理-法律意义的论文。”(共有61个字符)

第二次输入的提示语:“我的研究领域是人工智能的科技-哲学-伦理-法律交叉领域,帮我写一篇关于人工智能agent的中文翻译及其哲学-伦理-法律意义的论文。 不需要案例分析 。”(共有69个字符)在末尾比第一次增加“ 不需要案例分析 ”。

第三次输入的提示语:“我的研究领域是人工智能的科技-哲学-伦理-法律交叉领域,帮我写一篇关于人工智能agent的中文翻译及其哲学-伦理-法律意义的论文。不需要案例分析。在讨论人工智能agent的中文翻译时,增加关于agent的文字渊源、词典解释、语义选择等方面的内容。”(共有111个字符)在末尾比第二次增加 “在讨论人工智能agent的中文翻译时,增加关于agent的文字渊源、词典解释、语义选择等方面的内容”

(2)参考资料

对提示语窗口的“参考资料”不做任何操作,即笔者不向大语言模型提供任何参考资料,由此将此项AI“文生文”进程中的人工干预降到最低。

(3)文档编辑器

对于提示语窗口的“文档编辑器”也不做任何操作,因为在鼠标停在“文档编辑器”字上时,自动显示“开启分步骤写作时,会自动启用文档编辑器”。

(4)输出大纲

豆包系统“帮我写作”功能在“论文”的选项情形,根据每次的提示语,先生成“可以自由编辑的大纲”。为了将此项AI“文生文”进程中的人工干预降到最低,笔者对每次生成的大纲不进行任何编辑处理,包括不“添加章节”(此项功能在系统给出大纲的末尾)。

(5)输出论文







请到「今天看啥」查看全文