近年来,人工智能技术得到迅速发展,也越来越广泛地被应用于线索发现、信息采集、内容的生产和分发、效果反馈等各个新闻实践环节。人工智能技术在传媒业的应用模式及其引发的媒介生态变革,特别是其对新闻生产的影响,继续成为2018年新媒体领域研究的一大焦点。
算法与新闻的结合,是人工智能进入传媒业的主要方式之一。目前,算法新闻集中体现在机器写作(算法内容生成)和个性化推荐(算法内容推荐)这两种新闻实践上。对此,学界给予了持续的关注和深入的思考,也产生了一些新的观点和看法。
何苑等(2018)通过对机器写作的技术发展、工作原理和现状的梳理,发现机器写作一方面无法采集到线下事实,另一方面只能按照“人”设定的模块来写作,因此还不算真正的写作,只是一个基于算法并依赖互联网大数据来源的写作工具。不仅与真人在思维能力和创造能力上存在较大差别,在实际的应用中也存在诸多局限。
通过算法分析,来提供与之适配的内容或服务,已经成为当下社会中的一个普遍现实。各类算法的流行,在扩张了人的能力的同时,也带来了很多新问题与新风险。因此,如何识别甚至抵抗其中的风险,是学者们格外关注的话题。
彭兰(2018b)认为,算法流行的可能风险和问题包括:一是引发信息茧房的效应;二是算法中的偏见或歧视对人们社会资源与位置的限制(将人们囚禁在偏见与歧视固有的社会结构中);三是算法在幸福的名义下对人们的无形操纵(在个性化服务的“伺奉”下,个体逐渐失去自主判断与选择能力,越来越多地被算法或机器控制)。她同时也提醒我们,作为算法基础的“客观性”数据,不仅并不一定能带来更多真相(数据生产环节的偏差可能导致客观性数据堆积成的假象),反而可能走向它的反面(数据分析也可能成为客观事物的干扰因素)。因而,识别、抵抗其中的种种风险,也应该成为我们生活的一部分,成为媒体和各种数据应用机构的基本责任。
仇筠茜等(2018a)通过梳理多个国家新闻生产对人工智能的实际运用,发现技术本身和技术商业化一道,将新闻线索发掘、写作、分发等的诸多流程推向了“黑箱”——即新闻生产的“幕后的幕后”。黑箱化的过程不仅改变了新闻的样态、新闻生产的格局,而且带来了“流量工厂”驱逐优质新闻、定制推送固化社会分层、技术平台“反收编”新闻机构等社会格局变化。她据此提醒我们,当下研究者们不能仅停留于讨论人工智能在技术层面能实现什么,而应将视线转移到黑箱,审慎地观察这一过程可能的社会影响。
对于如何打开算法黑箱、增进其透明度,仇筠茜等(2018b)也做出了积极的思考。她认为,目前两种方法,“I-T-O”(试图从算法新闻的输入、吞吐、输出三个阶段来进行公开,增进透明度)和“逆向工程学”(尝试通过技术手段从结果去反推算法规则)都在尝试以庖丁解牛般“看进去”黑箱的思路来对待算法偏见。 然而,这两种方法都受到商业机密、民众算法素养、专业技术门槛等掣肘,“看进去”的策略很难落地。因此,她提出以“可理解的透明度”(用户导向,以可行性和社会接受效果作为衡量标准,更加注重普通大众是否可以不依靠专家、不需要机器学习的专业知识就可以理解)这种“看出来”的思路,从技术和规制理念两个方面增进算法的透明度。
从机器写作、算法分发等应用模式的研究入手,研究者进一步提出,智能化技术将全面进入传媒业并带来一场大变革。
曾为资深媒体人的范以锦(2018)基于对实践的深入观察指出,智能化媒体时代已经到来,智媒可以提升内容生产效率、丰富新闻产品形态、强化内容传播效果、创新商业模式,媒体对接人工智能后,随着媒体边界的不断扩展,将形成智能化思维下的新闻生产模式和泛内容生产赢利模式。
对于人工智能推动的传媒业变革,彭兰(2018c)称之为智能技术的驱动下的 “新内容革命”——智能化技术正在进入内容行业,并促使内容生产(以智能化、人机协同为特征)、分发(以算法为核心)、消费(个性化与社交化交织、消费与生产一体)等全面升级,三者相互渗透、相互驱动,集成了内容生产、分发与消费的平台,也在逐步构建全新的内容生态。
曾庆香等(2018)则从主体视角来看待这场新闻生产的变革。认为在人工智能的语境下,新闻的生产包括社会化生产(生产主体包括所有个人和组织机构)、职业化生产(生产主体即新闻媒体等专业组织机构)和智能化生产(生产主体为机器人)诸种生产方式,促成各社会行为主体成为新闻生产者,从而形成了巨大的新闻生产主体网络,使得传统媒体时代的“我—他”传播,转变为“我—你”传播和 “我—我”传播,实现新闻生产主体的主体间性。
他山之石,可以攻玉。国外领先的人工智能应用实践,无疑对我们有着巨大的启发和借鉴意义。余婷等(2018)以美国为观察个案,发现技术巨头主导核心技术研发、传媒巨头主导关键技术引入和应用、专业技术公司主导智能新闻服务提供,三者构成了美国的人工智能研发及应用现状。由此,人工智能技术的引入或将改变美国新闻业的利益格局,形成新的垄断格局。
常江(2018)同样以美国为观察对象,通过对11位主流媒体编辑的深度访谈,深入考察自动化新闻(即机器人新闻)生产模式对新闻编辑群体心态构成的影响。 发现新闻编辑针对自动化新闻所形成的温和、静止且带有一定盲目色彩的群体心态将成为算法在新闻生产领域全面普及的重要制衡力量。而更加宏观的社会文化习俗和道德标准,是包括算法在内的各类内容生产新技术难以逾越的价值鸿沟。因此,如何在行业内建立起一套适用于算法机制的专业、经济和伦理标准,成为自动化新闻发展的一个基本方向。
人工智能技术的发展不仅引发了传媒生态的变革,也对现行的法律制度和版权制度带来巨大挑战。其中,两个逐渐凸显的重要议题是:由人工智能生产的内容是否构成作品?如果构成作品,它的著作权属于谁?
王渊等(2018)认为,人工智能(至少目前)不具有主体地位,不具有思想和情感,其生成内容不属于人的智力成果(只是按照人类设计的算法、规则、模板而生成的内容),不具有独创性,因此,就不能成为著作权法意义上的作品。但是,为了人工智能产业的健康发展,可以在人工智能生成内容之上设计所有权——根据不同的阶段可能属于程序设计者、人工智能使用者或者投资者。
王志刚(2018)与前者的看法大相径庭。他认为随着算法的进步,基于机器学习技术的人工智能产品已经具备了高度独创性,应当赋予其版权保护。在版权归属方面,虽然存在由人工智能创作主体的“非人类”性而引发的理论困境,但面对大量涌现的实践,仍可做出一些现实安排:在尊重智能技术变化规律的基础上,现阶段宜遵从“操作人优先”原则确定其权利归属。
郑宁(2018)发现,对于上述版权和法律问题,国外同行也是观点不同、做法不一。她还提示我们,除了上述问题之外,个人信息保护、人工智能的侵权责任认定、人工智能是否具有法律人格、算法歧视引发的平等权问题、人工智能涉及的劳动法等问题也逐渐浮出水面。因此,我们在大力发展人工智能的同时必需要正视由其引发的法律问题,并智慧地运用既有的或者创造新的法律规则来加以解决。