随着国内科技巨头纷纷加大投入,人工智能大模型技术正迎来前所未有的发展热潮。类ChatGPT等生成式AI产品对传媒行业的冲击,其影响力之深远不亚于互联网革命时期。世界报业和新闻出版协会(WAN-IFRA)最新发布的行业报告显示,目前已有49%的新闻机构开始应用生成式AI技术,但令人担忧的是,仅有五分之一左右的媒体制定了相应的使用规范。随着AI技术不断迭代升级并渗透到传媒等各个领域,如何高效且合规地运用这项技术已成为行业亟待解决的课题。因此,波兰《Gazeta Wyborcza》报社、《连线》杂志、路透社等国际知名媒体机构制定的相关指导方针,无疑为我们提供了宝贵的借鉴和启示。
波兰《Gazeta Wyborcza》报社的记者Boleslaw Breczko曾进行一项具有代表性的生成式AI测试。今年4月初,他利用ChatGPT撰写了一篇题为《马斯克 vs OpenAI:创造新的人机界面竞赛》的文章,并署名发表在报社官网上。两周后,他发表反思性文章《还需要记者吗?我的上一篇文章是ChatGPT写的》,详细介绍了他们团队进行的读者与编辑辨识AI生成内容的实验。实验结果显示,尽管ChatGPT被输入了Breczko的多篇作品并要求模仿其写作风格,但最终生成的文章仍存在诸多缺陷,包括文风糟糕、上下文衔接不自然等低级错误。通过邀请记者编辑进行盲测,实验组发现AI写作质量与人类记者存在明显差距。当实验结果公布后,报社编辑部普遍松了一口气,更加坚信生成式AI在现阶段还无法完全取代媒体人的角色。但Breczko认为,ChatGPT等AI技术未来可能胜任部分写作任务,目前正对依赖新闻报道和开源信息撰写的记者构成威胁。他同时指出,AI带来的便利也伴随着新的风险——用户可能盲目信任AI提供的信息,即使这些信息基于错误数据或完全虚构。
实际上,《Gazeta Wyborcza》早在今年1月就组建了由60多人组成的研究团队,专门推进生成式AI技术的应用。经过一段时间的测试,团队制定了明确的ChatGPT使用规范:禁止将其作为文本写作工具或信息来源,禁止与ChatGPT共享机密内容以确保信息安全。该报社旗下网站Wyborcza.pl的副主编Aleksandra Sobczak表示,研究团队曾考虑使用AI生成新闻配图,但因AI在借鉴其他艺术家作品时存在道德风险而最终放弃。但她不排除未来使用AI生成文章的可能性,认为现在断言AI将如何影响媒体市场还为时过早。她强调,新闻媒体必须主动学习如何有效运用AI以及如何报道AI,技术发展日新月异,保守态度只会导致落后。Sobczak还特别指出,AI可能导致假新闻泛滥,因此坚守新闻质量是媒体使用这项技术的红线要求。
美国著名科技杂志《连线》近期发表文章,详细阐述了其使用生成式AI工具的规范。该杂志希望在新技术浪潮中保持领先地位的同时,恪守谨慎和伦理原则。《连线》的AI使用规范主要分为文本生成器和图像生成器两大类。针对文本生成器(如LaMDA、ChatGPT)的使用,制定了五项明确规则:一是不发布非重点内容的AI生成文本;二不使用AI编辑的文本;三可尝试使用AI生成标题或社交媒体短文,但必须人工审核;四可尝试使用AI激发创意,但需人工评估;五AI可作为研究工具,但标准与传统研究相同。对于图像生成器(如Dall-E、Midjourney、Stable Diffusion),则规定了三项使用原则:一在特定条件下可发布AI生成图像或视频;二不使用AI图像替代图库摄影师作品;三可用AI激发创意,但必须结合传统方式创作原始图像。
路透社170年历史上首位女主编亚历山德拉·加洛尼(Alessandra Galloni)在今年3月与伦理编辑Alix Freedman共同制定了四项AI使用原则,目标为”确保记者能够有效利用AI技术,同时保持路透社作为全球最受信任新闻机构的声誉”。第一项原则强调路透社一贯”拥抱新技术”的理念,包括使用自动化工具分析经济和企业数据,指出”自动化新闻对某些媒体可能是新概念,但对路透社而言已是长期实践”。第二项原则明确记者编辑需全面参与审核所有AI生成内容,强调”无论内容由谁制作或如何生成,路透社的报道都是路透社的报道,必须遵循我们的编辑伦理和标准”。第三项原则承诺向用户提供关于AI工具使用的全面公开披露,表示”我们将尽可能告知读者新闻来源信息,但不会公开编辑过程的每个细节。若特定AI工具影响发布结果,我们将主动告知”。第四项原则指出”探索新一代工具的可能性是必要的”,但强调记者必须”保持警惕,确保内容来源真实可靠”,并坚持”持怀疑态度,进行必要验证”的工作准则。
科技新闻媒体CNET的案例则警示了AI应用不当可能引发的严重后果。从2022年11月起,CNET开始使用AI技术生成一系列金融评论员文章,却未向读者明确告知内容生成方式。这些文章署名均为”CNET Money Staff”,直到读者点击作者信息才得知实情——”这篇文章是使用自动化技术生成的,并由编辑人员进行了仔细的事实检查和编辑”。CNET累计发布了70余篇AI生成文章,这一实验相当低调,从未正式宣布。但据消息透露,经过检查发现这些文章存在严重错误甚至抄袭现象。丑闻曝光后CNET流量暴跌,员工大规模裁员引发强烈不满。CNET媒体工会成立并宣称:”我们需要行业标准的工作保护、公平薪酬和编辑独立性,特别是在自动化技术威胁我们工作和声誉时。”工会发言人强调,必须建立全行业AI使用伦理准则,最好通过劳资谈判协定维持新闻高标准,并明确”AI制作的内容永远不能替代作者”。
当前,传媒业对生成式AI的应用提出了更高的标准和要求。媒体工作者需要保持理性乐观的态度,既要及时跟进AI技术发展,又要谨慎使用并遵守伦理规范,避免发布误导性报道和假新闻。版权、数据隐私和泄密等风险必须认真考量。充分、全面、及时的信息披露至关重要。同时,必须加强人工对AI生成内容的二次审核,以维护媒体的权威性和公信力。在AI时代,传媒业唯有在谨慎探索与积极创新之间找到平衡点,才能确保新闻业的可持续发展。