微新创想(Idea2003.com)6月27日讯:德国发行量最大的报纸《图片报》正掀起一场颠覆性的变革——引入人工智能(AI)技术以替代部分编辑岗位,此举旨在大幅削减运营成本。6月19日,一份意外泄露的内部邮件揭示了出版商阿克塞尔·施普林格(Axel Springer)的裁员计划,邮件中措辞严厉地表示,报社将与部分同事”遗憾地告别”,这些同事的工作内容将”被人工智能和/或数字化流程所取代”。邮件明确指出,编辑总监、页面编辑、校对员、秘书及图片编辑等职位将”不再以当前形式存在”。
这一决定源于2月份的一份备忘录,当时阿克塞尔·施普林格的首席执行官宣布《图片报》将转型为”纯粹的数字媒体公司”,并直言”人工智能有潜力让独立新闻业变得比以往更好,或者彻底颠覆它”。然而,《图片报》随后发表声明澄清,裁员属于重组范畴,人工智能仅作为”辅助工具”,而非直接替代编辑角色。尽管如此,这一系列变革引发了深刻思考:在人工智能浪潮席卷下,编辑工作的核心价值——判断力、准确性、责任感和公正性——将如何保持?
### 编辑工作的核心价值
在民主社会中,编辑扮演着不可或缺的角色。他们如同信息传递的桥梁,负责筛选、呈现和塑造新闻内容,既向公众传递关键信息,又激发公众参与讨论。编辑通过新闻策划,突出社会焦点议题,引导公众关注,并促进公民参与。他们通过监督政府行为,确保权力制衡机制有效运转,同时通过过滤偏见观点、遏制错误信息传播,维护新闻信息的质量,这在数字时代尤为重要。
### 人工智能的局限性
当前的人工智能系统,如ChatGPT,尚无法胜任编辑职责的核心要求。它们在确保信息准确性和公正性方面存在明显短板。例如,ChatGPT能够生成看似可信却完全虚假的内容。不久前,一位纽约律师在法庭提交的案情摘要中,就出现了ChatGPT虚构的六项司法判决。6月初,又有报道指出,一名电台主持人在ChatGPT提供的虚假法律投诉误导下,正对OpenAI提起诉讼。更令人担忧的是,ChatGPT甚至能创作出完整伪造的文章,并以假乱真。
### 人工智能的固有偏见
人工智能系统还存在着难以避免的偏见。这些偏见源于训练数据中反映的人类知识体系,往往以隐蔽而深刻的方式影响公众认知。3月份的一项研究显示,ChatGPT在15次政治倾向测试中,14次呈现左倾观点。另一项针对七国集团成员国的政治倾向测试,也揭示了人工智能的偏见倾向。当被要求为水管工和幼儿园老师角色命名时,ChatGPT分别给出了十个男性名字和十个女性名字,这种性别刻板印象在人工智能系统中屡见不鲜。即使在道德判断方面,ChatGPT也表现出矛盾性,例如在著名的电车难题中,其建议随提示变化而摇摆不定。
### 缺乏问责制的风险
人工智能系统如同”黑匣子”,其内部运作机制难以完全理解或预测。与人类编辑不同,人工智能无法解释其决策逻辑,这在需要高度问责和透明度的编辑领域构成了重大隐患。尽管人工智能在效率提升方面具有明显优势,但鉴于其当前的技术局限,完全替代人类编辑仍存在巨大风险。
### 人工智能与人类协作的未来
新闻机构在应用人工智能时,应保持审慎态度。当前的人工智能系统尚不适合独立承担编辑职责,但若与人类监督相结合,则可能成为强大的辅助工具。人工智能擅长处理海量数据并自动执行重复性任务,可用于语法检查、趋势分析等,使人类编辑能更专注于深度决策、道德考量及内容质量把控。人类编辑的监督至关重要,能够弥补人工智能的不足,确保信息准确性并维护编辑标准。通过这种人机协作模式,人工智能可以成为提升效率的利器,同时保持新闻业的人性化特质。