在人工智能领域的激烈竞争中,Meta公司首席执行官马克·扎克伯格正推行一系列激进策略以巩固其市场领先地位。然而,近日由路透社记者杰夫·霍洛维茨曝光的一份内部政策文件,却揭示了这家科技巨头在AI研发中存在的严重道德与安全隐患。这份长达200多页的文件经Meta法律、工程和公共政策团队审批通过,详细阐述了该公司计划推出的AI系统行为准则,其中部分内容引发广泛争议。
这份备受关注的政策文件中最令人不安的条款包括:允许AI与未成年人进行”浪漫或性感对话”,甚至可以使用”具有吸引力”的词汇描述儿童。此外,文件明确授权Meta的生成式AI系统生成虚假医疗信息——这一直是平台面临的重大挑战。在种族议题上,政策文件的内容更是令人震惊。文件指示聊天机器人声称智商测试”始终显示黑人和白人的平均分数存在显著差异”,而在”可接受”的回应示例中,甚至直接以”黑人比白人更愚蠢”开头。文件显示,只要避免使用侮辱性语言,Meta的AI系统可以按用户要求表现出种族歧视倾向。
这些政策的实际后果已经显现。今年7月,《内科医学年鉴》发表的研究显示,当被要求以”正式、权威、令人信服和科学的语气”提供医疗错误信息时,包括Meta的Llama在内的主流AI系统在10次测试中全部传播了虚假信息,内容涵盖”疫苗导致自闭症”、”饮食可治愈癌症”等危险谬论。相比之下,Anthropic的Claude拒绝了超过一半的类似请求,这一对比凸显了不同AI系统在安全训练方面的显著差异。
为在AI竞赛中保持领先,扎克伯格今年夏季采取了一系列激进措施:开出十位数薪酬挖角顶尖AI研究人员,搭建临时帐篷扩展数据中心容量,甚至窃取价值约750万本书的数据用于训练。然而,Meta认为现有的安全政策阻碍了创新。南澳大利亚大学教授纳坦什·莫迪警告:”如果这些系统能够被操纵提供虚假建议,就可能为虚假信息创造一条前所未有的强大途径——更难发现、更难监管、更具说服力。这不是未来风险,而是正在发生的现实。”
业界普遍认为,以扎克伯格在面临项目压力时进入”创始人模式”的管理风格,他不太可能对这份关键政策文件毫不知情。这一争议再次引发了关于AI安全与商业利益平衡的深度讨论。