Meta公司近日正式承认,其新研发的人工智能助手Meta AI正通过分析Facebook和Instagram用户的公开帖子进行训练。这一做法迅速引发了广泛的隐私与道德争议,核心问题在于大量用户担心自己的内容被用于AI训练而未获得明确授权,且对数据使用方式缺乏透明化沟通。
Meta AI是一款具有革命性功能的会话助手,不仅能对文本指令作出精准响应,还能根据文本提示生成高度逼真的图像。目前,该助手已率先在WhatsApp、Messenger和Instagram的测试版中上线,并计划通过Ray-Ban Meta智能眼镜和Quest3设备进一步扩大应用范围。其技术底层由Llama2和Emu等先进生成技术支撑,这些技术擅长从海量数据集中提取信息,构建文本与图像内容。
Nick Clegg作为Meta公司的全球事务总裁,在回应外界关切时表示,Meta AI的训练数据主要来源于Instagram和Facebook上受欢迎程度高、互动量大的公开帖子。他强调,在用于AI系统前,所有数据均会经过严格处理,删除任何可能识别个人身份的信息。此外,公司已内置多重安全防护机制,包括有害或冒犯性内容的自动过滤功能,以防止AI被滥用。
然而,用户群体对这一做法的担忧并未因此缓解。许多人质疑Meta公司是否真正获得了使用其帖子的明确同意,同时对其数据使用透明度表示不满。更令人担忧的是,用户不确定Meta是否已建立完善机制来避免Meta AI生成有害、误导性内容,或侵犯原创内容的知识产权。目前,Meta公司尚未公布用于训练Meta AI的具体帖子数量,也未说明如何处理用户选择退出AI训练的请求。
尽管面临争议,Meta公司明确表示将继续利用公开帖子优化Meta AI,并拓展AI贴纸、个性化样式及动态背景等附加功能。这一决策凸显了科技巨头在推动AI发展过程中,如何在创新与用户权益保护之间寻求平衡的艰难探索。