谷歌宣布对Android应用程序实施更严格的人工智能生成内容审查政策,要求开发者加强内容监管并提供便捷的举报渠道。根据新规,所有使用AI生成内容的Android应用必须在明年年初前内置举报功能,否则将面临被Play商店下架的风险。这一政策的核心是提升用户对冒犯性内容的监督能力,确保用户能够轻松通过应用内按钮直接举报违规内容,无需跳转至其他平台。
谷歌明确指出,该政策覆盖三大类AI生成内容:AI聊天机器人、AI图像生成工具,以及利用深度学习技术合成真人声音或视频的应用程序。但值得注意的是,单纯用于文本摘要等非创作类应用,以及将AI作为辅助功能的生产力工具则不受此限制。谷歌特别列举了多项违规内容类型,包括未经授权的深度伪造技术、用于欺诈的真人语音录音、虚假选举宣传、以性为目的的生成性AI应用,以及恶意代码生成等。这些示例反映出谷歌对AI技术滥用的担忧,旨在保护用户权益和社会安全。
此次政策调整标志着谷歌对AI生成内容的监管力度显著提升。除了内容审查要求外,谷歌还同步升级了Play商店的媒体权限政策,严格限制应用对用户照片和视频的访问权限。需要全面访问媒体文件的应用将保留普通权限,而仅使用部分媒体功能的应用则必须改用照片选择器授权方式。这一系列措施充分体现了谷歌在推动技术创新的同时,始终将用户隐私与安全放在首位的发展理念。