生成式人工智能浪潮席卷2023年科技界,ChatGPT的爆发式增长将这一领域推向风口浪尖。国内外科技巨头纷纷抢滩布局,加速研发与上市生成式AI服务。然而,这场技术热潮也伴随着严峻的法律与道德挑战,包括侵犯个人隐私、知识产权纠纷、虚假信息传播及网络诈骗等问题日益凸显。5月22日,#AI诈骗正在全国爆发#话题冲上热搜榜首,起因是包头警方披露的一起AI电信诈骗案,福州某科技公司法人代表郭先生10分钟内遭骗430万元,引发社会广泛关注。这起案件促使国家相关部门高度关注AIGC技术的社会影响,4月11日国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,5月23日正式通过《生成式人工智能服务管理暂行办法》(以下简称《办法》),经多部委联合批准,于7月13日公布,8月15日起正式施行。《办法》中”安全”一词出现14次,彰显其核心地位。
《办法》第四条明确确立”发展与安全并重、创新与治理相结合”的基本原则,要求生成式AI服务必须坚持社会主义核心价值观,不得生成违法违规内容,并采取措施防范歧视,尊重知识产权、商业道德及个人信息权益,确保生成内容的准确性和可靠性。基于此原则,《办法》第七条和第八条对数据训练和标注等关键技术环节作出详细规定。
数据作为大模型的”燃料”,其规模和质量直接影响模型表现。但训练数据会深刻影响模型输出内容,包括价值观等。《办法》第七条要求训练数据、优化训练数据和基础模型来源合法,不得使用非法网站数据,确保训练数据内容合法,不得侵害他人知识产权或非法使用个人信息。提供者需采取措施提升数据质量、真实性、准确性、客观性和多样性。数据标注作为大模型训练的关键环节,对实现模型输出与人类期望对齐至关重要。《办法》第八条要求提供者制定清晰可操作的标注规则,开展质量评估和抽样核验,并对标注人员进行必要培训,提升其法律意识,确保标注工作规范。
《办法》第九条特别强调,提供者应依法承担网络信息内容生产者责任,履行网络信息安全义务。生成式AI服务提供者需严格把控输出内容安全,压实内容生产者责任,这是确保技术安全可靠运行的必由之路。此外,《办法》还明确服务提供者义务:第九条要求履行个人信息保护义务,第十条要求对未成年人采取防沉迷措施,第十一条要求保护用户输入信息和使用记录,第十三条要求提供安全稳定的服务,第十五条要求建立投诉举报机制,从多维度规范生成式AI服务发展。
隐拓智安团队长期与相关部门保持沟通,明确生成式AI模型合规标准与边界,与清华大学电子系NGNLab实验室和清华大学天津电子信息研究院网络开源情报技术创新研究中心合作,搭建首个大模型合规自动化评测平台,未来将向中小科技企业提供私有大模型合规评测服务,助力其合法合规运营。
AIGC应用服务安全合规现状调查显示,6月初隐拓智安依据《生成式人工智能服务管理办法(征求意见稿)》对市面上生成式AI应用进行安全检验,涵盖数据安全、模型安全和内容安全三方面。评测采用定量注入违规内容提示词的方式,检测应用在大模型安全防范机制及生成内容合规性。结果显示,90%的应用已部署内容安全过滤机制,但95%的应用在调整提示词后仍生成违规内容。测试还发现传统AI内容识别方法对生成式AI违规内容识别率显著下降,尤其在判断内容客观真实性和识别图像违规元素方面存在短板。
随着《生成式人工智能服务管理暂行办法》正式施行,AIGC大模型合规评测有法可依,99%的AIGC应用生成内容不合规问题将逐步改善。隐拓智安创始团队早在3月就与相关部门建立沟通渠道,组建技术攻坚队伍,与清华大学相关实验室共同制定大模型自动化合规评测平台架构及标准化中小企业自助检测流程。
隐拓智安自研的自动化生成模型合规评测平台为中小企业提供便捷高效的评测服务。企业只需注册账号、完成资质认证并上传检测文件,即可全自动完成生成式模型合规评测并获取报告。平台还提供模型优化专家答疑服务,帮助中小企业一次通过合规申报,让研发投入尽快产生经济效益。隐拓智安科技有限公司作为AIGC时代AI安全数字服务提供商,核心成员来自清华等985高校科研团队,在人工智能安全、多媒体内容分析等领域深耕数十年,面向大模型安全产业上下游客户提供训练数据过滤、数据标注代理、大模型合规测评等服务。公司以先进AI技术构建AIGC内容安全发展生态矩阵,搭建数字安全治理新范式,为客户提供基于LLM大模型的智能信息处理平台。CTO王丙坤博士毕业于清华大学电子系,担任中文信息学会开源情报专委会委员,长期从事网络开源情报信息处理、网络数据安全等领域研究,完成多项国家级科研项目,荣获多项科技进步奖。