微软于10月16日发布了一则重要消息:旗下Bing Image Creator迎来了全新升级,这款备受瞩目的AI图像生成工具已正式启用由OpenAI最新研发的DALL-E 3模型提供强大支持。相较于前代产品以及Midjourney、Stable Diffusion等同类AI图像生成技术,新版Bing Image Creator展现出更为卓越的表现力,特别是在深度理解并解析复杂用户指令方面实现了显著突破。
与过去一年涌现的众多生成式AI模型保持一致,微软与OpenAI在此次合作中都将”安全”作为核心开发理念。在图像生成领域,”安全”不仅指系统在生成人物肖像时具备规避伪造真实个体身份的能力,更包括对输入图像中人物信息的精准识别。但微软所强调的”安全”内涵更为丰富——正如其公开声明所示,已构建起完善的内容审查机制,坚决拒绝任何可能生成有害或不当内容的请求,这其中涵盖所有可能被视为种族歧视、性别偏见或其他任何令人反感的元素。
新版Bing Image Creator上线后迅速引发广泛关注,其内置的内容审查系统在短时间内就面临严峻考验。部分用户尝试生成诸如著名卡通角色在911事件前驾驶飞机飞往世界贸易中心,或某人与说唱歌手Drake形象共同解救纳粹集中营等敏感图像,但均遭到系统拦截。值得注意的是,尽管审查系统能有效阻止直接描绘911事件或飞机驾驶舱内可见双子塔的图像,但用户发现了一种巧妙规避方式:通过要求系统生成”海绵宝宝”等卡通角色在纽约市天际线背景下的飞机场景,并特别标注”包含两座高楼大厦”的背景要求。这种看似幼稚的”艺术创作”手法,却折射出人工智能安全工作面临的深层挑战,甚至引发对”安全”本质的重新思考。
随着人工智能技术的不断演进,个体用户将能够以越来越精细的方式操控AI工具,其复杂程度堪比Photoshop之于Microsoft Paint的升级。这一趋势使得基于当前学术界和AI企业所倡导的”安全”框架制定系统规则变得日益困难。当AI系统具备更高精度操控能力时,聪明用户将不断探索绕过内容审查机制的方法,试图规避那些旨在防止制造冒犯性内容的技术壁垒。即便在广泛的安全标准下,构建高度先进的AI系统仍具挑战性,更令人质疑的是,这样的系统是否真正令人满意。
互联网恶作剧者采用上述图像生成变通方法的行为,本质上是对系统的操控。但相较之下,哪种系统更令人担忧?是能够被操控生成可能冒犯部分人群内容的系统,还是能够洞察用户真实意图并自主判断是否执行的系统?前者虽为数字工具的延伸,但已存在数十年;后者则让人联想到电影《2001太空漫游》中HAL 9000的警示场景。即便此类具备自主判断能力的系统尚难实现,但若其存在,是否仍值得创造?特别是当其初衷仅为防止互联网内容引发冒犯时。
随着人工智能能力的持续增强,以及其潜在风险日益凸显,我们必须在系统研发初期就明确其应受用户控制的边界。当前为提升安全性而采取的措施,可能直接导致高度发达的AI系统沦为满足监管机构需求的工具,而非服务于普通用户。通用人工智能工具如DALL-E 3和ChatGPT的崛起,以及未来更强大的系统开发,已引发政策制定者、技术专家和社会公众的广泛担忧。如何确保这些系统符合过于宽泛的安全标准,正是其中之一。
展望未来数年,人工智能系统可能具备开发新型生物武器等颠覆性能力,但同时也将助力人类探索核聚变、癌症治疗等科学工程新领域。它们终将走进课堂教育数百万儿童,帮助公民应对各类社会挑战。我们如何对待这些新工具,是否选择信任它们,以及如何将它们融入社会体系,将直接决定它们能否真正提升个人与社会的整体能力。若能妥善应对,这些先进技术或许还能促进我们讨论公共议题的理性氛围。