10月27日,科技界迎来重磅消息。据海外媒体深度报道,美国人工智能研究先驱OpenAI于本周四正式宣布,将组建一支名为”Preparedness”的专项团队,专注于评估与防范人工智能(AI)可能带来的”灾难性风险”。这一举措标志着全球AI安全领域迈入新阶段,彰显了顶尖科技企业对AI伦理问题的深刻反思。
这支备受瞩目的Preparedness团队将由麻省理工学院可部署机器学习中心主任亚历山大·马德里(Aleksander Madry)亲自挂帅。作为机器学习领域的权威专家,马德里将带领团队系统性地跟踪、评估、预测并防范各类AI衍生风险,构建全方位的风险防控体系。OpenAI特别强调,该团队将负责制定和维护风险知情发展政策(RDP),这一创新政策旨在补充现有风险缓解工作,通过建立严格的安全标准,确保高性能AI系统在研发部署前后的安全性与一致性,为AI技术的健康可持续发展保驾护航。
回顾OpenAI的创立历程,其背后是硅谷科技巨擘的鼎力支持。2015年,由特斯拉CEO埃隆·马斯克、美国创业孵化器Y Combinator总裁阿尔特曼、PayPal联合创始人彼得·蒂尔等科技界领军人物共同发起,这家美国人工智能研究公司正式成立,专注于AI技术的实际应用探索。其CEO萨姆·奥尔特曼(Sam Altman)更是以”人工智能末日预言家”著称,他多次公开警告AI可能对人类文明构成生存威胁。这种危机意识促使OpenAI始终将AI安全置于战略高度。
事实上,OpenAI在AI安全领域的布局早已布局深远。今年5月,奥尔特曼联合多位顶尖AI研究者共同发表声明,呼吁全球将”减轻AI灭绝性风险”列为最高优先级议题。今年9月,OpenAI更进一步推出”红队网络”(Red Teaming Network),广泛邀请各领域专家参与,通过实战演练提升AI模型的安全性。这些签约专家将通过专业评估和风险减轻方案,为增强OpenAI人工智能系统的抗风险能力发挥关键作用,共同守护人类数字文明的未来。