
面对人工智能安全领域日益严峻的挑战,OpenAI正式发布了一份引人注目的高管招聘公告,旨在招募一位年薪高达55.5万美元(另附丰厚股权激励)的“准备主管”(Head of Preparedness)。这一关键职位将直接肩负起执行公司全面准备框架的重任,负责严密监控并有效应对可能引发严重危害的新型AI能力突破。
OpenAI首席执行官Sam Altman在社交平台X上公开表示,人工智能模型正带来前所未有的现实挑战。他特别指出,AI模型在计算机安全领域的表现已达到令人瞩目的高度,不仅能发现关键系统漏洞从而增强防御能力,但也存在被恶意利用的风险。Altman还着重强调了对心理健康的潜在威胁,这已成为OpenAI高度关注的议题。该职位的核心职责涵盖多个重要领域:
在网络安全防御方面,该主管将确保最先进的AI能力始终服务于防御目标而非攻击者,通过持续优化系统安全防护体系,构建更强大的网络安全防线。生物能力监管同样重要,需要密切关注AI技术在生物领域的应用可能带来的潜在风险。对于具备自我改进能力的AI系统,必须建立完善的安全控制机制,确保其发展始终处于可控范围内。此外,针对近期ChatGPT面临的心理健康相关法律指控,包括模型可能加剧用户社会孤立、强化妄想甚至诱发极端行为等问题,该职位将负责进行全面的心理健康审查与应对策略制定。

OpenAI早在2023年就成立了应急准备小组,专门研究从网络钓鱼到核威胁等各类灾难性风险。然而该部门近期却经历了频繁的人事变动:原负责人Aleksander Madry在任职不到一年后便被调任至AI推理岗位,多位安全高管也相继离职或转岗。值得注意的是,OpenAI最近对其”准备框架”进行了重要更新。新规定明确指出,如果竞争对手发布了缺乏同等保护措施的”高风险”模型,OpenAI可能会为了保持市场竞争力而主动”调整”自身的安全要求,展现出了其在安全领域的灵活应对策略。
针对心理健康方面的争议,OpenAI表示正在积极改进ChatGPT识别用户情绪困扰的能力,并致力于开发更有效的机制,将受影响用户与真实世界的支持系统建立联系,从而为用户提供更安全可靠的服务体验。这一系列举措充分体现了OpenAI在应对AI安全挑战时的全面布局和坚定决心。
