
在人工智能技术实现指数级增长的同时,其潜在的安全风险也日益严峻。OpenAI正以卓越的姿态积极构建其安全体系的关键环节。近日公司官网发布了高级职位”Preparedness Lead”(准备度负责人)的招聘信息,年薪起点高达55万美元并享有股权激励,该职位隶属于Safety Systems(安全系统)部门。这一重要岗位将直接参与前沿AI模型的产品发布决策,CEO Sam Altman更是将其称为”关键时期的关键角色”。
“Preparedness”机制:为应对AI”黑天鹅”事件而生
“Preparedness”(准备度/防备能力)是OpenAI近年来精心打造的核心安全机制之一,其目标是通过系统性评估与防御措施,有效应对大模型可能引发的各类极端风险。这些风险包括但不限于:模型被恶意利用进行生物、网络或化学攻击;自主智能体失控或遭遇策略欺骗;以及社会层面的大规模操纵和虚假信息传播等。该岗位的负责人将肩负制定技术战略、设计压力测试框架、执行红队演练等重要职责,并对模型是否具备安全上线条件做出最终权威评估,拥有决定性的否决权。
高层直接领导 纪律地位空前
值得注意的是,该职位将直接向OpenAI安全系统高层汇报,并与模型研发、产品、政策团队保持深度协作。此前,这一职能由知名AI安全专家Aleksander Madry(曾担任MIT教授,现担任OpenAI VP)等临时负责,但目前尚未设立常任主管,足见其职责的重要性与选拔难度。Sam Altman在内部信中明确指出:”随着我们不断突破AI能力的边界,确保我们’完全准备好’比以往任何时候都更加关键。这不是一个辅助性角色,而是决定公司未来发展方向的核心岗位。”

行业趋势:AI安全从合规审查转向战略制高点的转变
年薪55万美元的设定已远超普通安全工程师的薪酬水平,接近OpenAI研究科学家与产品高管的待遇。这一数字充分反映了AI行业对”主动防御型安全人才”的迫切需求——安全工作不再局限于事后的合规审查,而是被提升至研发源头的战略层面。与此同时,Anthropic、Google DeepMind等领先企业也相继成立了类似”AI灾难防控”或”极端风险评估”的专门团队,预示着AI安全正从技术分支逐步发展成为独立的战略支柱。
AIbase深度观察:谁掌控”AI刹车”权,谁就定义AI未来
在大模型竞赛从”谁更快”转向”谁更稳”的当前阶段,OpenAI的这一举措释放出强烈信号:最顶尖的AI公司不仅要能够研发出超级智能,更要具备有效管控其能力的能力。而Preparedness负责人的设立,本质上是在为AGI(通用人工智能)的到来安装”紧急制动系统”。当一份年薪高达55万美元的工作,其核心职责是防止AI可能带来的毁灭性后果时,这或许正是这个时代最具戏剧性,也最为不可或缺的岗位。
