随着人工智能技术的飞速发展,其潜在的安全风险也日益凸显。周三,专注于AI安全评估的创新企业Irregular成功完成新一轮8000万美元的融资,由红杉资本和红点创投联合领投,网络安全巨头Wiz的首席执行官阿萨夫·拉帕波特也加入了投资行列。据知情人士透露,此次融资将Irregular的估值推升至4.5亿美元,彰显了市场对其技术价值的认可。
前瞻性安全防护理念
“我们的观点是,很快,大量的经济活动将源于人与人工智能的互动以及人工智能与人工智能之间的协作,这将从根本上挑战现有的安全体系。”Irregular的联合创始人丹·拉哈夫向TechCrunch表示。这一前瞻性的判断深刻揭示了AI时代所面临的安全挑战,也反映了Irregular在行业中的领先地位。该公司前身为Pattern Labs,现已成长为AI评估领域的重要力量。其研究成果被广泛应用于业界顶级模型的安全评估,包括Claude3.7Sonnet以及OpenAI的o3和o4-mini模型。尤其值得关注的是,Irregular开发的模型漏洞检测评估框架SOLVE已在行业内获得广泛认可和应用。
创新模拟环境技术
尽管Irregular在现有模型风险评估方面已积累了丰富的经验,但此次融资将推动公司向更宏大的目标迈进:在风险和危险行为实际发生前就进行预先发现和防范。为此,公司构建了一套精密的模拟环境系统,能够在模型正式发布前进行全方位的密集测试。”我们拥有高度复杂的网络模拟环境,其中人工智能既扮演攻击者角色,也扮演防御者角色。”联合创始人奥默·内沃详细解释道,”当新模型推出时,我们就能提前识别哪些防御措施真正有效,哪些存在漏洞。”这种创新的测试方法大大提升了AI模型的安全性。

行业安全意识觉醒
随着前沿AI模型潜在风险的日益暴露,安全已成为整个AI行业的核心关切。今年夏天,OpenAI全面改革了其内部安全措施,以有效防范潜在的商业间谍活动,这充分体现了头部企业对安全问题的重视。与此同时,AI模型在发现软件漏洞方面的能力不断增强,这对攻击者和防御者都产生了深远影响。对于Irregular的创始人来说,这仅仅是大型语言模型功能不断增强所引发的一系列安全挑战中的第一个。
安全与能力的赛跑
“如果前沿研究实验室的目标是持续创造出更复杂、更强大的模型,那么我们的使命就是确保这些模型的安全。”拉哈夫强调道,”但这是一个动态变化的目标,所以未来必然需要更多创新和投入。”这一表态清晰地勾勒出AI安全领域的本质挑战:这是一场AI能力提升与安全防护之间的持续竞赛,需要不断的技术创新和持续的资源投入。
