7月6日最新消息,国际知名人工智能研究机构OpenAI正式宣布成立专项团队,致力于研发引导与控制”超级智能”AI系统的核心技术方案。该团队由OpenAI首席科学家、联合创始人伊利亚·苏斯克维尔(Ilya Sutskever)与协调团队负责人简·莱克(Jan Leike)共同领衔。这两位顶尖AI专家预测,具备超越人类智能水平的超级AI将在未来十年内出现。他们特别强调,由于这类AI可能存在不可预测的潜在风险,因此提前研究有效的控制与约束机制至关重要。
据悉,这支精英团队不仅汇集了OpenAI内部各部门资深研究员,还将吸纳一批新加入的研究人员与工程师。这一举措标志着OpenAI在AI安全领域迈出重要步伐。回顾过去,这并非OpenAI首次关注超级智能AI议题。2023年5月,时任CEO萨姆·奥特曼(Sam Altman)与苏斯克维尔联名发表的论文中,就系统阐述了建立特殊监管框架的必要性,并提出了在超级智能AI融入人类社会前必须遵循的安全发展路径。
人工智能的潜在风险一直是学术界和公众高度关注的焦点。今年3月,包括马斯克在内的超过千名科技界人士联合签署公开信,呼吁全球暂停开发超越GPT-4性能的AI系统,并至少实施为期半年的技术休整。这一系列举措充分反映了AI安全研究的紧迫性与重要性,也凸显了OpenAI在这一领域的战略布局。随着超级智能AI研发进程的加速,如何确保其发展符合人类长远利益,已成为全球科技界共同面临的重大课题。