凤凰网科技讯 7月6日消息 ChatGPT开发商OpenAI近日宣布了一项重大战略部署,计划投入海量资源组建全新研究团队,致力于确保人工智能技术的安全性,并最终实现AI的自我监督。OpenAI联合创始人伊利亚苏斯克维尔(Ilya Sutskever)与AI一致性问题主管简莱克(Jan Leike)在最新博客文章中强调,超级智能AI的潜在力量可能对人类构成巨大威胁,甚至可能导致人类权力被剥夺乃至灭绝。他们指出,目前人类尚未掌握有效操控或控制潜在超智能AI的技术,更缺乏防止其失控的方案。
AI一致性(alignment)是确保AI行为符合设计者利益和预期目标的核心概念。苏斯克维尔和莱克在文中预测,超越人类智慧的超级智能AI可能在本十年内(即2030年前)出现,这将迫使人类开发更先进的AI控制技术。因此,在所谓的”一致性研究”领域取得突破已成为当务之急。”一致性研究”的核心目标就是确保AI始终对人类有益。OpenAI在最新声明中承诺,未来四年将投入所获算力的20%用于解决AI失控问题。
为推进这一目标,OpenAI正在组建一支名为”超级一致性团队”的专业团队。该团队的核心任务是创建具备”人类水平”研究能力的AI系统,并借助强大算力扩大研究规模。OpenAI表示,这一过程将采用人类反馈信息来训练AI系统,让AI辅助人类进行评估,最终实现AI自主开展一致性研究。不过,AI安全倡导者康纳莱希(Connor Leahy)对此计划提出了质疑。他认为OpenAI的方案存在根本性缺陷,因为即使初级版”人类水平”AI尚未成熟,也可能在解决安全问题前就已失控造成严重破坏。”在构建人类水平智能前必须先解决一致性问题,否则无法控制它,这是不言自明的。我认为这不是一个安全或明智的计划。”莱希明确表示。
值得关注的是,OpenAI旗下ChatGPT自去年11月推出以来迅速风靡全球,但最新数据显示其热度开始降温。分析公司Similarweb的数据显示,ChatGPT网站在6月份的月度流量和独立访客数量首次出现环比下降。具体来看,全球桌面和移动端流量环比下降9.7%,独立访客数量下降5.7%,用户平均停留时间也缩短了8.5%。这一变化或许预示着AI技术发展进入新阶段,市场开始从最初的新奇体验转向更理性的评估期。凤凰网科技将持续关注这一领域的最新动态。