在人工智能领域引发广泛关注的重要消息中,杰弗里·辛顿、尤瓦尔·赫拉利等顶尖AI专家联合发出强烈呼吁,要求全球政府立即采取具体监管措施,以规范人工智能的发展和应用。这一呼吁来自包括三位图灵奖得主、一位诺贝尔奖得主以及众多AI学者在内的权威专家群体,他们共同敦促各国政府正视AI带来的挑战,并提出了具有里程碑意义的”三分之一投资规则”。
这一规则的核心要求是,所有主要从事AI系统开发的组织必须将至少三分之一的资源投入AI的安全与伦理建设,其投入水平应与AI能力开发的投资规模相当。这一创新性建议旨在确保AI技术的进步始终与相应的安全措施同步发展,避免技术突破与风险防范之间的失衡。
杰弗里·辛顿作为全球最具影响力的AI科学家之一,对当前AI发展现状表达了深切担忧。他指出:”部分公司计划在18个月内投入比现有最先进技术高出100倍的计算能力来训练AI模型,但我们对这些模型的最终能力几乎毫无监管。”这种技术发展速度与监管滞后之间的矛盾,已经引起了国际社会的严重关切。
在首届国际AI安全峰会召开前夕,这些权威专家共同发布了一份具有指导意义的文件,详细阐述了政府应对AI风险的具体策略。这份文件不仅代表了顶尖AI学者们的集体智慧,更展现了前所未有的全面性和实践性。文件强调,当前AI模型已具备巨大影响力,亟需通过民主化的监管机制防范虚假信息传播、社会不公加剧、权力过度集中、网络战升级以及AI失控等潜在风险。
尤瓦尔·赫拉利作为该文件的主要作者之一,以计算机科学家的专业视角强调了采取监管措施的紧迫性。他直言不讳地指出:”是时候认真对待高级AI系统了,这些绝非简单的玩具。在掌握如何确保它们安全之前盲目增强其能力,无异于鲁莽行事。”对于业界普遍提出的”监管扼杀创新”的担忧,赫拉利认为这是完全站不住脚的。他以生动的比喻回应道:”对于AI公司而言,监管的必要性远超三明治店,这是关乎人类未来的重大议题。”
这一系列由全球AI权威发出的集体呼吁,不仅彰显了AI领域专家对技术伦理与安全的深刻思考,更标志着国际社会对AI监管议题的关注度达到了新高度。随着AI技术的飞速发展,如何平衡创新与风险,已成为全球亟待解决的重要课题。