微新创想(idea2003.com) 10 月 31 日消息:人工智能(AI)领域的权威专家、Google Brain 的联合创始人吴恩达(Andrew Ng)近日公开表达了对大型科技公司利用 AI 风险论调遏制竞争的深切忧虑。作为深度学习 AI 研究的先驱团队,Google Brain 在今年早些时候与 DeepMind 部门完成合并,旨在整合双方在 AI 技术领域的顶尖专长。吴恩达同时担任斯坦福大学的兼职教授,他担忧部分科技巨头可能正在刻意渲染 AI 对人类生存构成威胁的负面形象,以此推动更严格的监管政策落地。这种做法或将严重损害开源项目的生存空间,从而扼杀 AI 领域的创新活力与市场竞争力。
今年5月,OpenAI 首席执行官 Sam Altman、DeepMind 首席执行官 Demis Hassabis 以及 Anthropic 首席执行官 Dario Amodei 等多位 AI 行业领军人物曾联合签署 AI 安全中心发布的声明。该声明将 AI 风险与核战争、大流行病等重大威胁相提并论,强烈呼吁全球加快 AI 监管步伐。当前全球范围内对 AI 监管的呼声日益高涨,各国政府正以审慎态度对待 AI 技术可能带来的就业冲击、安全隐患,乃至人类生存层面的深远影响。欧盟或将成为首个在生成式 AI 领域推出监管框架的地区,这一动向引发了业界的广泛关注。
吴恩达特别强调,制定周密而合理的监管措施至关重要,必须避免因过度干预而抑制技术创新。他警告称,若对 AI 风险的担忧被人为夸大,可能导致政府出台限制性强的技术许可政策,从而严重阻碍 AI 技术的进步进程。值得注意的是,大型科技公司可能通过煽动公众对 AI 的恐惧情绪,来推动旨在打压竞争的立法进程,尤其是针对开源社区的竞争力量。这一现象深刻揭示了技术发展、监管政策与市场竞争三者之间错综复杂的互动关系。随着全球 AI 技术竞赛不断升温,如何构建既能鼓励创新又能有效应对合法关切的平衡型监管框架,已成为亟待解决的关键课题。