微新创想(idea2003.com)8月24日 消息:在人工智能领域,生成式AI正成为备受瞩目的焦点,但其发展过程中伴随的炒作与风险也日益凸显。普林斯顿大学计算机科学专家Arvind Narayanan及其学生Sayash Kapoor即将出版的新书《AI Snake Oil》深入剖析了这一现象,指出当前生成式AI的炒作已近乎失控,并存在诸多潜在风险与不道德的开发行为。
Narayanan教授强调,人工智能并非铁板一块,不同类型的AI应区别对待。他承认生成式AI作为一项强大技术,已为众多领域带来革新与便利,但过度炒作却可能掩盖其内在的缺陷与隐患。事实上,生成式AI在发展过程中已引发多起风险事件,甚至涉及不道德的开发行为,这些问题亟需得到正视与解决。
Kapoor则指出,与Facebook等平台不同,当前许多生成式AI公司缺乏透明度,用户无法得知其平台的具体运作方式。他强烈建议这些公司应主动增加透明度报告,向公众公开其技术原理、数据使用及潜在风险,以建立更健康的信任关系。
此外,Narayanan和Kapoor还呼吁政府应加大对人工智能领域的监管力度。他们认为,现有法律框架已基本覆盖人工智能的监管需求,关键在于执行层面。通过增加技术人才,政府可以更有效地填补法律漏洞,避免监管缺位带来的风险。
总之,作者希望通过《AI Snake Oil》一书,引导公众对生成式AI形成更理性的认知。他们主张,在承认生成式AI进步的同时,必须警惕其潜在风险与炒作,并通过提高透明度、强化政府监管等措施,推动生成式AI的健康发展,使其真正造福人类社会。