谷歌母公司Alphabet近日发布重要安全警告,要求员工谨慎使用旗下AI聊天机器人,包括Bard和ChatGPT等生成式人工智能程序。据路透社消息,四名知情人士透露,Alphabet已向全球员工发出明确指令,禁止将机密资料输入这些聊天机器人,此举基于公司长期信息保护政策。这些AI程序通过模拟人类自然语言与用户互动,解答各类问题,但人类审核员可能介入审查对话内容。研究人员发现,类似AI系统存在数据泄露风险,因为它们会复制训练过程中接触到的信息。
Alphabet特别提醒工程师避免直接使用聊天机器人生成的计算机代码。虽然谷歌表示Bard提供的代码建议可能存在争议,但仍是程序员的有用参考。公司强调,其目标是对技术局限性保持透明。这种谨慎态度既体现了谷歌在AI领域与OpenAI和微软等竞争对手的竞争策略,也反映了其作为行业安全标准制定者的责任。全球范围内,三星、亚马逊、德意志银行等企业已纷纷设立AI聊天机器人使用规范。
根据网络社交平台Fishbowl调查,截至今年1月,43%的专业人士使用ChatGPT或其他AI工具,但多数不会告知上级。 Insider报道显示,今年2月谷歌就曾要求员工在Bard上线前不得提供内部信息。目前,这款AI工具已覆盖180多个国家和地区,支持40种语言,谷歌将其定位为激发创造力的平台,同时扩展了代码建议的警告范围。
谷歌已与爱尔兰数据保护委员会就隐私问题展开深入沟通,并正回应监管机构关切。Politico报道指出,为获取更多聊天机器人隐私影响数据,谷歌将推迟Bard在欧盟的发布计划。这款AI技术能起草邮件、文件甚至软件开发代码,承诺大幅提升工作效率,但可能存在错误信息、敏感数据泄露,甚至包含《哈利·波特》等版权内容。
谷歌6月1日更新的隐私声明中明确警告:”Bard对话中不得包含机密或敏感信息。”为应对此类风险,Cloudflare等网络安全公司推出可标记和限制数据外流的技术方案。谷歌和微软也为企业客户提供专属对话工具,采用更高定价策略,但确保数据不会流入公共AI模型。Bard和ChatGPT默认保存用户对话历史,用户可自行删除。微软首席营销官Yusuf Mehdi表示,公司对员工使用公共聊天机器人的谨慎态度完全合理,并解释了其免费必应聊天机器人与企业软件的严格区别。微软拒绝就全面禁止员工使用公共AI输入机密信息表态,但一位高管透露个人已限制使用。CloudflareCEO Matthew Prince将向聊天机器人输入机密信息比喻为”让一群博士生翻阅所有私人记录”。