微新创想(Idea2003.com) 7月4日讯 谷歌近期对其隐私政策进行了重大更新,明确声明公司有权利用用户在网络上发布的几乎所有内容来构建人工智能工具。这一政策调整引发了广泛关注,意味着只要谷歌能够读取用户内容,这些内容便可能被视为公司资产,并预期未来会应用于其聊天机器人等AI产品中。
谷歌在更新后的政策中写道:”我们使用信息来改进服务,并开发有益于用户和公众的新产品、功能和技术。”具体而言,公司表示会利用公开可用的信息来训练其人工智能模型,并开发包括谷歌翻译、Bard和Cloud AI在内的各类产品。值得注意的是,新政策中使用了”人工智能模型”这一表述,而旧政策仅提及”语言模型”。此外,新政策还扩展了受影响的产品范围,将Bard和Cloud AI纳入其中,而此前仅涉及谷歌翻译。
这一政策调整在隐私领域显得尤为特殊。通常情况下,隐私政策会详细说明企业如何使用用户在其自身服务上发布的信息。但谷歌此次的声明似乎暗示了公司有权在公共网络的任何部分收集和利用数据,仿佛整个互联网都是其人工智能的研究实验室。截至目前,谷歌尚未对此事做出正式回应。
这一做法引发了新的隐私担忧。长期以来,人们普遍认为公开发布的内容是公开的,但现在用户可能需要重新评估在线言论的潜在影响。现在的问题不再是谁能看到这些信息,而是它们可能以何种方式被使用。例如,Bard和ChatGPT等聊天机器人可能已经吸收了用户早已遗忘的博客文章或15年前的餐厅评价,当用户阅读这些内容时,聊天机器人可能正在以无法预测和难以理解的方式重新使用用户的言辞。
在ChatGPT时代,一个不太明显的复杂性是:需要大量数据的聊天机器人从何处获取信息。包括谷歌和OpenAI在内的公司从互联网上获取了大量数据来训练聊天机器人。目前这种做法的合法性尚不明确,未来几年法院可能会就与版权相关的问题展开辩论,而这些辩论在几年前还被视为科幻情节。
与此同时,这种现象已经以一些意想不到的方式影响了用户。Twitter和Reddit的管理层对人工智能问题表达了强烈不满,并做出了有争议的调整来限制其平台。这两家公司关闭了免费访问其API的权限,导致任何人无法下载大量帖子。表面上看,这是为了保护社交媒体网站不被其他公司盗取知识产权,但这也产生了其他后果。
Twitter和Reddit的API变更破坏了许多人用来访问这些网站的第三方工具。一度甚至出现Twitter要求天气、交通和紧急服务等公共机构支付费用才能发布推文的情况,但在遭到猛烈批评后,该公司收回了这一举措。最近,网络爬虫成为了埃隆·马斯克最关注的问题。马斯克将公司最近的一些Twitter灾难归咎于其他公司从他的网站上提取数据,尽管这些问题似乎与此无关。在周末,Twitter限制了用户每天能查看的推文数量,几乎使该服务陷入瘫痪。马斯克表示这是对”数据抓取”和”系统操纵”的必要反应,但大多数IT专家认为访问限制更可能是由于管理不善、无能或两者造成的技术问题的危机应对措施。Twitter并未对此事做出回应。
在Reddit上,API变更的影响尤为明显。Reddit实质上是由无偿的版主来维护论坛的健康运作。大型Subreddit的版主通常依赖第三方工具进行工作,而这些工具建立在不再可访问的API之上。这引发了一次大规模的抗议活动,版主们基本上关闭了Reddit。尽管争议仍在继续,但这很可能对版主们造成永久的影响。