Salesforce近日正式公布了一项全面的人工智能可接受使用政策,对旗下AI产品包括生成式AI和机器学习的应用范围进行了严格规范。作为全球领先的云服务提供商,Salesforce在平台和客户关系管理领域的巨大影响力使得这项政策具有显著的行业示范效应。在当前AI监管政策尚处于讨论制定阶段的背景下,该政策更显得具有前瞻性和指导意义。
这项重要政策由销售力首席伦理和人道主义使用官Paula Goldman亲自监督制定。政策明确规定,禁止使用Salesforce的AI产品进行武器开发、创造成人内容以及基于受保护特征进行歧视性定型等行为。这一规定充分体现了企业对AI伦理应用的重视,确保技术发展始终沿着正确的方向前进。
该政策严格遵循Salesforce内部早已制定的生成式AI指南,核心原则包括:确保AI提供准确、可验证、可追踪的答案;坚决避免任何形式的偏见并保护用户隐私;支持数据来源透明度,并在所有AI生成内容中包含免责声明;明确界定人类与人工智能之间的协作边界;通过优化模型规模来有效降低碳排放。这些原则共同构成了Salesforce AI应用的伦理框架。
值得注意的是,这项政策具有广泛的适用范围,涵盖了Salesforce及其关联公司提供的所有服务。这其中特别包括公司旗舰产品Einstein平台,以及面向不同行业任务的ChatGPT等公共和私人基础模型库。无论是客户服务、客户关系管理还是其他业务场景,都必须严格遵守这一政策规范。
面对快速发展的AI技术,Salesforce高管特别建议企业应着力提升员工在生成式AI方面的专业技能,尤其是提示工程等关键技术领域。同时,企业需要构建可信的AI基础设施,确保技术应用的可靠性和安全性。根据预测,未来六个月,金融、医疗等受监管程度较高的行业可能会更多地采用”人际循环”的AI应用模式,而其他行业则将更积极拥抱AI技术带来的变革。这一政策不仅展现了Salesforce对AI伦理的坚定承诺,也为整个行业树立了新的标杆。