微软近期为Copilot工具重磅升级,新增了基于自研MAI-Voice-1模型的Copilot Audio音频模式,为用户带来前所未有的语音交互体验。这一创新功能允许用户根据不同场景需求,从三种精心设计的语音模式中进行选择,彻底革新了人机对话的维度。
在三种核心音频模式中,”情感模式”独树一帜,能够实现富有感染力的自由表达,特别适合需要情感传递的沟通场景。它通过细腻的语调变化和情感注入,让每一次对话都充满温度。而”故事模式”则支持多角色互动,用户可以创造生动的听觉叙事,为听众带来沉浸式的沉浸式故事体验。最值得一提的是”脚本模式”,它提供逐字逐句的精准回放功能,确保信息传达的零误差,非常适合需要高度准确性的专业场合。
除了三大核心模式,微软还精心准备了丰富的声音库,涵盖从莎士比亚经典朗读到体育赛事激情解说等多元风格,用户可以根据个人喜好和场景需求自由搭配。这种前所未有的多样性不仅极大提升了交互的趣味性,更让个性化体验成为可能。目前,这项创新功能已率先在Copilot Labs中上线,用户可以通过以下链接直接体验这一革命性的语音交互方式:https://copilot.microsoft.com/labs/audio-expression
这一系列创新举措背后,是微软在AI领域的持续深耕。作为其首个大型语言模型,MAI-1的推出标志着微软在人工智能领域的重要突破。同时,微软与Anthropic达成的战略合作,将Anthropic的先进模型集成到Office应用中,进一步彰显了微软在AI技术上的独立发展路径。这些战略布局不仅展现了微软对OpenAI的更大独立性,更体现了其灵活开发和应用人工智能技术的决心与实力。