微新创想(idea2003.com) 7月31日 消息:谷歌与大阪大学联合发布的一项突破性研究成果,成功开发出将人类思想转化为音乐的创新技术。这项研究通过将思想活动与音乐创作相结合,为人工智能音乐生成领域开辟了全新路径。
五名志愿者在功能磁共振成像(fMRI)扫描仪中接受测试,聆听涵盖十种不同音乐风格的500余首曲目。研究人员捕捉并记录了志愿者大脑活动的高清图像数据,这些数据随后被输入到名为Brain2Music的先进AI模型中。该模型基于谷歌的AI音乐生成器MusicLM技术,能够学习并创作出与受试者正在聆听的歌曲风格相似的音乐作品。
研究团队通过严谨的分析得出结论:生成的音乐在流派特征、乐器运用及情绪表达等语义属性上,与人类受试者实际体验的音乐刺激高度相似。这一成果充分证明了AI在理解人类音乐感知方面的潜力。研究团队表示,这些生成的音乐片段可以在Google Research Github平台上免费收听,为公众提供了直观的体验机会。
这项创新技术有望推动智能音乐创作软件的进一步发展,未来或将实现通过解码人类思维直接生成个性化音乐作品。研究人员已规划下一阶段的研究方向,致力于开发能够根据个人想象力而非特定音乐刺激生成音乐的AI系统。尽管心灵感应式数字音频工作站(DAW)技术尚需完善,但这一突破性进展无疑为音乐创作领域带来了革命性变革。
值得注意的是,目前该技术仍处于实验阶段,普通用户若想体验类似功能,可能需要配备专业的fMRI扫描设备。整篇详细的研究论文已发布在康奈尔大学免费学术文章在线档案arXiv上,供学界人士深入研读。这一跨学科合作成果不仅展示了人工智能的强大能力,更为音乐心理学与神经科学领域的研究提供了宝贵参考。