摘要: 上海AI实验室和Meta Reality Labs Research的研究团队推出了一种创新的AI模型,能够为整个人体生成准确的3D空间音频表示。这项技术利用头戴式麦克风和人体姿势数据,合成具有真实感的3D空间声音。该模型的代码和数据集已经开放给公众使用,以促进该领域的开放性和进一步的发展。
Meta Al推出了一种创新的AI模型,旨在为生成更逼真的3D空间音频提供解决方案。这一研究成果由上海AI实验室和Meta Reality Labs Research的研究人员团队共同完成。他们成功地开发出一种技术,可以为整个人体生成准确的3D空间音频表示。
该团队表示,他们的技术是通过结合头戴式麦克风和人体姿势数据来实现的。在使用增强现实和虚拟现实(AR/VR)的远程呈现场景中,用户可以通过全身化身进行交流。该模型利用头戴式麦克风采集以自我为中心的音频数据,并结合用于动画化身的身体姿势数据作为输入示例,从而实现了准确的3D空间声音合成。
为了验证模型的有效性,该团队进行了实证评估。结果表明,在使用适当的损失函数进行训练时,该模型能够可靠地生成由身体运动产生的声场。这一创新的AI模型为实现更逼真的3D空间音频提供了新的途径。
为了促进该领域的开放性和其他发展,Meta Al将该模型的代码和数据集开放给公众使用。这将为其他研究人员和开发者提供机会,参与到这一领域的创新中来,并进一步推动3D空间音频技术的发展。
上海AI实验室和Meta Reality Labs Research的研究团队成功地开发出一种能够为整个人体生成准确的3D空间音频的AI模型。这一创新技术利用头戴式麦克风和人体姿势数据,实现了真实感十足的3D空间声音合成。通过开放代码和数据集,Meta Al鼓励更多的研究者和开发者参与到这一领域的创新中来,推动3D空间音频技术的不断发展。