准备好进入音乐行业的新时代,因为 Meta 最近宣布推出 MusicGen,这是一款人工智能驱动的音乐生成器,有望彻底改变我们创作和消费音乐的方式。
这一消息是在人工智能音乐生成领域竞争激烈之后发布的,而 Meta 的产品脱颖而出,成为令人印象深刻的竞争者。
这是如何菲利克斯·克鲁克Meta MusicGen在Twitter上解释道:
我们介绍MusicGen:一个简单可控的音乐生成模型。MusicGen可以通过文本和旋律来提示。
我们发布代码 (MIT) 和模型 (CC-BY NC),用于开放研究、可重复性和音乐社区:https://t.co/OkYjL4xDN7 pic.twitter.com/h1l4LGzYgf— 菲利克斯·克鲁克 (@FelixKreuk)9月 2023, <>
什么是Meta MusicGen?
Meta MusicGen建立在强大的Transformer模型的基础上,追随ChatGPT等语言模型的脚步,采用尖端的AI技术来预测和生成音乐片段。就像语言模型预测句子中的下一个字母一样,MusicGen 根据给定的音乐片段预测下一个音乐片段。
为了完成这一壮举,Meta 的研究人员利用 EnCodec 音频标记器,将音频数据分解为更小的单元以实现高效处理。MusicGen的辉煌之处在于它能够同时处理文本描述和音乐提示,从而实现艺术表达的无缝融合。
培训MusicGen涉及使用由20,000小时授权音乐组成的庞大数据集。该团队利用了 10,000 份高质量录音的内部收藏,并辅以来自 Shutterstock 和 Pond5 等知名来源的音乐数据。这种细致的培训过程确保了MusicGen拥有创作与听众产生共鸣的音乐的能力。
最佳音乐生成
虽然各种人工智能模型在文本生成、语音合成和视觉创作方面表现出色,但高质量的音乐生成仍然相对稀缺。音乐错综复杂的构图、重叠的乐器以及捕获完整频谱的需求带来了重大挑战。
然而,MusicGen正面解决了这些障碍,为前所未有的音乐体验铺平了道路。
如何使用Meta MusicGen?
渴望探索MusicGen功能的用户可以通过Hugging Face API访问它。但是,根据并发用户负载,音乐生成过程可能需要一些时间。或者,为了更快地获得结果,用户可以选择通过拥抱脸网站使用此链接.
那些精通编码的人甚至可以下载代码并手动执行它,以获得更实际的方法。
使用MusicGen是一个简单的过程。这是操作方法:
- 访问拥抱脸网站
- 点击位于右上角的“空间”
- 在提供的搜索框中搜索“音乐生成”
- 查找Facebook发布的版本
- 在左侧框中输入所需的提示
- 点击“生成”
Meta MusicGen如何工作?
借助 MusicGen,您的描述将成为创建 12 秒音频片段的催化剂。对于那些寻求更个性化触感的人来说,该模型还包含参考音频文件,该文件是复杂旋律的基础。通过结合描述和提供的旋律,MusicGen努力制作真正与用户偏好产生共鸣的音乐。
在正面比较中,MusicGen超越了其竞争对手,包括Google MusicLM,Riffusion和Musai。研究人员通过展示具有这些模型的示例网站来展示MusicGen的卓越输出。
MusicGen 提供四种不同的模型尺寸,从紧凑的 300 亿个参数到强大的 3 亿个参数,释放了复杂而迷人的作品的潜力。要在本地操作模型,建议使用至少具有 3GB RAM 的 GPU。
元维基对元宇宙的愿景
MusicGen只是众多方式之一元维基利用人工智能为其用户创造身临其境且引人入胜的体验。随着 Meta 继续朝着实现称为元宇宙的共享虚拟世界的方向发展,人们可以在多个平台和设备上进行互动、协作和享受乐趣,MusicGen 将为元宇宙注入新发现的娱乐感和音乐魅力。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun233012.html