【Meta FAIR研究新成果:图像到文本、文本到音乐的生成模型,多标记预测模型,以及AI生成语音检测技术】
- Meta AI研究实验室(FAIR)公开发布了多项新研究成果,包括图像到文本和文本到音乐的生成模型,多词预测模型,以及检测AI生成语音的技术。
- 发布的成果体现了开放性、协作、卓越和规模化等核心原则。公开早期研究工作旨在激发迭代,推动AI负责任发展。
- Meta Chameleon系列模型可将文本和图像作为输入,输出任意文本和图像组合。今日发布7B和34B模型的关键组件。
- 发布多词预测预训练语言模型代码,可更高效训练语言模型。
- 发布JASCO文本到音乐生成模型,可接受各种条件输入如音调、拍子等,改进对生成音乐的控制。
- 发布AudioSeal,首个专为检测AI生成语音设计的音频水印技术,可实现对语音片段中的AI内容进行本地化检测。
- 发布PRISM数据集,记录1500名参与者与21个LLM的交流及反馈,用于探索反馈过程的方法、领域和目标。
- 发布GEO评估工具,用于评估文本到图像模型中的潜在地域差异;并探索了改进多样性的方法。
- 这些发布希望激发创新,促进负责任的AI发展,欢迎社区基于这些成果进行迭代和建设。
《Sharing new research, models, and datasets from Meta FAIR》 http://t.cn/A6QbrLKR #机器学习# #人工智能# #AI研究# #开放科学# #创新#
发布于 北京
