蚂蚁集团和inclusionAI联合推Ming-Omni:首个开源版多模态GPT-4o

蚂蚁集团和inclusionAI联合推Ming-Omni:首个开源版多模态GPT-4o

4.8
0热度

近日,Inclusion AI 与 蚂蚁集团联合推出了一款名为 “Ming-Omni” 的先进多模态模型,标志着智能技术的新突破。Ming-Omni 能够处理图像、文本、音频及视频,为多种应用提供强大支持,其功能不仅涵盖语音和图像生成,还具备多模态输入的融合处理能力。** 全面的多模态处理能力 **Ming-Omni 的设计中采用了专用编码器来提取不同模态的标记(tokens),这些标记经过 “L

近日,Inclusion AI 与 蚂蚁集团联合推出了一款名为 “Ming-Omni” 的先进多模态模型,标志着智能技术的新突破。Ming-Omni 能够处理图像、文本、音频及视频,为多种应用提供强大支持,其功能不仅涵盖语音和图像生成,还具备多模态输入的融合处理能力。

image.png

** 全面的多模态处理能力 **

Ming-Omni 的设计中采用了专用编码器来提取不同模态的标记(tokens),这些标记经过 “Ling” 模块(即混合专家架构,MoE)进行处理,后者配备了新提议的模态特定路由器。这样一来,Ming-Omni 便能够高效地处理和融合多模态输入,支持多种任务而无需额外的模型、特定任务的微调或结构重组。

** 语音与图像生成的革新 **

与传统多模态模型相比,Ming-Omni 的一个显著亮点在于其支持音频和图像生成。通过集成先进的音频解码器,Ming-Omni 能够生成自然流畅的语音。同时,其使用的高质量图像生成模型 “Ming-Lite-Uni” 则确保了图像生成的精细度。此外,该模型还能够进行上下文感知的对话、文本转语音转换和多样的图像编辑,充分展示了其在多个领域的应用潜力。

** 流畅的语音与文本转换 **

Ming-Omni 在语言处理方面的能力同样引人注目。其具备对方言的理解和语音克隆功能,可以将输入的文本转换为多种方言的语音输出,展现了其强大的语言适应性。例如,用户可以输入不同的方言句子,模型将能够理解并以相应方言进行回应,提升了人机交互的自然性和灵活性。

** 开放源代码,促进研究与开发 **

值得一提的是,Ming-Omni 是目前已知的首个在模态支持上与 GPT-4o 匹敌的开源模型。Inclusion AI 和 Ant Group 承诺将所有代码和模型权重公开,旨在激励社区的进一步研究与开发,推动多模态智能技术的不断进步。

Ming-Omni 的发布不仅为多模态智能领域注入了新的活力,也为各类应用提供了更多可能性。随着技术的不断演进,期待 Ming-Omni 能够在未来的智能交互中发挥更大的作用。

项目:https://lucaria-academy.github.io/Ming-Omni/

首页 发现
看过 我的