阿里刚刚发布了:Qwen3.5-Omni,原生全模态,自然涌现出Audio-Visual Vibe Coding能力
也就是说它能看着画面写代码,给它看一段界面需求视频,它能直接生成对应代码,不是专门训练来的,模型自己学会的
好比说你看一眼就会了,AI也做到了
Qwen3.5-Omni能无缝理解文本、图片、音频/音视频输入,支持细粒度、带时间戳的音视频Caption生成
支持256K上下文、113种语言识别,能处理10小时音频或1 小时视频
原生支持WebSearch和复杂Function Call
支持语义打断、音色克隆及语音控制
给了Plus、Flash、Light三个版本
Qwen3.5-Omni-Plus-Realtime:http://t.cn/AXc3tiV5🔷 Qwen3.5-Omni-Plus:http://t.cn/AXIIxPBU
#Qwen35Omni##阿里最新模型##大模型#
发布于 山西
