智源发布多模态世界大模型悟界·Emu3.5 可实现跨场景具身操作 《科创板日报》30日讯,今日,智源发布多模态世界大模型 Emu3.5,以自回归方式实现了对多模态序列的“Next-State Prediction (NSP)”,获得了可泛化的世界建模能力。在场景应用层面,模型不仅能实现跨场景的具身操作、具备泛化的动作规划与复杂交互能力,也能完成文图生成、图片编辑与时空变换。(记者 李明明) Published by 风君子 独自遨游何稽首 揭天掀地慰生平 View all posts by 风君子