@i王石头 这是哪个科技博主呀……
说这么降智的话?还科技博主?
VA里面还是有LLM的,只是这个LLM从VLA的中间过程,变成了VA的底座模型……
做VLA,几乎就是做VA的必经之路…
不做VLA怎么积累多模态对齐的能力?如何积累模型对物理空间的理解能力?
不做VLA,如何积累人类知识迁移的经验?
而且,VA和VLA整个计算逻辑是一样的,只是VA有些东西不会显示输出……但是都是从看见到理解,再到执行。
只是VA的训练方式,数据不一样,做到了跨模态Token的统一和对齐……
它更快更直接……
发布于 广东
