2026 年 5 月 6 日,硅谷初创公司Genesis AI发布了其首个机器人基础模型 GENE-26.5,并同步推出配套的全栈硬件与数据系统,目标是让机器人获得接近人类水平的通用物理操作能力。
一、核心定位与突破
GENE-26.5 被定位为首个实现人类级物理操控能力的机器人 “大脑”,核心突破在于:
单模型通才:用同一套模型、硬件与控制栈,完成烹饪、实验、精密操作、艺术演奏等跨场景复杂任务,而非多个专用模型拼接。
全栈自研:从底层硬件(灵巧手)、数据引擎、仿真系统到上层模型与控制,全链路自研,解决数据、硬件、控制协同难题。
真实速度演示:所有 Demo 均为1 倍速、全自主、无剪辑,更贴近真实应用场景。
二、技术架构与能力
1. 模型架构
采用Transformer 架构,构建统一多模态模型,同时融合视觉、语言、触觉、本体感觉(关节位置)与动作信号,实现 “通感” 式理解与控制。
核心是学习统一的轨迹联合分布,直接输出端到端的精确运动控制指令。
2. 硬件协同(自研灵巧手)
1:1 真人尺寸仿生灵巧手,配备高密度触觉传感器,实现毫米级力控与精细操作。
超低延迟:控制延迟压至3ms,机械臂定位误差从 20mm 降至2mm。
3. 数据引擎(核心壁垒)
1:1 人机触觉映射技术:通过专业触觉感知手套,让人类在日常工作中同步采集数据,训练成本降低 100 倍。
已积累超 20 万小时多模态数据,支持快速泛化与迁移学习。
依托自研生成式物理仿真引擎,实现虚拟训练到现实场景的无缝迁移。
三、Demo 能力展示(同一模型完成)
居家烹饪:4 分钟完成 20 + 步连续任务,含单手打蛋、双手切番茄、使用多种厨具、清洁等。
实验室操作:移液、拧试管盖、离心机操作等毫米级精度精密任务。
精密与艺术:解魔方、单手多物体抓取、线束捆扎、弹钢琴(复杂曲目)。
学习效率:多数复杂技能训练数据仅需 1 小时即可掌握。
四、团队与背景
创始人:周衔(CMU 机器人学博士,主导生成式仿真)、Théophile Gervet(前 Mistral AI 研究科学家)。
融资:2025 年 7 月完成1.05 亿美元种子轮,创硅谷具身智能赛道纪录。
技术积累:此前开源的 Genesis 物理引擎获 GitHub 2.8 万 Star,支持 “一句话生成物理世界”。
发布于 重庆
