IT之家 6 月 24 日消息,谷歌 DeepMind 今日发布博客文章,宣布推出一种全新的 Gemini Robotics On-Device 本地化机器人 AI 模型。
该模型基于视觉-语言-动作(VLA)架构,无需云端支持即可实现实体机器人控制。核心特性包括:
技术能力:
独立运行于机器人设备,支持低延迟响应(IT之家注:适用于网络不稳定场景,如医疗环境)
完成高精度操作任务(如打开包袋拉链、叠衣服、系鞋带)
双机械臂设计,适配 ALOHA、Franka FR3 及 Apollo 人形机器人
开发适配:
提供 Gemini Robotics SDK 工具包
开发者通过 50-100 次任务演示即可定制新功能
支持 MuJoCo 物理模拟器测试
安全保障:
通过 Live API 实施语义安全检测
底层安全控制器管理动作力度与速度
开放语义安全基准测试框架
项目负责人 Carolina Parada 表示:“该系统借鉴 Gemini 多模态世界理解能力,如同 Gemini 生成文本 / 代码 / 图像那样生成机器人动作”。
谷歌表示,该模型现在只面向可信测试计划开发者开放,基于 Gemini 2.0 架构开发(落后于 Gemini 2.5 最新版本)。
参考资料:
《Gemini Robotics On-Device brings AI to local robotic devices》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。