新闻动态
具身智能开源系统AIRSHIP发布 赋能粤港澳大湾区具身智能产业化及商业化
具身智能的时代正以雷霆之势席卷全球!根据Elon Musk的预测,未来全球将有100亿台具身智能机器人诞生,按照每台3万美元的成本计算,这个产业的规模将达到令人瞠目的300万亿美元!
粤港澳大湾区凭借多年积累的强大机器人产业供应链,已经在全球市场上占据了领先位置,创新产品如雨后春笋般涌现。因此,面对这场划时代的工业革命,以深圳为代表的大湾区将站在世界舞台的中心,抢占这一巨大的产业高地!
设想一下,扫地机器人不再只是简单的清洁工具,而是通过具身智能技术,配备了灵活的机械手臂,能够整理房间;剪草机器人配备智能机械手,轻松打理庭院;复合机器人完美结合移动和抓取功能,在不同场景中展现无限可能。这不仅仅是科技的飞跃,更是商业机会的海洋,为全球企业带来了前所未有的增长空间。
然而,具身智能的到来伴随着算法、算力和数据的巨大技术挑战。为帮助粤港澳大湾区的机器人企业抓住这一历史性机遇,AIRS具身智能中心在2024年启动了三大核心研发项目:
-
AIRSHIP:解决具身智能算法整合的难题,像安卓系统为智能手机赋能一样,让各类机器人迅速具备具身智能的能力。
-
AIRSTONE:在50美元内的芯片上实现具身智能的全栈运算能力,打破算力瓶颈。
-
AIRSPEED:通过数据采集赋能机器人,以训练出通用的具身智能系统,为未来铺平道路。
今天,AIRS发布AIRSHIP 0.1版,期待普惠业界所有的机器人科技公司,为新中国成立75周年献上科技界的一份贺礼!
AIRSHIP官方网站:https://airs.cuhk.edu.cn/en/airship
AIRSHIP代码:https://github.com/airs-admin/airship

欢迎来到AIRSHIP!AIRSHIP是一个开源的具身智能机器人软件栈,旨在为各种形式的智能机器人赋能。
虽然具身智能在塑造未来经济方面拥有巨大的潜力,但它也面临着巨大的挑战,尤其是在计算领域。要实现所需的灵活性、效率和可扩展性,必须具备复杂的计算资源,但最紧迫的挑战仍然是软件的复杂性。复杂性往往导致系统的不灵活性。
具身智能系统必须无缝整合多种功能,从环境感知和物理交互到复杂任务的执行。这需要传感器数据分析、先进的算法处理和精确的执行器控制等组件的协同操作。为了支持各种机器人形式及其特定任务,一个多功能且可适应的软件栈是至关重要的。然而,创建一个统一的软件架构,确保这些多样化元素的和谐运行,会引入巨大的复杂性,使构建精简高效的软件生态系统变得困难。
AIRSHIP旨在解决具身智能中的软件复杂性问题。其使命是提供一个易于部署的软件栈,为各种智能机器人赋能,从而促进可扩展性并加速具身智能行业的商业化。AIRSHIP受到Android的启发,后者在移动计算革命中通过提供一个开源、灵活的平台,发挥了至关重要的作用。Android使得众多设备制造商能够在不同价位点上创造智能手机和平板电脑,激发了快速的创新和竞争,促成了强大且价格合理的移动设备的广泛普及。Android通过Google Play商店提供的丰富应用程序生态系统,帮助开发者触及全球用户,大大推动了移动技术的普及。
类似地,AIRSHIP的愿景是通过提供开源的具身智能软件栈来赋能机器人构建者。该平台使得创建真正智能的机器人成为可能,能够执行许多过去成本高昂甚至无法实现的任务。AIRSHIP项目的座右铭“Stronger United, Yet Distinct”体现了一个信念,即真正的智能通过整合而产生,但这种整合应该提升而不是限制机器人设计者的创造力,允许独特且创新的设计得以实现。
AIRSHIP具有以下特点:
-
这是一个集成的开源具身机器人系统,提供详细的硬件规范和软件组件。
-
它具有模块化和灵活的软件系统,模块可以根据不同的应用进行适应或替换。
-
尽管AIRSHIP受大型模型的支持,但它保持了计算效率,大多数软件模块都运行在嵌入式计算系统上,确保系统在各种应用场景中保持高性能和可访问性。
AIRSHIP混合机器人由轮式底盘、带有兼容夹持器的机械臂、Nvidia Orin计算板,以及包括LiDAR、摄像头和RGBD摄像头在内的传感器套件组成。详细的硬件规格请参见开源文档此文件。下图展示了AIRSHIP机器人的硬件架构。
AIRSHIP旨在应对可以分解为顺序导航和抓取任务的场景。通过利用最先进的语言和视觉基础模型,AIRSHIP为传统机器人赋予了具身人工智能能力,包括对高层次人类指令的理解以及场景感知。它将这些基础模型集成到现有的机器人导航和抓取软件栈中,增强了机器人的智能化表现。
上图中展示的软件架构使用大型语言模型(LLM)来解释高层次的人类指令,并将其分解为一系列基本的导航和抓取动作。导航通过传统的机器人导航栈完成,涵盖了地图构建、定位、路径规划以及底盘控制。语义地图将语义对象转换为地图中的位置,连接了高层次的导航目标与低层次的机器人动作。抓取通过神经网络实现,该网络根据视觉输入确定夹持器的姿态,随后由传统的机器人手臂控制执行操作。视觉基础模型进行零样本物体分割,将语义抓取任务转换为基于视觉的任务。
导航软件管道的运行过程如下:定位模块将LiDAR和IMU数据融合,生成稳定的里程计数据,并在预先构建的点云地图中准确确定机器人的位置。路径规划模块通过全局和局部规划器生成无碰撞的轨迹。随后,路径规划器向底盘控制器提供速度和旋转指令,底盘控制器最终生成控制信号,确保机器人沿规划路径行驶。
抓取软件管道的运行过程如下:GroundingDINO接收图像和目标物体的名称,并输出该物体在图像中的边界框。SAM使用该边界框生成物体的像素级掩码。GraspingNet处理RGB和深度图像,生成场景中所有物体的潜在夹持姿态。物体掩码对这些姿态进行过滤,以确定目标物体的最佳抓取姿态。
目前开源的是AIRSHIP 0.1的版本,主要是为了验证具身智能软件架构以及软件栈,下一阶段AIRSHIP的核心发展方向包括:
-
赋能更多的硬件形态,包括但是不限于扫地机器人、割草机器人、复合型服务机器人、人形机器人。
-
引入通用上下文学习(GPICL)机制搭建具身智能机器人基础模型以赋能具身智能机器人更好的从环境中学习。
-
引入更领先的仿真环境来支持多种不同具身智能机器人算法的研发。