PeppyOS:一个比ROS 2更简单的替代方案(现在支持容器)
PeppyOS: A simpler alternative to ROS 2 (now with containers support)

原始链接: https://peppy.bot/

此配置定义了一个AI“机器人大脑”,用于控制机器人系统。该大脑使用Python(版本0.1.0)构建,通过`uv run src/main.py`启动,并在同步依赖项后使用`uv sync`。 该大脑通过接收来自两个传感器输入的数据运作:摄像头流(`uvc_camera`节点,`video_stream`主题)和激光雷达传感器(`rplidar`节点,`scan`主题)。 基于这些传感器输入,该大脑可以通过连接的控制器触发两个动作:移动右臂(`openarm01_controller`节点,`move_right_arm`动作)和移动左臂(`openarm01_controller`节点,`move_left_arm`动作)。本质上,它是一个将传感器数据转换为机器人手臂运动的处理单元。该配置详细说明了每个组件的节点和标签版本。

## PeppyOS:一个新的机器人框架 PeppyOS 被定位为 ROS 2 的一个更简单的替代方案,旨在解决依赖地狱和复杂的构建系统等问题。虽然承认 ROS 2 已经建立的生态系统,开发者计划开发 ROS 2 桥接,并专注于重写存在问题的组件。目前 PeppyOS 尚未开源(但计划今年晚些时候在 BSL 许可下开源),其商业模式是操作系统免费,收入来自类似于 Foxglove 的工具。 讨论中,人们对由于缺乏现有驱动程序和社区动力而可能面临的采用问题表示担忧。 许多评论员指出,已经有改进 ROS 2 的努力,例如可重现的包管理和 NVIDIA 的 NITROS。 还有人质疑是否有必要开发一个新的框架,认为 ROS 的问题可以通过强大的控制器和明确定义的协议来解决,或者 LLM 可能会降低对框架易用性的需求。 一个关键点是,PeppyOS 可能会被端到端 AI 系统和机器人领域的整体方法超越,从而使传统的中间件过时。 其他替代项目,如 roboflex、dimos 和 HORUS 也被提及。
相关文章

原文

Input

{
  // This is an AI brain that can plug to any hardware controller
  schema_version: 1,
  manifest: {
    name: "robot_brain",
    tag: "0.1.0",
    language: "python"
  },
  process: {
    add_cmd: ["uv", "sync"],
    start_cmd: ["uv", "run", "src/main.py"]
  },
  parameters: {},
  interfaces: {
    exposes: {},
    subscribes_to: {
      // The brain receives inputs from sensors
      topics: [
        {
          id: "camera_stream",
          node: "uvc_camera",
          name: "video_stream",
          tag: "0.1.0",
        },
		{
          id: "lidar_sensor",
          node: "rplidar",
          name: "scan",
          tag: "0.1.0",
        },
      ],
      // And emit actions to the controller
      actions: [
        {
          id: "move_right_arm_action",
          node: "openarm01_controller",
          name: "move_right_arm",
          tag: "0.1.0",
        },
        {
          id: "move_left_arm_action",
          node: "openarm01_controller",
          name: "move_left_arm",
          tag: "0.1.0",
        }
      ]
    },
  }
}
{
  // This is an AI brain that can plug to any hardware controller
  schema_version: 1,
  manifest: {
    name: "robot_brain",
    tag: "0.1.0",
    language: "python"
  },
  process: {
    add_cmd: ["uv", "sync"],
    start_cmd: ["uv", "run", "src/main.py"]
  },
  parameters: {},
  interfaces: {
    exposes: {},
    subscribes_to: {
      // The brain receives inputs from sensors
      topics: [
        {
          id: "camera_stream",
          node: "uvc_camera",
          name: "video_stream",
          tag: "0.1.0",
        },
		{
          id: "lidar_sensor",
          node: "rplidar",
          name: "scan",
          tag: "0.1.0",
        },
      ],
      // And emit actions to the controller
      actions: [
        {
          id: "move_right_arm_action",
          node: "openarm01_controller",
          name: "move_right_arm",
          tag: "0.1.0",
        },
        {
          id: "move_left_arm_action",
          node: "openarm01_controller",
          name: "move_left_arm",
          tag: "0.1.0",
        }
      ]
    },
  }
}
联系我们 contact @ memedata.com