From ed61fbda1e0702b727d659799094e415da936e63 Mon Sep 17 00:00:00 2001
From: Yongchao Chen <95650299+yongchao98@users.noreply.github.com>
Date: Mon, 17 Mar 2025 15:55:49 -0400
Subject: [PATCH] Update README.md
---
README.md | 7 +++++++
1 file changed, 7 insertions(+)
diff --git a/README.md b/README.md
index 439a233..b1c9a29 100644
--- a/README.md
+++ b/README.md
@@ -237,12 +237,19 @@
* 经典工作(4) EmbodiedGPT: [Arxiv](https://arxiv.org/abs/2305.15021)
* 同时也有一些工作将High-Level的策略规划与 Low-Level的动作生成进行统一
* 经典工作(1) RT-2: [Arxiv](https://arxiv.org/abs/2307.15818)
+* 另一个代表性方向的工作将LLM与传统基于算法的Planner结合来做任务与移动规划
+ * 经典工作(1) LLM+P: [Arxiv](https://arxiv.org/abs/2304.11477)
+ * 经典工作(2) AutoTAMP: [Arxiv](https://arxiv.org/abs/2306.06531)
+ * 经典工作(3) Text2Motion: [Arxiv](https://arxiv.org/abs/2303.12153)
* 利用LLM的code能力实现具身智能是一个有趣的想法
* 经典工作(1) Code as Policy: [Arxiv](https://arxiv.org/abs/2209.07753)
* 经典工作(2) Instruction2Act: [Arxiv](https://arxiv.org/abs/2305.11176)
* 有一些工作将三维视觉感知同LLM结合起来,共同促进具身智能规划
* VoxPoser [Arxiv](https://arxiv.org/abs/2307.05973)
* OmniManip [Arxiv](https://arxiv.org/abs/2501.03841)
+* 还有一些工作试图把基于LLM的机器人规划扩展到多机器人协同合作的场景
+ * 经典工作(1) RoCo: [Arxiv](https://arxiv.org/abs/2307.04738)
+ * 经典工作(2) Scalable-Multi-Robot: [Arxiv](https://arxiv.org/abs/2309.15943)