如果希望先完成 OpenClaw 的基础部署,再继续配置论文流程,可优先使用 Claw龙虾部署大师。这样更便于后续按步骤完成模型、渠道和论文任务配置。
在“使用 OpenClaw 写论文”这一场景下,通常涉及两层工具:
OpenClaw:负责和你聊天、连飞书或微信、调用模型、执行安装和任务AutoResearchClaw:负责把一个研究题目变成论文草稿、参考文献、图表和实验产物
更合适的顺序,是先确认 OpenClaw 本身可以正常使用,再让它协助安装和调用 AutoResearchClaw。
推荐使用方案
| 项目 | 推荐选择 | 原因 |
|---|---|---|
| 第一次自检入口 | openclaw dashboard | 不用先接聊天渠道,先确认 OpenClaw 自己能用 |
| 正式聊天渠道 | 飞书 | OpenClaw 官方内置渠道,接入和排障都比微信稳 |
| 第一个模型 | DeepSeek 或 GLM | 更便于完成基础配置,成本和稳定性更平衡 |
| 联网检索 | Kimi 搜索 | 更适合中文资料检索与摘要整理 |
| 第一次任务类型 | 综述草稿或轻实验 | 便于先完成基础验证和流程检查 |
| 系统环境 | WSL2 或本地英文路径 | 比网络盘、中文路径、映射盘稳定得多 |
建议优先采用飞书完成第一篇任务的配置与验证。微信可放在后续渠道扩展阶段处理。
你需要准备什么
| 项目 | 最低建议 |
|---|---|
| OpenClaw 运行环境 | Node 24 推荐,Node 22.14+ 也支持 |
| AutoResearchClaw 运行环境 | Python 3.11 及以上,不是 3.10 |
| Git | 需要克隆仓库 |
| 模型 Key | 至少准备一组可用模型 API Key |
| 本地目录 | 尽量用本地磁盘英文路径,例如 D:\OpenClawResearch |
| Docker | 可选,做真实实验时更稳 |
请注意以下两点:
- Windows 原生能用,但官方文档明确写了
WSL2更稳定。 - 不建议将项目放在网络映射盘、中文深层路径或 NAS 同步目录中,这类路径更容易触发虚拟环境和
pip install -e .的安装异常。
第一步:确认 OpenClaw 基础状态正常
如果已经通过 Claw龙虾部署大师完成部署,可以直接进入下一步。手动安装时可按下面的顺序执行:
openclaw onboard --install-daemon
openclaw gateway status
openclaw dashboard浏览器中的 Control UI 可以正常打开,才说明 OpenClaw 基础状态正常。建议完成这一步后,再继续配置飞书、仓库和论文流水线。
如果需要让 OpenClaw 代为克隆仓库、修改配置并执行安装,工具权限至少应设置为 coding:
openclaw config set tools.profile coding这里不建议写成模糊的 “coding/full”。coding 和 full 是两个不同的工具配置档。一般教程场景下,coding 已经足够。
第二步:聊天渠道优先选飞书,微信放到第二阶段
为什么主线推荐飞书
OpenClaw 2026 年的官方文档里,飞书是内置渠道,接入方式是官方维护的;微信则是外部插件路线,当前能力声明以私聊为主,不适合拿来做第一次验证。
因此,建议采用以下顺序:
- 使用
openclaw dashboard完成自检 - 再接飞书
- 确认论文流程能跑
- 最后再考虑接微信
飞书怎么接
常用做法有两种:
- 新安装时直接在
openclaw onboard里选飞书 - 已经装好 OpenClaw 后,运行
openclaw channels add再选飞书
你需要准备的是飞书开放平台里的:
App IDApp Secret
接完后,把飞书事件订阅改成长连接模式,并订阅消息事件。官方文档里给出的关键点是:
- 使用
WebSocket长连接收消息 - 增加事件
im.message.receive_v1
接入完成后,检查这三个命令:
openclaw gateway status
openclaw logs --follow
openclaw pairing approve feishu <配对码>第一次给机器人发消息时,系统通常会返回一个配对码。完成批准后,后续论文任务才能正常收发。
微信能不能接
可以接入,但不建议作为第一条主线。
原因很简单:
- 微信在 OpenClaw 体系里属于外部插件路线
- 当前公开能力说明里,以私聊为主
- 第一次配置论文流程时,更适合优先选择官方内置、排障路径清晰的渠道
因此,这篇教程的正式步骤统一采用飞书路径。待第一篇流程完成后,再考虑将入口扩展到微信。
第三步:国内模型怎么选,怎么配
先记住一个大原则:
OpenClaw本身已经原生支持国内不少模型提供商AutoResearchClaw自己的init向导没有把所有国内模型都列出来
因此,更适合先在 OpenClaw 这一层完成模型配置,再由 OpenClaw 调用 AutoResearchClaw。
推荐模型表
| 需求 | 推荐模型 | 适用场景 |
|---|---|---|
| 优先完成基础配置 | deepseek/deepseek-chat | 首次接入论文流程 |
| 中文写作与说明文整理 | zai/glm-5.1 | 更关注中文表达效果 |
| 联网检索与长文资料整理 | moonshot/kimi-k2.5 + Kimi 搜索 | 资料搜集和综述整理需求明显 |
| 火山体系接入 | volcengine-plan/ark-code-latest 或 volcengine/* | 已有豆包或火山引擎账号体系 |
| 阶跃接口接入 | stepfun/step-3.5-flash | 已有阶跃 API 配置 |
OpenClaw 层的官方接入方式
下面这些命令都来自 OpenClaw 官方文档,能直接当操作入口:
# DeepSeek
openclaw onboard --auth-choice deepseek-api-key
openclaw models set deepseek/deepseek-chat
# GLM(智谱,Z.AI)
openclaw onboard --auth-choice zai-api-key
openclaw models set zai/glm-5.1
# Kimi(Moonshot,中国区)
openclaw onboard --auth-choice moonshot-api-key-cn
openclaw models set moonshot/kimi-k2.5
# 豆包 / 火山引擎
openclaw onboard --auth-choice volcengine-api-key
openclaw models set volcengine-plan/ark-code-latest
# 阶跃 StepFun(中国区标准端点)
openclaw onboard --auth-choice stepfun-standard-api-key-cn
openclaw models set stepfun/step-3.5-flash如果你还想让 OpenClaw 的网页检索走 Kimi,可以再配一次:
openclaw configure --section web进去后选择 Kimi 即可。
第四步:不要先手写配置,让 OpenClaw 先帮你安装 AutoResearchClaw
官方仓库对 OpenClaw 的推荐用法很简单:把仓库地址发给 OpenClaw,让它自己读 RESEARCHCLAW_AGENTS.md、自己克隆、自己安装。
建议不要只发送一句“帮我装一下”。更适合的方式,是把安装要求一次说明清楚,例如:
请阅读这个仓库:
https://github.com/aiming-lab/AutoResearchClaw
帮我把它安装到本机可用的工作目录。
要求:
1. 使用本地磁盘英文路径,不要放到网络盘或中文深层目录
2. 使用 Python 3.11 及以上
3. 创建虚拟环境
4. 生成 config.arc.yaml
5. 如果是 Windows,把 experiment.sandbox.python_path 改成 .venv/Scripts/python.exe
6. 先执行 validate 和 doctor 自检,再告诉我缺什么
7. 没有经过我确认前,不要直接跑正式论文任务这样做的主要作用是:
- 让 OpenClaw 更容易按预期完成安装与自检
- 提前明确 Windows 环境中最容易遗漏的路径设置
第五步:如果你要手动装,按这个顺序做
如果需要手动安装,可按下面的顺序进行。
1. 使用本地英文路径创建目录
例如:
D:\OpenClawResearch\AutoResearchClaw不建议一开始就放在:
- NAS 映射盘
- 企业同步盘
- 中文深层目录
2. 克隆仓库并创建虚拟环境
git clone https://github.com/aiming-lab/AutoResearchClaw.git
cd AutoResearchClaw
python -m venv .venv3. 先尝试标准安装
python -m pip install -e .如果这一步报错,不必立即判断为仓库不可用。在 Windows 映射路径环境下,pip install -e . 更容易出现安装异常。
4. 安装失败时的保底做法
建议将项目移动到本地英文路径后,再执行下面这组保底命令:
python -m pip install pyyaml rich arxiv numpy
python -m researchclaw.cli --help
python -m researchclaw.cli init --force
python -m researchclaw.cli validate --config .\config.arc.yaml
python -m researchclaw.cli doctor --config .\config.arc.yaml这组命令的目的,不是立即生成论文,而是先确认三件事:
- CLI 能不能启动
- 配置文件能不能生成
- 当前机器还缺哪些前置条件
5. Windows 用户一定要改这个路径
config.researchclaw.example.yaml 里已经写了提示:Windows 不应继续用 Linux 的 Python 路径。
如果你是 Windows,把:
sandbox:
python_path: ".venv/bin/python3"改成:
sandbox:
python_path: ".venv/Scripts/python.exe"否则 researchclaw doctor 会直接给你报沙箱 Python 不存在。
第六步:首次任务建议从综述草稿或轻实验开始
首次任务建议优先选择以下两种类型:
方案 A:先做综述草稿
可参考下面的任务描述:
请用 AutoResearchClaw 帮我做一篇综述草稿。
主题:
大语言模型在企业知识库问答中的应用综述
要求:
1. 只做文献检索、结构化分析和初稿整理
2. 不做真实实验
3. 不要生成虚构实验结果
4. 需要我确认时,停在 Gate Stage
5. 输出 deliverables 路径给我这里需要特别强调的是:不要生成虚构实验结果。
因为 simulated 模式在官方示例里明确写的是“只用于框架开发调试,不应用于论文生成”。如果你只是想做综述,就应该把产物定义成“综述草稿”或“调研报告”,而不是拿假数据去凑实验论文。
方案 B:做一个轻实验对比
如果已经具备稳定的模型 Key,并且允许本机执行代码,可先从轻量实验开始:
请用 AutoResearchClaw 帮我完成一篇轻实验论文草稿。
主题:
不同提示词策略对中文客服分类任务的影响
要求:
1. 只做轻量实验,不做长时间训练
2. 使用 sandbox 模式
3. 给出准确率、F1 和耗时
4. 需要我审批时暂停
5. 输出 Markdown 草稿、参考文献和图表实验模式怎么选
| 模式 | 什么时候用 | 是否适合作为首次任务 |
|---|---|---|
sandbox | 真实运行 Python 代码 | 适合 |
docker | 需要更干净、更稳定的隔离环境 | 适合,但前提是已具备 Docker 环境 |
ssh_remote | 已有 GPU 服务器 | 不建议作为首次任务 |
simulated | 仅用于流程调试,不做正式论文 | 不建议作为正式论文结果来源 |
常见配置提醒
以下问题在首次配置时较为常见:
1. Python 版本应为 3.11+
AutoResearchClaw 仓库的 pyproject.toml 写的是 requires-python = ">=3.11"。如果仍使用 3.10,后续更容易出现兼容性问题。
2. researchclaw init 不会把所有国内模型都列给你选
researchclaw init 当前直接列出的交互项主要是:
openaiopenrouterdeepseekminimaxacp
这意味着,GLM、Kimi、豆包、阶跃这些更本地化的方案,不适合完全依赖它的默认向导。更合适的方式是:
- 先在 OpenClaw 层配置模型
- 或者手动改
config.arc.yaml
3. ACP 路线不是“装了 codex 就自动能用”
仓库里的 ACP 客户端还依赖 acpx。如果你机器上只有 codex、gemini,却没有 acpx,那条路还是跑不起来。
因此,ACP 更适合作为进阶方案,而不是首次配置的默认选项。
4. 论文自动推送不是默认就有
官方示例配置里,notifications.channel 默认是 console,openclaw_bridge.use_message 默认也是 false。这说明“论文做好后自动把 PDF 发回聊天工具”不是零配置默认行为,需要你额外把消息桥接和交付动作配好。
常见问题
OpenClaw 会聊天,但一到论文步骤就停住了
先查这几项:
openclaw gateway statusopenclaw models statusopenclaw config get tools.profile
如果 tools.profile 不是 coding,OpenClaw 往往没有足够权限帮你克隆仓库、改配置和执行安装。
doctor 通过不了
最常见的几种原因是:
- API Key 还没填
- Windows 里
sandbox.python_path还是 Linux 路径 - 没装
matplotlib,所以图表会被跳过
飞书机器人不回消息
优先检查:
- 网关是否还在运行
- 飞书事件订阅是不是 WebSocket 长连接
- 事件里有没有
im.message.receive_v1 - 你有没有先批准配对码
微信更适合作为后续扩展渠道
微信并不是不能接入,而是这条路线更偏插件接入。首次配置更适合优先完成主流程,再扩展其他聊天入口。
最后怎么判断自己成功了
是否配置成功,可以先按下面几项判断:
- OpenClaw 能在 Control UI 或飞书里正常回复你
- 所选模型已经配好,
models状态正常 - AutoResearchClaw 已经生成
config.arc.yaml validate能通过doctor只剩少量可解释的提醒- 你已经拿到第一份综述草稿或轻实验草稿
如果不希望逐项处理 Node、Python、飞书、模型 Key 和仓库安装这些细节,可优先使用 Claw龙虾部署大师 完成 OpenClaw 的主体部署,再继续论文流水线配置。对大多数用户来说,这会更便于后续按步骤完成整套教程。


提示