一键部署龙虾,即刻拥有24小时全自动电脑Ai助理

免费下载

如果希望先完成 OpenClaw 的基础部署,再继续配置论文流程,可优先使用 Claw龙虾部署大师。这样更便于后续按步骤完成模型、渠道和论文任务配置。

在“使用 OpenClaw 写论文”这一场景下,通常涉及两层工具:

  • OpenClaw:负责和你聊天、连飞书或微信、调用模型、执行安装和任务
  • AutoResearchClaw:负责把一个研究题目变成论文草稿、参考文献、图表和实验产物

更合适的顺序,是先确认 OpenClaw 本身可以正常使用,再让它协助安装和调用 AutoResearchClaw。

推荐使用方案

项目推荐选择原因
第一次自检入口openclaw dashboard不用先接聊天渠道,先确认 OpenClaw 自己能用
正式聊天渠道飞书OpenClaw 官方内置渠道,接入和排障都比微信稳
第一个模型DeepSeek 或 GLM更便于完成基础配置,成本和稳定性更平衡
联网检索Kimi 搜索更适合中文资料检索与摘要整理
第一次任务类型综述草稿或轻实验便于先完成基础验证和流程检查
系统环境WSL2 或本地英文路径比网络盘、中文路径、映射盘稳定得多

建议优先采用飞书完成第一篇任务的配置与验证。微信可放在后续渠道扩展阶段处理。

你需要准备什么

项目最低建议
OpenClaw 运行环境Node 24 推荐,Node 22.14+ 也支持
AutoResearchClaw 运行环境Python 3.11 及以上,不是 3.10
Git需要克隆仓库
模型 Key至少准备一组可用模型 API Key
本地目录尽量用本地磁盘英文路径,例如 D:\OpenClawResearch
Docker可选,做真实实验时更稳

请注意以下两点:

  • Windows 原生能用,但官方文档明确写了 WSL2 更稳定。
  • 不建议将项目放在网络映射盘、中文深层路径或 NAS 同步目录中,这类路径更容易触发虚拟环境和 pip install -e . 的安装异常。

第一步:确认 OpenClaw 基础状态正常

如果已经通过 Claw龙虾部署大师完成部署,可以直接进入下一步。手动安装时可按下面的顺序执行:

openclaw onboard --install-daemon
openclaw gateway status
openclaw dashboard

浏览器中的 Control UI 可以正常打开,才说明 OpenClaw 基础状态正常。建议完成这一步后,再继续配置飞书、仓库和论文流水线。

如果需要让 OpenClaw 代为克隆仓库、修改配置并执行安装,工具权限至少应设置为 coding

openclaw config set tools.profile coding

这里不建议写成模糊的 “coding/full”。codingfull 是两个不同的工具配置档。一般教程场景下,coding 已经足够。

第二步:聊天渠道优先选飞书,微信放到第二阶段

为什么主线推荐飞书

OpenClaw 2026 年的官方文档里,飞书是内置渠道,接入方式是官方维护的;微信则是外部插件路线,当前能力声明以私聊为主,不适合拿来做第一次验证。

因此,建议采用以下顺序:

  1. 使用 openclaw dashboard 完成自检
  2. 再接飞书
  3. 确认论文流程能跑
  4. 最后再考虑接微信

飞书怎么接

常用做法有两种:

  • 新安装时直接在 openclaw onboard 里选飞书
  • 已经装好 OpenClaw 后,运行 openclaw channels add 再选飞书

你需要准备的是飞书开放平台里的:

  • App ID
  • App Secret

接完后,把飞书事件订阅改成长连接模式,并订阅消息事件。官方文档里给出的关键点是:

  • 使用 WebSocket 长连接收消息
  • 增加事件 im.message.receive_v1

接入完成后,检查这三个命令:

openclaw gateway status
openclaw logs --follow
openclaw pairing approve feishu <配对码>

第一次给机器人发消息时,系统通常会返回一个配对码。完成批准后,后续论文任务才能正常收发。

微信能不能接

可以接入,但不建议作为第一条主线。

原因很简单:

  • 微信在 OpenClaw 体系里属于外部插件路线
  • 当前公开能力说明里,以私聊为主
  • 第一次配置论文流程时,更适合优先选择官方内置、排障路径清晰的渠道

因此,这篇教程的正式步骤统一采用飞书路径。待第一篇流程完成后,再考虑将入口扩展到微信。

第三步:国内模型怎么选,怎么配

先记住一个大原则:

  • OpenClaw 本身已经原生支持国内不少模型提供商
  • AutoResearchClaw 自己的 init 向导没有把所有国内模型都列出来

因此,更适合先在 OpenClaw 这一层完成模型配置,再由 OpenClaw 调用 AutoResearchClaw。

推荐模型表

需求推荐模型适用场景
优先完成基础配置deepseek/deepseek-chat首次接入论文流程
中文写作与说明文整理zai/glm-5.1更关注中文表达效果
联网检索与长文资料整理moonshot/kimi-k2.5 + Kimi 搜索资料搜集和综述整理需求明显
火山体系接入volcengine-plan/ark-code-latestvolcengine/*已有豆包或火山引擎账号体系
阶跃接口接入stepfun/step-3.5-flash已有阶跃 API 配置

OpenClaw 层的官方接入方式

下面这些命令都来自 OpenClaw 官方文档,能直接当操作入口:

# DeepSeek
openclaw onboard --auth-choice deepseek-api-key
openclaw models set deepseek/deepseek-chat

# GLM(智谱,Z.AI)
openclaw onboard --auth-choice zai-api-key
openclaw models set zai/glm-5.1

# Kimi(Moonshot,中国区)
openclaw onboard --auth-choice moonshot-api-key-cn
openclaw models set moonshot/kimi-k2.5

# 豆包 / 火山引擎
openclaw onboard --auth-choice volcengine-api-key
openclaw models set volcengine-plan/ark-code-latest

# 阶跃 StepFun(中国区标准端点)
openclaw onboard --auth-choice stepfun-standard-api-key-cn
openclaw models set stepfun/step-3.5-flash

如果你还想让 OpenClaw 的网页检索走 Kimi,可以再配一次:

openclaw configure --section web

进去后选择 Kimi 即可。

第四步:不要先手写配置,让 OpenClaw 先帮你安装 AutoResearchClaw

官方仓库对 OpenClaw 的推荐用法很简单:把仓库地址发给 OpenClaw,让它自己读 RESEARCHCLAW_AGENTS.md、自己克隆、自己安装。

建议不要只发送一句“帮我装一下”。更适合的方式,是把安装要求一次说明清楚,例如:

请阅读这个仓库:
https://github.com/aiming-lab/AutoResearchClaw

帮我把它安装到本机可用的工作目录。

要求:
1. 使用本地磁盘英文路径,不要放到网络盘或中文深层目录
2. 使用 Python 3.11 及以上
3. 创建虚拟环境
4. 生成 config.arc.yaml
5. 如果是 Windows,把 experiment.sandbox.python_path 改成 .venv/Scripts/python.exe
6. 先执行 validate 和 doctor 自检,再告诉我缺什么
7. 没有经过我确认前,不要直接跑正式论文任务

这样做的主要作用是:

  • 让 OpenClaw 更容易按预期完成安装与自检
  • 提前明确 Windows 环境中最容易遗漏的路径设置

第五步:如果你要手动装,按这个顺序做

如果需要手动安装,可按下面的顺序进行。

1. 使用本地英文路径创建目录

例如:

D:\OpenClawResearch\AutoResearchClaw

不建议一开始就放在:

  • NAS 映射盘
  • 企业同步盘
  • 中文深层目录

2. 克隆仓库并创建虚拟环境

git clone https://github.com/aiming-lab/AutoResearchClaw.git
cd AutoResearchClaw
python -m venv .venv

3. 先尝试标准安装

python -m pip install -e .

如果这一步报错,不必立即判断为仓库不可用。在 Windows 映射路径环境下,pip install -e . 更容易出现安装异常。

4. 安装失败时的保底做法

建议将项目移动到本地英文路径后,再执行下面这组保底命令:

python -m pip install pyyaml rich arxiv numpy
python -m researchclaw.cli --help
python -m researchclaw.cli init --force
python -m researchclaw.cli validate --config .\config.arc.yaml
python -m researchclaw.cli doctor --config .\config.arc.yaml

这组命令的目的,不是立即生成论文,而是先确认三件事:

  • CLI 能不能启动
  • 配置文件能不能生成
  • 当前机器还缺哪些前置条件

5. Windows 用户一定要改这个路径

config.researchclaw.example.yaml 里已经写了提示:Windows 不应继续用 Linux 的 Python 路径。

如果你是 Windows,把:

sandbox:
  python_path: ".venv/bin/python3"

改成:

sandbox:
  python_path: ".venv/Scripts/python.exe"

否则 researchclaw doctor 会直接给你报沙箱 Python 不存在。

第六步:首次任务建议从综述草稿或轻实验开始

首次任务建议优先选择以下两种类型:

方案 A:先做综述草稿

可参考下面的任务描述:

请用 AutoResearchClaw 帮我做一篇综述草稿。

主题:
大语言模型在企业知识库问答中的应用综述

要求:
1. 只做文献检索、结构化分析和初稿整理
2. 不做真实实验
3. 不要生成虚构实验结果
4. 需要我确认时,停在 Gate Stage
5. 输出 deliverables 路径给我

这里需要特别强调的是:不要生成虚构实验结果

因为 simulated 模式在官方示例里明确写的是“只用于框架开发调试,不应用于论文生成”。如果你只是想做综述,就应该把产物定义成“综述草稿”或“调研报告”,而不是拿假数据去凑实验论文。

方案 B:做一个轻实验对比

如果已经具备稳定的模型 Key,并且允许本机执行代码,可先从轻量实验开始:

请用 AutoResearchClaw 帮我完成一篇轻实验论文草稿。

主题:
不同提示词策略对中文客服分类任务的影响

要求:
1. 只做轻量实验,不做长时间训练
2. 使用 sandbox 模式
3. 给出准确率、F1 和耗时
4. 需要我审批时暂停
5. 输出 Markdown 草稿、参考文献和图表

实验模式怎么选

模式什么时候用是否适合作为首次任务
sandbox真实运行 Python 代码适合
docker需要更干净、更稳定的隔离环境适合,但前提是已具备 Docker 环境
ssh_remote已有 GPU 服务器不建议作为首次任务
simulated仅用于流程调试,不做正式论文不建议作为正式论文结果来源

常见配置提醒

以下问题在首次配置时较为常见:

1. Python 版本应为 3.11+

AutoResearchClaw 仓库的 pyproject.toml 写的是 requires-python = ">=3.11"。如果仍使用 3.10,后续更容易出现兼容性问题。

2. researchclaw init 不会把所有国内模型都列给你选

researchclaw init 当前直接列出的交互项主要是:

  • openai
  • openrouter
  • deepseek
  • minimax
  • acp

这意味着,GLM、Kimi、豆包、阶跃这些更本地化的方案,不适合完全依赖它的默认向导。更合适的方式是:

  • 先在 OpenClaw 层配置模型
  • 或者手动改 config.arc.yaml

3. ACP 路线不是“装了 codex 就自动能用”

仓库里的 ACP 客户端还依赖 acpx。如果你机器上只有 codexgemini,却没有 acpx,那条路还是跑不起来。

因此,ACP 更适合作为进阶方案,而不是首次配置的默认选项。

4. 论文自动推送不是默认就有

官方示例配置里,notifications.channel 默认是 consoleopenclaw_bridge.use_message 默认也是 false。这说明“论文做好后自动把 PDF 发回聊天工具”不是零配置默认行为,需要你额外把消息桥接和交付动作配好。

常见问题

OpenClaw 会聊天,但一到论文步骤就停住了

先查这几项:

  • openclaw gateway status
  • openclaw models status
  • openclaw config get tools.profile

如果 tools.profile 不是 coding,OpenClaw 往往没有足够权限帮你克隆仓库、改配置和执行安装。

doctor 通过不了

最常见的几种原因是:

  • API Key 还没填
  • Windows 里 sandbox.python_path 还是 Linux 路径
  • 没装 matplotlib,所以图表会被跳过

飞书机器人不回消息

优先检查:

  • 网关是否还在运行
  • 飞书事件订阅是不是 WebSocket 长连接
  • 事件里有没有 im.message.receive_v1
  • 你有没有先批准配对码

微信更适合作为后续扩展渠道

微信并不是不能接入,而是这条路线更偏插件接入。首次配置更适合优先完成主流程,再扩展其他聊天入口。

最后怎么判断自己成功了

是否配置成功,可以先按下面几项判断:

  • OpenClaw 能在 Control UI 或飞书里正常回复你
  • 所选模型已经配好,models 状态正常
  • AutoResearchClaw 已经生成 config.arc.yaml
  • validate 能通过
  • doctor 只剩少量可解释的提醒
  • 你已经拿到第一份综述草稿或轻实验草稿

如果不希望逐项处理 Node、Python、飞书、模型 Key 和仓库安装这些细节,可优先使用 Claw龙虾部署大师 完成 OpenClaw 的主体部署,再继续论文流水线配置。对大多数用户来说,这会更便于后续按步骤完成整套教程。

温馨提示:本文由有用科技网站编辑部出品转载请注明出处,违者必究(部分内容来源于网络,经作者整理后发布,如有侵权,请立刻联系我们处理)

收藏

客服
扫描与客服沟通

回顶部
提示

正在拉起鸿蒙应用市场,如遇无法拉起/无法下载的情况,可使用鸿蒙设备,自行前往应用市场,搜索「Win解压缩」安装。

知道了