领导发来一份 80 页的行业报告,截止明天早上要有结论。你有三个选项:通宵读完、挑重点扫一眼、或者把它丢给 OpenClaw 让它帮你看。

第三个选项不是开玩笑的。

OpenClaw 配合 AI 大模型的超长上下文,可以把整份 PDF 吃进去,提炼关键结论、回答你的具体问题、对比多份文档的差异。还可以直接扔给它一个网页 URL,它去抓取正文、过滤广告和导航,只给你看有用的内容。

本文演示如何配置,以及怎么用得好。更多资源请访问 OpenClaw 中文版官网

一、OpenClaw 读文档靠什么

OpenClaw 处理文档和网页用的是两套工具,弄清楚这个,配置才不会乱:

工具 用途 默认状态
read 读取本地文件,包括 PDF、TXT、Markdown、代码文件等 通常默认开启
web_fetch 抓取指定 URL 的网页正文(去广告、去导航,只保留内容) 通常默认开启
web_search 用搜索引擎搜索关键词,获取结果摘要 需要 API Key(Brave/Gemini/Perplexity 等)

读本地 PDF 用 read;读网页用 web_fetch;搜索资料用 web_search。三个工具各司其职,可以单独用,也可以组合用。

二、5 分钟配置:确认工具已开放

第一步:检查当前工具状态

/tools

看看 readweb_fetch 是不是在可用列表里。如果都有 ✅,可以直接跳到第三节开始用。

第二步:如果 read 工具未开放,在 openclaw.json 里添加

{
  "agents": {
    "defaults": {
      "tools": {
        "exec": {
          "allow": ["read", "web_fetch", "bash"]
        }
      }
    }
  }
}

改完重启:

openclaw daemon restart

第三步(可选):配置 web_search

如果你想让 OpenClaw 主动搜索相关资料(不只是读你给的文件),需要配置一个搜索 API。最快的方式是 Brave Search API(免费额度每月 2000 次):

  1. 访问 api.search.brave.com,注册并创建 API Key
  2. ~/.openclaw/.env 里添加:
    BRAVE_SEARCH_API_KEY=你的Key
  3. openclaw.json 里启用:
{
  "tools": {
    "web": {
      "search": {
        "provider": "brave"
      }
    }
  }
}

重启后,/tools 里应该出现 web_search

三、读本地 PDF:发文件或者说路径

方式一:直接把 PDF 发到对话里

在 Telegram、微信等连接了 OpenClaw 的渠道里,直接把 PDF 文件发给 AI:

[发送 PDF 文件]
帮我总结这份报告的核心结论,不超过 300 字

OpenClaw 收到文件后会保存到 workspace,然后 AI 用 read 工具读取内容。

方式二:告诉 AI 本地文件路径

读取 ~/Downloads/2026年Q1行业报告.pdf,
提炼出:1. 主要结论(3条),2. 关键数据(不超过5个),3. 对我们行业的启示

方式三:整个文件夹批量处理

扫描 ~/Documents/竞品资料/ 目录里的所有 PDF 文件,
每份文件提取:文件名、核心主题(一句话)、关键数据要点(2-3条)
整理成一个表格发给我

四、读网页:扔给它 URL 就行

总结单篇文章

帮我总结这篇文章的主要观点,重点突出作者的核心论点和我应该关注的部分:
https://example.com/article

对比两篇文章的观点差异

读取下面这两篇文章,对比它们在「AI Agent 安全性」这个话题上的不同观点:
https://article-one.com
https://article-two.com

用表格展示两者的核心分歧点

抓取网页 + 搜索补充背景

读取这篇文章:https://example.com/research
然后搜索一下这篇文章引用的主要研究机构,看看他们近期有没有相关的新发现,
结合这篇文章的内容给我一个综合评估

五、5 个现成的提示词模板

模板一:快速摘要(通用)

读取 [文件路径 或 URL]。

用以下格式给我一份摘要:
• 一句话总结:(整篇内容的核心,不超过30字)
• 主要论点:(3-5条,每条一句话)
• 关键数据:(列出所有重要数字和统计,带上下文说明)
• 对我的启示:(结合实际场景,这份内容值得关注的2-3点)

模板二:合同/协议重点提取

读取这份合同/协议文件:[文件路径]

帮我找出以下关键条款:
1. 合同各方的主要义务
2. 付款条款(金额、时间、方式)
3. 违约责任和赔偿条款
4. 合同终止条件
5. 任何不寻常或需要特别注意的条款(用红字或🔴标注)

不需要法律意见,只需要帮我把关键信息提取出来。

模板三:多份文档对比

读取以下几份文件:
1. ~/Documents/方案A.pdf
2. ~/Documents/方案B.pdf
3. ~/Documents/方案C.pdf

从以下维度对比这三个方案,用表格展示:
- 核心思路/方法论
- 预算/成本
- 时间周期
- 主要优势
- 主要风险

最后给出你的推荐和理由(基于文件内容,不加个人判断)。

模板四:学术论文提炼

读取这篇论文:[文件路径 或 URL]

用非专业人士能看懂的语言,告诉我:
1. 这篇论文研究了什么问题
2. 他们是怎么做实验/研究的(方法)
3. 得出了什么结论
4. 这个结论有什么实际意义
5. 论文本身有什么局限性或争议

不需要引用原文,用我能理解的语言重新表述。

模板五:每日阅读任务

帮我处理今天的阅读清单:

搜索以下主题的最新文章(最近7天内):
1. OpenAI 最新动态
2. 国内大模型进展
3. AI Agent 安全

每个主题找到最值得读的一篇,给我:文章标题 + 来源 + 三句话摘要 + 阅读链接

整理成一份清单发给我。

六、处理大文件:长 PDF 怎么不丢失信息

普通的 AI 聊天工具对长文档有限制——上下文窗口满了,早期内容就”忘了”。OpenClaw 接入的某些模型(比如 Gemini 3 Flash、Kimi K2.5、Claude Sonnet 4.6)有 100 万 Token 甚至更大的上下文窗口,可以一次性把整本书吃进去。

如果你的默认模型上下文不够大,可以在处理长文档时临时切换:

# 切换到长上下文模型
/model gemini    # Gemini 3 Flash:100 万 Token,性价比高
# 或
/model kimi      # Kimi K2.5:256K Token

# 然后再发送读取指令
读取 ~/Documents/年度报告全文.pdf,……

对于超长文档(比如整本书、几百页的法规),还可以分段处理:

读取 ~/Documents/长报告.pdf 的第 1-50 页,
提炼这部分的主要内容和关键数据,等我说"继续"再处理下一部分

七、一个实用场景:每天自动总结订阅的 RSS 或邮件里的文章

把阅读总结做成定时任务,每天早上收到一份整理好的阅读摘要:

openclaw cron add \
  --name "daily-reading" \
  --cron "30 7 * * 1-5" \
  --tz "Asia/Shanghai" \
  --session "isolated" \
  --message "搜索今天 AI 行业和创业圈的最重要新闻(最近24小时内),找出3-5篇值得精读的文章,每篇用三句话摘要,附上链接,整理成今日阅读清单发给我" \
  --announce

周一到周五,每天 7:30,你的 Telegram 自动收到当天的阅读清单,省去了自己筛选信息源的时间。

八、常见问题

AI 说”无法读取文件”或”文件不存在”

检查文件路径是否正确,注意:

  • macOS 上 ~ 代表你的用户目录,通常是 /Users/你的用户名
  • 文件名里的空格需要用引号包裹:"~/Desktop/我的 文件.pdf"
  • 也可以先用 bash ls ~/Downloads/ 让 AI 帮你列出目录,确认文件名拼写

PDF 里的图表和图片无法读取

如果 PDF 是扫描版(图片型 PDF,没有文字层),read 工具读取到的是空内容。这时候需要开启浏览器工具(用于截图分析),或者使用支持视觉理解的多模态模型(如 Claude Sonnet、GPT-5.4、Gemini Flash):

/model claude    # 切换到视觉理解更强的模型
然后用 browser 工具打开 PDF 截图分析

网页抓取失败或内容不完整

部分网站有反爬措施,web_fetch 可能拿不到完整内容。这时可以:

  • 让 AI 用 browser 工具打开网页(需要已开启浏览器自动化)
  • 或者自己把文章内容复制粘贴给 AI 直接处理

总结的内容太笼统,不够具体

提示词里加上具体的要求,比如:

不要说"文章探讨了XX问题"这类泛泛的描述,
直接告诉我作者的核心观点是什么,
以及哪些数据或案例支撑了这个观点

总结

OpenClaw 处理文档和文章的能力,开箱配置只需要确认 readweb_fetch 两个工具已开放,5 分钟以内。之后就可以:

  • 本地 PDF 直接说路径,AI 帮你读完提炼重点
  • 网页 URL 扔给它,去广告只看干货
  • 多份文档对比,节省手动梳理的时间
  • 配合 Cron 定时任务,每天自动整理阅读摘要

80 页的行业报告,AI 读一遍大概需要 30 秒到 2 分钟(取决于模型速度和文件大小)。你拿到的是提炼好的结论和关键数据,不是一份让你继续阅读的提纲。

想了解更多 OpenClaw 实用技巧,欢迎访问 OpenClaw 中文版官网