竹简文档

AI 集成

让 AI 助手直接读取竹简文档内容

AI 集成

本站原生支持 LLM(大语言模型)友好协议,你可以让 AI 助手直接读取文档内容,获得更精准的技术支持。

文档访问基础路径(BaseURI)

本文档站所有 LLM 可访问资源的根路径为:

https://doc.x-lf.com

后续所有路径示例均为相对路径,使用时请拼接上方根路径。

使用方式

方式一:文档索引

访问 /llms.txt 获取所有文档页面的索引列表,然后按需请求单页内容。

https://doc.x-lf.com/llms.txt

方式二:单页 MDX 模式

每个文档页面都支持 MDX 原始内容获取,在路径后加 .mdx 前缀即可:

https://doc.x-lf.com/llms.mdx/docs/bamboo-base-go/quick-start
https://doc.x-lf.com/llms.mdx/docs/bamboo-base-java/quick-start

方式三:MCP 服务(推荐)

本站提供兼容 MCP(Model Context Protocol)Streamable HTTP 协议的服务端点,支持任何 MCP 客户端直接接入,无需安装任何二进制文件:

https://doc.x-lf.com/api/mcp

MCP 客户端连接配置示例:

{
  "mcpServers": {
    "bamboo-document": {
      "type": "streamableHttp",
      "url": "https://doc.x-lf.com/api/mcp"
    }
  }
}

MCP 优势

MCP 方式无需手动拼接 URL,AI 助手可通过工具调用自动获取所需的文档内容,是最便捷的集成方式。适用于 Claude Code、Cursor、Windsurf 等支持 MCP 的工具。

方式四:索引 + 单页结合

如果没有 MCP 支持,推荐先读索引,再按需拉取单页内容

  1. 访问 /llms.txt 获取所有页面的索引列表
  2. 从索引中定位与问题相关的页面路径
  3. 访问 /llms.mdx/<path> 获取该页面的完整内容
  4. 基于内容回答问题

这样可以避免一次性加载全量文档,让 AI 只获取真正需要的内容。

Claude Code 集成

如果你使用 Claude Code 命令行工具,可以通过 MCP 服务直接集成竹简文档,让 Claude 自动获取所需文档内容。

Agent Prompt 模板

以下 prompt 可直接复制到任意支持网络请求的 AI Agent 中使用:

请按以下步骤获取竹简文档并回答我的问题:

1. 获取文档索引:https://doc.x-lf.com/llms.txt
2. 从索引中找到与我的问题相关的页面路径
3. 获取该页面内容:https://doc.x-lf.com/llms.mdx/<找到的路径>
4. 基于文档内容回答:[你的问题]

提示

将上述 prompt 复制到 Claude、ChatGPT、Cursor 或其他支持网络请求的 AI 工具中,替换最后一行为你的具体问题,即可自动获取并分析文档内容。

相关链接

参考资料

On this page