AI 集成
让 AI 助手直接读取竹简文档内容
AI 集成
本站原生支持 LLM(大语言模型)友好协议,你可以让 AI 助手直接读取文档内容,获得更精准的技术支持。
文档访问基础路径(BaseURI)
本文档站所有 LLM 可访问资源的根路径为:
https://doc.x-lf.com后续所有路径示例均为相对路径,使用时请拼接上方根路径。
使用方式
方式一:文档索引
访问 /llms.txt 获取所有文档页面的索引列表,然后按需请求单页内容。
https://doc.x-lf.com/llms.txt方式二:单页 MDX 模式
每个文档页面都支持 MDX 原始内容获取,在路径后加 .mdx 前缀即可:
https://doc.x-lf.com/llms.mdx/docs/bamboo-base-go/quick-start
https://doc.x-lf.com/llms.mdx/docs/bamboo-base-java/quick-start方式三:MCP 服务(推荐)
本站提供兼容 MCP(Model Context Protocol)Streamable HTTP 协议的服务端点,支持任何 MCP 客户端直接接入,无需安装任何二进制文件:
https://doc.x-lf.com/api/mcpMCP 客户端连接配置示例:
{
"mcpServers": {
"bamboo-document": {
"type": "streamableHttp",
"url": "https://doc.x-lf.com/api/mcp"
}
}
}MCP 优势
MCP 方式无需手动拼接 URL,AI 助手可通过工具调用自动获取所需的文档内容,是最便捷的集成方式。适用于 Claude Code、Cursor、Windsurf 等支持 MCP 的工具。
方式四:索引 + 单页结合
如果没有 MCP 支持,推荐先读索引,再按需拉取单页内容:
- 访问
/llms.txt获取所有页面的索引列表 - 从索引中定位与问题相关的页面路径
- 访问
/llms.mdx/<path>获取该页面的完整内容 - 基于内容回答问题
这样可以避免一次性加载全量文档,让 AI 只获取真正需要的内容。
Claude Code 集成
如果你使用 Claude Code 命令行工具,可以通过 MCP 服务直接集成竹简文档,让 Claude 自动获取所需文档内容。
Agent Prompt 模板
以下 prompt 可直接复制到任意支持网络请求的 AI Agent 中使用:
请按以下步骤获取竹简文档并回答我的问题:
1. 获取文档索引:https://doc.x-lf.com/llms.txt
2. 从索引中找到与我的问题相关的页面路径
3. 获取该页面内容:https://doc.x-lf.com/llms.mdx/<找到的路径>
4. 基于文档内容回答:[你的问题]提示
将上述 prompt 复制到 Claude、ChatGPT、Cursor 或其他支持网络请求的 AI 工具中,替换最后一行为你的具体问题,即可自动获取并分析文档内容。
相关链接
参考资料
- bamboo-base-go 全局文档: https://doc.x-lf.com/llms.txt
- 具体路径查询:
https://doc.x-lf.com/llms.mdx/<search_path>