diff --git a/examples/anythingLLM/images/agent-workflow-config.png b/examples/anythingLLM/images/agent-workflow-config.png new file mode 100644 index 0000000..6a9832f Binary files /dev/null and b/examples/anythingLLM/images/agent-workflow-config.png differ diff --git a/examples/anythingLLM/images/anythingllm-install.png b/examples/anythingLLM/images/anythingllm-install.png new file mode 100644 index 0000000..ae59995 Binary files /dev/null and b/examples/anythingLLM/images/anythingllm-install.png differ diff --git a/examples/anythingLLM/images/direct-mcp-call.png b/examples/anythingLLM/images/direct-mcp-call.png new file mode 100644 index 0000000..034eca3 Binary files /dev/null and b/examples/anythingLLM/images/direct-mcp-call.png differ diff --git a/examples/anythingLLM/images/mcp-server-config.png b/examples/anythingLLM/images/mcp-server-config.png new file mode 100644 index 0000000..d415613 Binary files /dev/null and b/examples/anythingLLM/images/mcp-server-config.png differ diff --git a/examples/anythingLLM/images/workflow-execution-process.png b/examples/anythingLLM/images/workflow-execution-process.png new file mode 100644 index 0000000..078b643 Binary files /dev/null and b/examples/anythingLLM/images/workflow-execution-process.png differ diff --git a/examples/anythingLLM/images/workflow-execution-results.png b/examples/anythingLLM/images/workflow-execution-results.png new file mode 100644 index 0000000..ab20fd4 Binary files /dev/null and b/examples/anythingLLM/images/workflow-execution-results.png differ diff --git a/examples/anythingLLM/readme.md b/examples/anythingLLM/readme.md new file mode 100644 index 0000000..6358300 --- /dev/null +++ b/examples/anythingLLM/readme.md @@ -0,0 +1,123 @@ +# AnythingLLM 接入 xiaohongshu-mcp 完整指南 + +## 📋 概述 + +AnythingLLM 是一款all-in-one 多模态 AI 客户端,支持**workflow**定义,支持多种大模型和插件扩展。通过 AnythingLLM 调用 **xiaohongshu-mcp** 服务,可以直接在对话中调用小红书相关功能,实现自动化的内容创作与发布。 + +### ✅ 该工具链优势 + +- 支持 **本地笔记 → 润色 → 批量发布**,适合内容创作者账号日常运营 +- 相比于Claude Code节省token;支持免费开源模型 + +## 🚀 AnythingLLM 安装 + +下载 AnythingLLM 桌面端 👉 [下载地址](https://anythingllm.com/desktop) + +![AnythingLLM 安装界面](images/anythingllm-install.png) + +## 🔌 配置 xiaohongshu-mcp 服务 + +### 步骤 1:启动 xiaohongshu-mcp 服务 + +### 1.1 登录小红书账号 + +第一次使用需要手动登录,保存小红书的登录状态: + +```bash +# 登录小红书账号 +go run cmd/login/main.go +``` + +### 1.2 启动 MCP 服务 + +登录成功后,启动 xiaohongshu-mcp 服务: + +```bash +# 默认:无头模式,没有浏览器界面 +go run . + +# 或者:非无头模式,有浏览器界面(调试时使用) +go run . -headless=false +``` + +### 步骤 2:在 AnythingLLM 中添加 MCP 服务器(修改配置文件) + +### 2.1 定位配置文件 + +当第一次打开 **Agent Skills 页面** 时,AnythingLLM 会在 `storage` 目录下自动生成 MCP 配置文件(如果不存在的话)。 + +macOS(Desktop)的路径: + +``` +~/Library/Application\ Support/anythingllm-desktop/storage/plugins/anythingllm_mcp_servers.json +``` + +### 2.2 编辑配置文件 + +在 `anythingllm_mcp_servers.json` 中添加以下内容: + +```json +{ + "mcpServers": { + "xiaohongshu-mcp": { + "type": "streamable", + "url": "http://127.0.0.1:18060/mcp" + } + } +} +``` + +### 2.3 刷新加载 + +1. 保存文件 +2. 回到 AnythingLLM 的 **Agent Skills 页面** +3. 点击右上角 **Refresh** 按钮 + +此时能看到 `xiaohongshu-mcp` 出现在列表中。 + +![MCP 服务器配置成功](images/mcp-server-config.png) + +## 🎯 使用指南 + +### 方法一:直接对话中调用 MCP 工具 + +1. 创建新对话 +2. 在对话中输入 `@agent`,并调用 `xiaohongshu-mcp` +3. 通过自然语言直接指令,例如: + +``` +@agent 使用xiaohongshu-mcp 检查登录状态 +``` + +![直接调用 MCP 工具](images/direct-mcp-call.png) + +--- + +### 方法二:Agent Workflow 自动化发布本地笔记 + +![Agent Workflow 配置](images/agent-workflow-config.png) + +1. 新建 Agent flow,命名为 `publish_notes` +2. 设置 **Flow Variables**,包括本地文件路径(如 `file_path`)和 `notes` 内容 +3. 使用 **Read File** 块,读取本地笔记文件,存入 `notes` 变量 +4. 在 **LLM Instruction** 块写入逻辑: + + ``` + 多篇笔记原文为 ${notes} + 请使用xiaohongshu-mcp依次发布笔记。 + ``` + + +5. 在对话中输入 `@agent`调用 workflow,实现「本地笔记 → 自动发布」闭环 + +| Workflow 设置过程 | Workflow 调用结果 | +| --- | --- | +| Workflow 执行过程 | Workflow 执行结果 | + + +更多功能,参考官方docs:https://docs.anythingllm.com/agent-flows/overview + +## ✅ 总结 + +通过以上步骤,您就能在 AnythingLLM 中成功接入并使用 **xiaohongshu-mcp** 服务,实现 **本地笔记 → 润色 → 自动化发布到小红书** 的完整闭环工作流 🚀 +