Skip to content

快速开始

只需 3 步,30 秒启动你的 AI Agent 团队。

环境要求

为什么需要 Node.js 22?

虾饺使用 Node.js 22 内置的 node:sqlite 模块,无需安装任何数据库。这是虾饺零外部依赖的关键。

第 1 步:克隆仓库

bash
git clone https://github.com/moziio/xiajiao.git
cd xiajiao

第 2 步:安装依赖

bash
npm install

只有 6 个依赖,5-10 秒搞定。

好奇这 6 个依赖是什么?
作用为什么不能去掉
wsWebSocket 服务端Node.js 标准库没有 WebSocket 服务端实现
formidable文件上传解析multipart/form-data 的 boundary 分割和流式解析,标准库不提供
node-cron定时任务调度Cron 表达式解析(0 9 * * 1 → 每周一 9 点),标准库不支持
pdf-parsePDF 文本提取RAG 知识库需要从 PDF 提取文字
@larksuiteoapi/node-sdk飞书连接器飞书的 WebSocket 长连接协议是私有的,必须用官方 SDK
@modelcontextprotocol/sdkMCP 协议Model Context Protocol 的 JSON-RPC + 能力协商,手写容易不兼容

第 3 步:启动

bash
npm start

看到以下输出说明启动成功:

Server running on http://localhost:18800

浏览器打开 http://localhost:18800,看到登录界面:

虾饺登录界面

第 4 步:配置 LLM

各厂商的 Base URL、模型名与排错见 模型配置大全

  1. 输入默认密码 admin 登录
  2. 进入 设置 → 模型管理
  3. 添加你的 LLM API Key

支持的模型厂商

虾饺支持所有 OpenAI 兼容 API。以下是常用厂商:

厂商API Base URLAPI 类型费用参考
OpenAIhttps://api.openai.com/v1openai-completions$5-60/M tokens
Anthropichttps://api.anthropic.comanthropic-messages$3-75/M tokens
通义千问https://dashscope.aliyuncs.com/compatible-mode/v1openai-completions¥0.3-60/M tokens
DeepSeekhttps://api.deepseek.comopenai-completions¥1-16/M tokens
Kimihttps://api.moonshot.cn/v1openai-completions¥12/M tokens
GLM(智谱)https://open.bigmodel.cn/api/paas/v4openai-completions¥1-100/M tokens
Ollamahttp://localhost:11434/v1openai-completions免费(本地运行)
OpenRouterhttps://openrouter.ai/api/v1openai-completions按模型计费

省钱方案

  • 完全免费:Ollama 本地运行 Llama 3 / Qwen 2(需要 8GB+ 显存)
  • 极低成本:DeepSeek / 通义千问,几分钱就能用很久
  • 最佳体验:Claude Opus / GPT-4o,适合高质量创作和编码

Ollama 本地运行

如果你不想付费,可以用 Ollama 在本地运行开源模型。安装后:

bash
ollama pull llama3.1      # 下载模型
ollama pull qwen2.5       # 或者通义千问

然后在虾饺中配置 API Base URL 为 http://localhost:11434/v1,无需 API Key。

配置步骤详解

  1. 点击"添加配置"
  2. 填写 Provider 名称(随便取,比如"通义千问")
  3. 填写 API Base URL(参考上表)
  4. 填写 API Key(从厂商控制台获取)
  5. 选择默认模型(如 qwen-turbogpt-4o
  6. 保存

然后为每个 Agent 指定使用哪个 Provider 和模型:

设置 → Agent → 代码助手 → 模型:选择 "通义千问 / qwen-plus"

混合配置

不同 Agent 可以用不同模型。比如:

  • 代码助手用 Claude(擅长代码)
  • 翻译官用 GPT-4o(擅长多语言)
  • 日常聊天用 Qwen(便宜够用)

第 5 步:开始聊天

配置好模型后,你就可以:

一对一对话

在左侧通讯录中点击任意 Agent,进入一对一对话:

Agent适合聊什么
🤖 虾饺管家"帮我设置一个每天 9 点的定时任务"
✍️ 小说家"写一首关于春天的诗"
📝 编辑"帮我润色这段文案"
🌐 翻译官"把这段话翻译成英文"
💻 代码助手"用 Python 写一个爬虫"

群组协作

  1. 在通讯录中点击"新建群组"
  2. 拉入多个 Agent
  3. @Agent名 和特定 Agent 对话
你:@小说家 写一首关于月光的诗
小说家:月明清辉照窗台...

你:@翻译官 把这首诗翻译成英文
翻译官:The moonlight gently graces my windowsill...

设置协作链

在群组设置中配置协作链,实现自动接力:

小说家 → 编辑 → 翻译官

之后你只需说一句话,三个 Agent 自动依次完成各自的工作。

验证一切正常

如果以下几点都满足,说明安装成功:

  • [x] http://localhost:18800 能打开
  • [x] 能用密码登录
  • [x] 设置页面能保存 LLM 配置
  • [x] 和 Agent 对话能收到回复
  • [x] 回复中显示 Tool Calling 调用过程(如果开启了工具)

常见问题

端口被占用

Error: listen EADDRINUSE :::18800

换个端口:

bash
IM_PORT=3000 npm start

Node.js 版本不对

bash
node -v
# 如果低于 v22.0.0,需要升级

详见 安装指南

怎么修改密码?

启动时设置环境变量:

bash
OWNER_KEY=your-strong-password npm start

支持 HTTPS 吗?

虾饺本身只提供 HTTP。生产环境建议用 Nginx 反向代理加 HTTPS。详见 云服务器部署

Agent 没有回复?

  1. 检查 LLM 配置是否正确(API Key / Base URL)
  2. 检查浏览器控制台是否有报错
  3. 检查 Agent 是否分配了模型

首次使用推荐路径

安装好之后,按这个顺序体验虾饺的核心功能:

5 分钟体验(了解基本操作)

  1. 点击"代码助手",发一条消息试试
  2. 看看 Agent 的流式输出效果
  3. 试试发一段代码让它审查

15 分钟探索(体验多 Agent 协作)

  1. 创建一个群组,拉入小说家 + 编辑 + 翻译官
  2. 设置协作链:小说家 → 编辑 → 翻译官
  3. 发一条消息,看三个 Agent 自动接力
  4. 观察可视化面板的状态变化

30 分钟深入(定制自己的 Agent)

  1. 在通讯录中创建一个新 Agent
  2. 编辑它的 SOUL.md,写入你需要的人格(参考 模板库
  3. 给它配置合适的工具和模型
  4. 和它聊几轮,根据效果调整 SOUL.md
Agent 管理面板 — 新建 Agent 与列表

Agent 管理面板 — 在列表中管理多个 Agent,下方即可填写信息创建新 Agent

1 小时高阶(构建 Agent 团队)

  1. 上传文档到 RAG 知识库
  2. 设置定时任务(每天新闻摘要)
  3. 尝试 实战案例 中的配置方案

下一步

你想...看这里
详细安装步骤安装指南 — Windows / macOS / Linux
体验群聊多 Agent 群聊 — 创建群组,@mention
配更多模型模型配置 — 8 个 Provider 详细教程
用 DockerDocker 部署 — 容器化部署
写 Agent 人格SOUL.md 指南 — 写出好的人格设定
照搬方案实战案例 — 12 个 Agent 团队配置
遇到问题故障排查 — 按症状排查

相关文档

基于 MIT 协议开源 · GitHub · 社区