MCP在微语系统中的应用
· 閱讀時間約 1 分鐘
Lorem ipsum dolor sit amet, consectetur adipiscing elit.
大型语言模型(Large Language Model)
檢視所有標籤Lorem ipsum dolor sit amet, consectetur adipiscing elit.
Lorem ipsum dolor sit amet, consectetur adipiscing elit.
在本篇博客中,我们将介绍如何将微语客服系统对接通义千问Qwen3大模型,使您的客服系统拥有强大的AI能力。通过这个集成,您可以为用户提供更智能、更高效的 自动化客服体验。
通义千问Qwen3是阿里云推出的大型语言模型,具有强大的理解能力和生成能力。Qwen3系列模型在多轮对话、文本生成、问答解析等方面表现出色,非常适合客服场景应用。
Ollama是一个开源的大模型运行框架,可以在本地部署运行多种大型语言模型,包括Qwen3。下面是安装和配置步骤:
根据您的操作系统,选择相应的安装方法:
MacOS:
curl -fsSL https://ollama.ai/install.sh | sh
Linux:
curl -fsSL https://ollama.ai/install.sh | sh
Windows: 从Ollama官网下载并安装Windows版本。
安装完成后,通过命令行拉取Qwen3模型:
# 拉取Qwen3 5B模型
ollama pull qwen3:5b
# 如果需要更大参数的模型,也可以选择其他版本
# ollama pull qwen3:7b
# ollama pull qwen3:14b
通过以下命令验证Qwen3模型是否安装成功:
ollama list
您应该能看到已下载的qwen3模型列表。
确保Ollama服务正在运行:
# 在某些系统上,安装后会自动启动服务
# 如果没有自动启动,请使用以下命令
ollama serve
默认情况下,Ollama服务会在http://localhost:11434
端口运行。
完成Ollama和Qwen3模型的安装后,我们需要在微语管理后台进行配置:
访问您的微语管理后台,输入账号和密码登录系统。
在左侧导航栏中,找到并点击"AI助手"或"大模型 设置"选项。
在AI设置页面中:
点击"添加新模型"或"新建配置"按钮
选择模型类型为"Qwen3"
填写配置信息:
http://localhost:11434/api/chat
(如果Ollama在远程服务器上,请替换localhost为相应IP)qwen3:5b
(或您安装的其他版本)点击"测试连接"按钮,验证配置是否正确
确认无误后,点击"保存"按钮
如果您希望将Qwen3设置为系统默认的AI对话模型: