Dify 平台模型配置教程
在 Dify 中配置自定义 LLM API,构建企业级 AI 应用,实现工作流自动化和知识库管理
快速配置步骤
添加自定义模型
1在 Dify 中配置 LLM API 接入点
- 登录 Dify 控制台
- 进入'设置' → '模型供应商'
- 点击'添加自定义模型'
- 填写 API 配置信息
配置 API 参数
2设置正确的接口地址和认证信息
API Base URL:
https://api.example.com/v1API Key:
YOUR_API_KEY模型名称:
gpt-4o, claude-3-5-sonnet 等测试连接
3验证配置是否正确
- 在模型列表中找到新添加的模型
- 点击'测试'按钮
- 查看响应是否正常
- 保存配置
平台特性
🔄
可视化工作流
拖拽式构建复杂的 AI 应用流程
📚
知识库管理
轻松创建和管理向量化知识库
🤖
多模型支持
同时使用多个 LLM 模型协作
📋
应用模板
丰富的预置模板快速开始
👥
团队协作
多人协作开发和管理应用
🔌
API 优先
完整的 API 支持二次开发
配置示例
基础配置
在 Dify 中添加自定义 OpenAI 兼容模型
# Dify 自定义模型配置
1. 模型供应商配置
{
"provider": "openai",
"provider_name": "Custom LLM API",
"provider_type": "custom",
"api_base": "https://api.example.com/v1",
"api_key": "YOUR_API_KEY",
"models": [
{
"model": "gpt-4o",
"label": "GPT-4o (Custom)",
"model_type": "llm",
"features": ["agent-thought", "vision"],
"max_tokens": 128000,
"price": {
"input": "0.005",
"output": "0.015",
"unit": "0.001"
}
},
{
"model": "gpt-3.5-turbo",
"label": "GPT-3.5 Turbo (Custom)",
"model_type": "llm",
"features": ["agent-thought"],
"max_tokens": 16385,
"price": {
"input": "0.0005",
"output": "0.0015",
"unit": "0.001"
}
}
]
}应用场景
智能客服系统
结合知识库的 24/7 客服机器人
工作流程: 知识检索 → LLM 理解 → 生成回答
文档问答助手
基于企业文档的智能问答系统
工作流程: 文档导入 → 向量化 → 语义搜索 → AI 总结
内容生成平台
自动化内容创作和优化
工作流程: 需求输入 → 多模型生成 → 质量评估 → 输出
数据分析助手
自然语言查询和数据洞察
工作流程: 问题理解 → SQL 生成 → 数据查询 → 可视化
使用技巧
- • 使用环境变量管理不同环境的 API 配置
- • 合理设置模型的 temperature 和 max_tokens 参数
- • 利用 Dify 的缓存功能减少重复调用
- • 使用工作流的条件节点实现复杂逻辑
- • 定期备份重要的应用配置和知识库数据