Dify 平台模型配置教程

在 Dify 中配置自定义 LLM API,构建企业级 AI 应用,实现工作流自动化和知识库管理

快速配置步骤

添加自定义模型

1

在 Dify 中配置 LLM API 接入点

  • 登录 Dify 控制台
  • 进入'设置' → '模型供应商'
  • 点击'添加自定义模型'
  • 填写 API 配置信息

配置 API 参数

2

设置正确的接口地址和认证信息

API Base URL:https://api.example.com/v1
API Key:YOUR_API_KEY
模型名称:gpt-4o, claude-3-5-sonnet 等

测试连接

3

验证配置是否正确

  • 在模型列表中找到新添加的模型
  • 点击'测试'按钮
  • 查看响应是否正常
  • 保存配置

平台特性

🔄

可视化工作流

拖拽式构建复杂的 AI 应用流程

📚

知识库管理

轻松创建和管理向量化知识库

🤖

多模型支持

同时使用多个 LLM 模型协作

📋

应用模板

丰富的预置模板快速开始

👥

团队协作

多人协作开发和管理应用

🔌

API 优先

完整的 API 支持二次开发

配置示例

基础配置

在 Dify 中添加自定义 OpenAI 兼容模型

# Dify 自定义模型配置

1. 模型供应商配置
{
  "provider": "openai",
  "provider_name": "Custom LLM API",
  "provider_type": "custom",
  "api_base": "https://api.example.com/v1",
  "api_key": "YOUR_API_KEY",
  "models": [
    {
      "model": "gpt-4o",
      "label": "GPT-4o (Custom)",
      "model_type": "llm",
      "features": ["agent-thought", "vision"],
      "max_tokens": 128000,
      "price": {
        "input": "0.005",
        "output": "0.015",
        "unit": "0.001"
      }
    },
    {
      "model": "gpt-3.5-turbo",
      "label": "GPT-3.5 Turbo (Custom)",
      "model_type": "llm",
      "features": ["agent-thought"],
      "max_tokens": 16385,
      "price": {
        "input": "0.0005",
        "output": "0.0015",
        "unit": "0.001"
      }
    }
  ]
}

应用场景

智能客服系统

结合知识库的 24/7 客服机器人

工作流程: 知识检索 → LLM 理解 → 生成回答

文档问答助手

基于企业文档的智能问答系统

工作流程: 文档导入 → 向量化 → 语义搜索 → AI 总结

内容生成平台

自动化内容创作和优化

工作流程: 需求输入 → 多模型生成 → 质量评估 → 输出

数据分析助手

自然语言查询和数据洞察

工作流程: 问题理解 → SQL 生成 → 数据查询 → 可视化

使用技巧

  • • 使用环境变量管理不同环境的 API 配置
  • • 合理设置模型的 temperature 和 max_tokens 参数
  • • 利用 Dify 的缓存功能减少重复调用
  • • 使用工作流的条件节点实现复杂逻辑
  • • 定期备份重要的应用配置和知识库数据