Python SDK 完整集成教程

使用 Python 调用 LLM API,集成 Langchain、LlamaIndex、AutoGPT 等主流框架,构建强大的 AI 应用

快速开始

1. 安装 SDK

pip install openai

2. 配置 API

openai.api_key = "..."

3. 开始调用

response = openai...

代码示例

OpenAI 官方库

使用 OpenAI Python SDK 调用 API

# 安装 OpenAI Python 库
# pip install openai

import openai

# 配置 API
openai.api_key = "YOUR_API_KEY"
openai.api_base = "https://api.example.com/v1"  # 替换为实际的 API 地址

# 基础对话
response = openai.ChatCompletion.create(
    model="gpt-4o",
    messages=[
        {"role": "system", "content": "你是一个有帮助的助手"},
        {"role": "user", "content": "Python中的装饰器是什么?"}
    ],
    temperature=0.7,
    max_tokens=1000
)

print(response.choices[0].message.content)

# 流式输出
stream = openai.ChatCompletion.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "写一首关于编程的诗"}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.get("content"):
        print(chunk.choices[0].delta.content, end="", flush=True)

其他语言 SDK

🐍

Python

最流行的 AI 开发语言

主要库:

openailangchainllama-indextransformers
查看教程 →
📦

Node.js

JavaScript/TypeScript 开发

主要库:

openailangchain.jsai-sdk
查看教程 →
🐘

PHP

Web 应用快速集成

主要库:

openai-phporhanerday/open-ai
查看教程 →

Java

企业级应用开发

主要库:

openai-javalangchain4j
查看教程 →
🐹

Go

高性能后端服务

主要库:

sashabaranov/go-openai
查看教程 →
🔷

C#/.NET

Microsoft 生态集成

主要库:

OpenAI-DotNetAzure.AI.OpenAI
查看教程 →

主流框架集成

Langchain

构建 LLM 应用的框架

适用场景:

RAG 应用Agent 系统工作流编排知识库问答

LlamaIndex

数据连接和索引框架

适用场景:

文档问答数据分析知识图谱搜索引擎

AutoGPT

自主 AI 代理

适用场景:

任务自动化研究助手代码生成内容创作

Semantic Kernel

Microsoft AI 编排框架

适用场景:

企业应用插件系统记忆管理技能组合

最佳实践

错误处理

  • • 实现重试机制和指数退避
  • • 捕获并处理 API 异常
  • • 设置合理的超时时间
  • • 记录错误日志便于调试

性能优化

  • • 使用异步调用提高并发性能
  • • 实现请求批处理减少延迟
  • • 缓存常用结果节省成本
  • • 选择合适的模型平衡性能与成本

安全建议

  • • 使用环境变量存储 API Key
  • • 不要在代码中硬编码密钥
  • • 实现访问控制和使用限制
  • • 对用户输入进行验证和过滤

调试技巧

  • • 使用详细日志记录 API 调用
  • • 监控 Token 使用情况
  • • 测试边界情况和错误场景
  • • 使用 Playground 快速验证

常见问题

Q: 如何处理 "Rate limit exceeded" 错误?

A: 实现重试机制,使用指数退避算法。可以使用 tenacity 或 backoff 库自动处理重试。

Q: 如何减少 API 调用成本?

A: 使用更小的模型(如 GPT-3.5-turbo)、缓存常用结果、优化提示词长度、批量处理请求。

Q: 如何处理长文本超过 Token 限制?

A: 使用文本分割策略,实现滑动窗口处理,或使用支持更长上下文的模型如 Claude。

Q: 如何提高生成内容的质量?

A: 优化提示词、使用 few-shot 示例、调整 temperature 参数、实现输出验证和后处理。

需要更多帮助?查看 API 文档联系技术支持