Python SDK 完整集成教程
使用 Python 调用 LLM API,集成 Langchain、LlamaIndex、AutoGPT 等主流框架,构建强大的 AI 应用
快速开始
1. 安装 SDK
pip install openai2. 配置 API
openai.api_key = "..."3. 开始调用
response = openai...代码示例
OpenAI 官方库
使用 OpenAI Python SDK 调用 API
# 安装 OpenAI Python 库
# pip install openai
import openai
# 配置 API
openai.api_key = "YOUR_API_KEY"
openai.api_base = "https://api.example.com/v1" # 替换为实际的 API 地址
# 基础对话
response = openai.ChatCompletion.create(
model="gpt-4o",
messages=[
{"role": "system", "content": "你是一个有帮助的助手"},
{"role": "user", "content": "Python中的装饰器是什么?"}
],
temperature=0.7,
max_tokens=1000
)
print(response.choices[0].message.content)
# 流式输出
stream = openai.ChatCompletion.create(
model="gpt-4o",
messages=[{"role": "user", "content": "写一首关于编程的诗"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.get("content"):
print(chunk.choices[0].delta.content, end="", flush=True)其他语言 SDK
🐍
📦
🐘
☕
🐹
🔷
主流框架集成
Langchain
构建 LLM 应用的框架
适用场景:
RAG 应用Agent 系统工作流编排知识库问答
LlamaIndex
数据连接和索引框架
适用场景:
文档问答数据分析知识图谱搜索引擎
AutoGPT
自主 AI 代理
适用场景:
任务自动化研究助手代码生成内容创作
Semantic Kernel
Microsoft AI 编排框架
适用场景:
企业应用插件系统记忆管理技能组合
最佳实践
错误处理
- • 实现重试机制和指数退避
- • 捕获并处理 API 异常
- • 设置合理的超时时间
- • 记录错误日志便于调试
性能优化
- • 使用异步调用提高并发性能
- • 实现请求批处理减少延迟
- • 缓存常用结果节省成本
- • 选择合适的模型平衡性能与成本
安全建议
- • 使用环境变量存储 API Key
- • 不要在代码中硬编码密钥
- • 实现访问控制和使用限制
- • 对用户输入进行验证和过滤
调试技巧
- • 使用详细日志记录 API 调用
- • 监控 Token 使用情况
- • 测试边界情况和错误场景
- • 使用 Playground 快速验证
常见问题
Q: 如何处理 "Rate limit exceeded" 错误?
A: 实现重试机制,使用指数退避算法。可以使用 tenacity 或 backoff 库自动处理重试。
Q: 如何减少 API 调用成本?
A: 使用更小的模型(如 GPT-3.5-turbo)、缓存常用结果、优化提示词长度、批量处理请求。
Q: 如何处理长文本超过 Token 限制?
A: 使用文本分割策略,实现滑动窗口处理,或使用支持更长上下文的模型如 Claude。
Q: 如何提高生成内容的质量?
A: 优化提示词、使用 few-shot 示例、调整 temperature 参数、实现输出验证和后处理。