快速开始
欢迎使用雷驼智能引擎!本指南将帮助您在 5 分钟内快速上手。
什么是雷驼智能引擎?
雷驼智能引擎是一个企业级多模型 AI API 聚合平台,将多来源多模型聚合为 OpenAI 规范的统一 API。它不仅简化了下游应用的集成复杂度,还提供完善的用户管理、精准计费、智能负载均衡、实时监控分析等企业级功能。
核心特性
- 多模型聚合服务:支持众多主流 AI 提供商,OpenAI 兼容
- 企业级用户管理:多级权限体系,用户组管理,API 密钥管理
- 智能计费配额:灵活计费模式,实时用量跟踪,多级配额控制
- 高性能架构:智能负载均衡,多层缓存系统,智能限流
- 可视化分析监控:实时数据面板,可视化分析,详细统计报表
- 开发者友好集成:V8 集成 API,对话服务,知识库服务
快速体验
1. 部署服务
使用 Docker Compose 快速部署:
# 启动服务
docker-compose up -d
详细的安装步骤请参考 安装指南。
2. 访问管理界面
服务启动后,访问 http://localhost:8000 创建管理员账号并获取 API 密钥。
3. 使用 API
雷驼智能引擎兼容 OpenAI API 协议,您可以直接使用 OpenAI SDK:
Python 示例
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="http://localhost:8000/v1" # 指向本地雷驼智能引擎服务
)
response = client.chat.completions.create(
model="gpt-4",
messages=[
{"role": "user", "content": "你好,请介绍一下雷驼智能引擎"}
]
)
print(response.choices[0].message.content)
更多编程语言的示例和详细接口文档请参考 接口文档。
支持的模型渠道
雷驼智能引擎支持以下主流 AI 模型提供商作为渠道:
- 火山方舟:字节跳动旗下云平台火山引擎提供的一站式大模型开发平台 文档
- DeepSeek:深度求索开发的一系列大语言模型。文档
- 智谱AI:智谱 AI 开发的一系列大语言模型。文档
- 硅基流动:一个提供高效AI模型推理服务的平台。文档
- 月之暗面:一家开发大型 AI 模型的公司,拥有 Kimi 系列模型。文档
- 魔搭:阿里云发起的模型开放平台,提供了大量的机器学习和深度学习模型。文档
- 腾讯混元:腾讯开发的大型人工智能模型系列。文档
- OpenAI:一家美国人工智能公司,专注于开发和研究友好型人工智能。文档
- Azure OpenAI:Azure OpenAI 服务提供 REST API 访问 OpenAI 强大的语言模型。文档
- Hyperbolic:提供大规模运行大型语言模型的基础设施。文档
- Google:Google AI 提供对 Google 最先进 AI 模型的访问,包括 Gemini。文档
- Groq:一家半导体公司,专为高性能AI推理设计张量流处理器。文档
- XAI:由埃隆·马斯克创立的公司,专注于开发对人类安全有益的人工智能。文档
- Mistral AI:为企业和开发者构建基础 AI 模型。文档
- OpenRouter:一个通过单一 API 提供各种 AI 模型访问的服务。文档
- Osaurus:专为 Apple Silicon 优化的本地 LLM 服务器,基于 Apple MLX 构建,在 M 系列芯片上提供卓越性能。
- Ollama:一个用于在本地运行大型语言模型的工具。GitHub 详细的使用说明请参考 接口文档。
特别提醒:根据《生成式人工智能服务管理暂行办法》的要求,请勿对中国地区公众提供一切未经备案的生成式人工智能服务。