Skip to main content

快速开始

欢迎使用雷驼智能引擎!本指南将帮助您在 5 分钟内快速上手。

什么是雷驼智能引擎?

雷驼智能引擎是一个企业级多模型 AI API 聚合平台,将多来源多模型聚合为 OpenAI 规范的统一 API。它不仅简化了下游应用的集成复杂度,还提供完善的用户管理、精准计费、智能负载均衡、实时监控分析等企业级功能。

核心特性

  • 多模型聚合服务:支持众多主流 AI 提供商,OpenAI 兼容
  • 企业级用户管理:多级权限体系,用户组管理,API 密钥管理
  • 智能计费配额:灵活计费模式,实时用量跟踪,多级配额控制
  • 高性能架构:智能负载均衡,多层缓存系统,智能限流
  • 可视化分析监控:实时数据面板,可视化分析,详细统计报表
  • 开发者友好集成:V8 集成 API,对话服务,知识库服务

快速体验

1. 部署服务

使用 Docker Compose 快速部署:

# 启动服务
docker-compose up -d

详细的安装步骤请参考 安装指南

2. 访问管理界面

服务启动后,访问 http://localhost:8000 创建管理员账号并获取 API 密钥。

3. 使用 API

雷驼智能引擎兼容 OpenAI API 协议,您可以直接使用 OpenAI SDK:

Python 示例

from openai import OpenAI

client = OpenAI(
api_key="your-api-key",
base_url="http://localhost:8000/v1" # 指向本地雷驼智能引擎服务
)

response = client.chat.completions.create(
model="gpt-4",
messages=[
{"role": "user", "content": "你好,请介绍一下雷驼智能引擎"}
]
)

print(response.choices[0].message.content)

更多编程语言的示例和详细接口文档请参考 接口文档

支持的模型渠道

雷驼智能引擎支持以下主流 AI 模型提供商作为渠道:

  • 火山方舟:字节跳动旗下云平台火山引擎提供的一站式大模型开发平台 文档
  • DeepSeek:深度求索开发的一系列大语言模型。文档
  • 智谱AI:智谱 AI 开发的一系列大语言模型。文档
  • 硅基流动:一个提供高效AI模型推理服务的平台。文档
  • 月之暗面:一家开发大型 AI 模型的公司,拥有 Kimi 系列模型。文档
  • 魔搭:阿里云发起的模型开放平台,提供了大量的机器学习和深度学习模型。文档
  • 腾讯混元:腾讯开发的大型人工智能模型系列。文档
  • OpenAI:一家美国人工智能公司,专注于开发和研究友好型人工智能。文档
  • Azure OpenAI:Azure OpenAI 服务提供 REST API 访问 OpenAI 强大的语言模型。文档
  • Hyperbolic:提供大规模运行大型语言模型的基础设施。文档
  • Google:Google AI 提供对 Google 最先进 AI 模型的访问,包括 Gemini。文档
  • Groq:一家半导体公司,专为高性能AI推理设计张量流处理器。文档
  • XAI:由埃隆·马斯克创立的公司,专注于开发对人类安全有益的人工智能。文档
  • Mistral AI:为企业和开发者构建基础 AI 模型。文档
  • OpenRouter:一个通过单一 API 提供各种 AI 模型访问的服务。文档
  • Osaurus:专为 Apple Silicon 优化的本地 LLM 服务器,基于 Apple MLX 构建,在 M 系列芯片上提供卓越性能。
  • Ollama:一个用于在本地运行大型语言模型的工具。GitHub 详细的使用说明请参考 接口文档

特别提醒:根据《生成式人工智能服务管理暂行办法》的要求,请勿对中国地区公众提供一切未经备案的生成式人工智能服务。

下一步