跳转到主要内容

什么是 Shannon?

Shannon 是一个生产级 AI 智能体编排平台,旨在解决大规模部署 AI 智能体时的关键挑战:

成本控制

硬性预算限制、令牌跟踪和智能模型选择,通常可实现 60–90% 的成本节省(取决于工作负载)

可靠性

确定性回放调试、熔断器和自动降级

安全性

WASI 沙箱代码执行、OPA 策略执行、多租户隔离

可扩展性

基于 Temporal 的分布式工作流、水平扩展、全面的可观测性

核心功能

多智能体编排

Shannon 使用经过验证的认知模式(如思维链 (CoT)、思维树 (ToT) 和 ReAct)协调多个 AI 智能体,实现复杂的任务分解和并行执行。

生产就绪

专为生产工作负载打造:
  • Temporal 工作流:持久化、确定性执行
  • WASI 沙箱:安全的 Python 代码执行
  • 熔断器和故障保护
  • 全面的可观测性:Prometheus 指标和 OpenTelemetry 追踪

多提供商支持

无缝切换 LLM 提供商:
  • OpenAI (GPT-5 家族)
  • Anthropic (Claude 3 Opus/Sonnet/Haiku)
  • Google Gemini
  • Groq、Azure OpenAI、Ollama 等

快速开始

在 10 分钟内启动 Shannon:

安装指南

使用 Docker Compose 一键设置 Shannon

架构概览

Shannon 由四个主要组件协同工作:

Gateway

REST API 层,提供身份验证和速率限制

Orchestrator

基于 Temporal 的工作流协调和任务路由

Agent Core

具有 WASI 沙箱的安全执行层

LLM Service

多提供商 LLM 网关,具有智能缓存

使用场景

Shannon 擅长于:
  • 复杂任务自动化:将复杂任务分解为可管理的子任务,并自动编排
  • 研究与分析:协调多个智能体进行全面研究和综合
  • 代码生成:在 WASI 沙箱中安全执行 Python 代码
  • 多步骤工作流:能够在故障中存活并可重放用于调试的持久化工作流

下一步