AI Agent 的操作系统内核
受到《AI Agent 的操作系统时刻》 启发,尝试填补 Agent 生态中"缺失的内核"
🦀 Rust 重构版本已上线 · 分支 rust-refactor-v3 · 快速开始
- 📖 项目起源
- 🎯 核心洞察
- 📚 项目文档
- 🚀 快速开始
- 🏗️ 架构设计
- 📁 项目结构
- ✨ 核心特性
- 🇨🇳 中国模型支持
- 🔧 常用 MCP 服务器
- 🏗️ AIOS 参考架构
- 🔗 相关资源
- 📊 项目统计
- 📄 许可证
2025 年,编程 Agent 大爆发。Claude Code、Manus 等产品展示了 AI Agent 的惊人能力。但仔细观察,你会发现一个惊人的事实:它们的底层操作极其 "原始"。
Agent 直接操作文件系统和终端,依赖"信任模型"而非"隔离模型"。这就像 1980 年代的 DOS ——没有内存保护,没有多任务,没有标准化的设备接口。
Agent OS Kernel 正是为了填补这个"缺失的内核"而生。
| 传统计算机 | Agent 世界 | 核心挑战 | Agent OS Kernel 解决方案 |
|---|---|---|---|
| CPU | LLM | 如何高效调度推理任务? | 抢占式调度 + 资源配额管理 |
| RAM | Context Window | 如何管理有限的上下文窗口? | 虚拟内存式上下文管理 |
| Disk | Database | 如何持久化状态? | PostgreSQL 五重角色 |
| Process | Agent | 如何管理生命周期? | 真正的进程管理 |
| Device Driver | Tools | 如何标准化工具调用? | MCP + Agent-Native CLI |
| Security | Sandbox | 如何保障安全? | 沙箱 + 可观测性 + 审计 |
- 架构设计
- API 参考
- 最佳实践
- 分布式部署
- Development Plans
- AIOS 分析 - AIOS 深度分析文档
- INSPIRATION.md - GitHub 项目灵感收集
pip install agent-os-kernelfrom agent_os_kernel import AgentOSKernel
kernel = AgentOSKernel()
# 创建 Agent
agent_pid = kernel.spawn_agent(
name="CodeAssistant",
task="帮我写一个 Python 爬虫",
priority=30
)
# 运行内核
kernel.run(max_iterations=10)
# 查看系统状态
kernel.print_status()+----------------------------------------------------------------+
| Agent Applications |
| (CodeAssistant | ResearchAgent | DataAnalyst...) |
+----------------------------------------------------------------+
|
v
+----------------------------------------------------------------+
| [ Agent OS Kernel ] |
+----------------------------------------------------------------+
| +------------------+------------------+------------------+ |
| | Context | Process | I/O | |
| | Manager | Scheduler | Manager | |
| +------------------+------------------+------------------+ |
| +------------------+------------------+------------------+ |
| | Storage Layer (PostgreSQL) | Learning Layer (Self-Learning)| |
| +------------------+------------------+------------------+ |
+----------------------------------------------------------------+
|
v
+----------------------------------------------------------------+
| [ Hardware Resources ] |
| LLM APIs | Vector DB | MCP Servers |
+----------------------------------------------------------------+
Agent-OS-Kernel/
├── agent_os_kernel/ # 核心代码
│ ├── kernel.py # 主内核
│ ├── core/ # 核心子系统
│ │ ├── context_manager.py # 虚拟内存管理
│ │ ├── scheduler.py # 进程调度
│ │ ├── storage.py # 持久化存储
│ │ ├── security.py # 安全子系统
│ │ ├── metrics.py # 性能指标
│ │ ├── plugin_system.py # 插件系统
│ │ └── learning/ # 自学习系统
│ │ ├── trajectory.py # 轨迹记录
│ │ └── optimizer.py # 策略优化
│ ├── llm/ # LLM Provider
│ │ ├── provider.py # 抽象层
│ │ ├── factory.py # 工厂模式
│ │ ├── openai.py # OpenAI
│ │ ├── anthropic.py # Anthropic Claude
│ │ ├── deepseek.py # DeepSeek 🇨🇳
│ │ ├── kimi.py # Kimi 🇨🇳
│ │ ├── minimax.py # MiniMax 🇨🇳
│ │ ├── qwen.py # Qwen 🇨🇳
│ │ ├── ollama.py # Ollama (本地)
│ │ └── vllm.py # vLLM (本地)
│ ├── tools/ # 工具系统
│ │ ├── registry.py # 工具注册表
│ │ ├── base.py # 工具基类
│ │ └── mcp/ # MCP 协议
│ │ ├── client.py
│ │ └── registry.py
│ └── api/ # Web API
│ ├── server.py # FastAPI 服务
│ └── static/ # Vue.js 管理界面
├── tests/ # 测试用例 (9+ 文件)
├── examples/ # 示例代码 (13+ 文件)
│ ├── basic_usage.py
│ ├── agent_spawning.py
│ ├── mcp_integration.py # MCP 示例
│ ├── advanced_workflow.py # 工作流示例
│ └── agent_learning.py # 自学习示例
├── docs/ # 文档 (14+ 份)
│ ├── architecture.md
│ ├── api-reference.md
│ ├── distributed-deployment.md
│ └── best-practices.md
├── scripts/ # CLI 工具
│ └── kernel-cli # 交互式 CLI
├── development-docs/ # 开发计划
│ ├── 3DAY_PLAN.md
│ └── ITERATION_PLAN.md
├── config/config.example.yaml # 配置模板
├── Dockerfile
├── docker-compose.yml
├── Makefile
└── pyproject.toml
- 上下文页面(Page):将长上下文分割为固定大小的页面
- 缺页中断(Page Fault):访问不在内存中的页面时自动从数据库加载
- 页面置换(Page Replacement):LRU + 重要性 + 语义相似度多因素评分
- KV-Cache 优化:静态内容前置,动态内容按访问频率排序
from agent_os_kernel import ContextManager
cm = ContextManager(max_context_tokens=128000)
# 分配页面
page_id = cm.allocate_page(
agent_pid="agent-1",
content="大量上下文内容...",
importance=0.8
)
# 获取优化后的上下文
context = cm.get_agent_context(agent_pid="agent-1")| 角色 | 功能 | 类比 |
|---|---|---|
| 长期记忆存储 | 对话历史、学到的知识 | 海马体 |
| 状态持久化 | Checkpoint/快照、任务状态 | 硬盘 |
| 向量索引 | 语义检索、pgvector | 页表 |
| 协调服务 | 分布式锁、任务队列 | IPC 机制 |
| 审计日志 | 所有操作的不可篡改记录 | 黑匣子 |
from agent_os_kernel import StorageManager
storage = StorageManager.from_postgresql(
"postgresql://user:pass@localhost/agent_os",
enable_vector=True
)
# 向量语义搜索
results = storage.semantic_search(
query="用户之前提到的需求",
limit=5
)- 并发调度:优先级 + 时间片 + 抢占式调度
- 状态持久化:Agent 崩溃后从断点恢复
- 进程间通信:Agent 之间的状态同步
- 优雅终止:安全退出而非 kill -9
from agent_os_kernel import AgentOSKernel
kernel = AgentOSKernel()
# 创建 Agent
agent_pid = kernel.spawn_agent(
name="DBA_Agent",
task="监控数据库健康状态",
priority=10
)
# 从检查点恢复
new_pid = kernel.restore_checkpoint(checkpoint_id)from agent_os_kernel.llm import LLMProviderFactory, LLMConfig
factory = LLMProviderFactory()
# 创建不同 Provider
providers = [
("OpenAI", "gpt-4o"),
("DeepSeek", "deepseek-chat"),
("Kimi", "kimi-k2.5"), # 或 moonshot-v1 系列
("Qwen", "qwen-turbo"),
("Ollama", "qwen2.5:7b"), # 本地
("vLLM", "Llama-3.1-8B"), # 本地
]
for name, model in providers:
provider = factory.create(LLMConfig(
provider=name.lower(),
model=model
))from agent_os_kernel.core.learning import TrajectoryRecorder, AgentOptimizer基于 DAG 的工作流编排引擎,支持并行/串行任务执行:
from agent_os_kernel import WorkflowEngine, Workflow
engine = WorkflowEngine(max_concurrent=10)
workflow = await engine.create_workflow("数据处理流程")
await engine.execute(workflow)发布/订阅模式的事件驱动架构:
from agent_os_kernel.core import EventBus, EventPriority
bus = EventBus()
bus.subscribe("agent.started", handler)
await bus.publish("agent.started", {"agent_id": "agent-001"})保护系统免受级联故障影响:
from agent_os_kernel.core import CircuitBreaker, CircuitConfig
breaker = CircuitBreaker("api", CircuitConfig(failure_threshold=5))
await breaker.call(unstable_api)生产级别的指标收集和 Prometheus 导出:
from agent_os_kernel.core import MetricsCollector
collector = MetricsCollector()
collector.counter("requests", 1)
collector.gauge("memory", 512)Agent 实例复用,提高性能:
from agent_os_kernel.core import AgentPool
pool = AgentPool(max_size=10, min_idle=2)
agent = await pool.acquire(definition)
await pool.release(agent)集中管理 Agent 实例的注册和发现:
from agent_os_kernel.core import AgentRegistry
registry = AgentRegistry()
await registry.register(agent_id, "Assistant", "helper")
await registry.heartbeat(agent_id)控制 API 调用频率:
from agent_os_kernel.core import RateLimiter, RateLimitConfig
limiter = RateLimiter(RateLimitConfig(burst_size=20))
await limiter.acquire("user-001")recorder = TrajectoryRecorder() traj_id = recorder.start_recording("Agent1", pid, "任务") recorder.add_step(phase="thinking", thought="分析问题") recorder.finish_recoding("成功", success=True)
optimizer = AgentOptimizer(recorder) analysis = optimizer.analyze("Agent1")
print(f"成功率: {analysis.success_rate:.1%}") print(f"优化建议: {len(analysis.suggestions)} 条")
### 🔒 安全与可观测性
- **沙箱隔离**:Docker + 资源限制
- **完整审计**:所有操作的不可篡改记录
- **安全策略**:权限级别、路径限制、网络控制
```python
from agent_os_kernel import SecurityPolicy
policy = SecurityPolicy(
permission_level=PermissionLevel.STANDARD,
max_memory_mb=512,
allowed_paths=["/workspace"],
blocked_paths=["/etc", "/root"]
)
Agent OS Kernel 完整支持主流中国 AI 模型提供商:
| Provider | 模型 | 配置示例 |
|---|---|---|
| DeepSeek | deepseek-chat, deepseek-reasoner | {"provider": "deepseek", "model": "deepseek-chat"} |
| Qwen (阿里) | qwen-turbo, qwen-plus, qwen-max, qwen-long | {"provider": "qwen", "model": "qwen-turbo"} |
| Kimi (Moonshot) | kimi-k2 系列、moonshot-v1 系列 | {"provider": "kimi", "model": "kimi-k2.5"} |
| MiniMax | abab6.5s-chat, abab6.5-chat | {"provider": "minimax", "model": "abab6.5s-chat"} |
完整支持 Model Context Protocol,连接 400+ MCP 服务器。
# 文件系统
npx @modelcontextprotocol/server-filesystem /path
# Git
npx @modelcontextprotocol/server-git
# 数据库
npx @modelcontextprotocol/server-postgres
# 网页浏览
npx @playwright/mcp@latest --headlessAgent OS Kernel 深度参考 AIOS (COLM 2025) 架构设计:
+----------------------------------------------------------------+
| [ Agent-OS-Kernel (AIOS-Inspired) ] |
+----------------------------------------------------------------+
| Kernel Layer |
| + LLM Core (Multi-Provider) |
| + Context Manager (Virtual Memory) |
| + Memory Manager (Memory) |
| + Storage Manager (Persistent) |
| + Tool Manager (Tools) |
| + Scheduler (Process) |
+----------------------------------------------------------------+
| SDK Layer (Cerebrum-Style) |
| + Agent Builder (Builder) |
| + Tool Registry (Registry) |
| + Plugin System (Plugins) |
+----------------------------------------------------------------+
| AIOS 特性 | Agent-OS-Kernel 支持 |
|---|---|
| 多 LLM Provider | ✅ 9+ Providers |
| Agent 调度 | ✅ 抢占式调度 |
| 内存管理 | ✅ 虚拟内存式上下文 |
| 工具管理 | ✅ MCP + Native CLI |
| 部署模式 | ✅ 本地/远程 |
| CLI 工具 | ✅ kernel-cli |
# 克隆并进入项目
git clone https://github.com/bit-cook/Agent-OS-Kernel.git
cd Agent-OS-Kernel
# 切换到 Rust 重构分支
git checkout rust-refactor-v3
# 构建
cargo build --release
# 运行测试
cargo test --lib分支: rust-refactor-v3
- AIOS (COLM 2025) - Agent OS 架构,论文发表于 Conference on Language Modeling
- 《AI Agent 的操作系统时刻》 - 冯若航,最初的灵感来源
- Manus - Context Engineering - 上下文工程实践经验
- DeepSeek Engram - 记忆增强的 LLM 推理
- AutoGen - Microsoft 多 Agent 框架,支持 AgentChat 和 Core API
- AutoGen Studio - No-code 多 Agent 开发 GUI
- MetaGPT - 软件开发多 Agent 框架
- E2B - Agent 安全沙箱环境,10.8k+ stars
- AIWaves Agents - 自学习语言 Agent,支持符号学习
- OpenAGI - 任务分解和工具选择框架
- Open-Interpreter - 代码解释器,自然语言执行代码
- ActivePieces - AI 工作流自动化,15k+ stars
- Cerebrum - AIOS SDK,Agent 开发部署平台
- CowAgent - 多平台接入 Agent,支持飞书/钉钉/企业微信
- AIOS (arXiv:2403.16971) - Agent OS 架构设计
- A-Mem (arXiv:2502.12110) - Agentic Memory for LLM Agents
- LiteCUA (arXiv:2505.18829) - 学习 Agent 评估基准
| 指标 | 数值 |
|---|---|
| Python 文件 | 120+ |
| 核心模块 | 74+ |
| LLM Providers | 11+ |
| 测试文件 | 59+ |
| 示例代码 | 48+ |
| 文档 | 41+ |
# 运行核心测试
python -m pytest tests/test_core.py -v
# 运行所有测试
python -m pytest tests/ -v
# 运行示例
python examples/comprehensive_system_demo.py在标准配置下:
- 缓存命中率: > 95%
- 熔断器响应: < 1ms
- 消息队列吞吐: > 10K msg/s
- 分布式锁延迟: < 5ms
MIT License © 2026 BitCook - 自由使用和学习!