Spaces:
Sleeping
Sleeping
File size: 6,834 Bytes
1ea26af |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 |
# 🧠 CognitiveKernel-Launchpad — 深度研究智能体与基础模型的开放推理运行时框架
> 🎓 仅用于学术研究与教学使用 — 禁止商用
> 📄 [论文(arXiv:2508.00414)](https://arxiv.org/abs/2508.00414) | 🇬🇧 [English](readme.md) | 📜 [LICENSE](LICENSE.txt)
[](https://www.python.org/)
[](https://arxiv.org/abs/2508.00414)
---
## 🚀 本 Hugging Face Space 说明
- 本 Space 面向 Hugging Face 部署与访问控制,提供 Gradio 界面。
- 由于调用远程 LLM 服务提供商,运行时无需 GPU,CPU 即可。
- 访问控制:需登录 Hugging Face 才能使用(README 元数据已启用 OAuth 登录)。
- 可选:仅允许组织成员访问(在 README 元数据中添加 `hf_oauth_authorized_org: YOUR_ORG_NAME`)。
### 使用步骤(Space)
1) 点击 “Sign in with Hugging Face” 登录。
2) 在 Space → Settings → Secrets 配置:
- `OPENAI_API_KEY`(必填)
- `OPENAI_API_BASE`(如:https://api-inference.modelscope.cn/v1/chat/completions)
- `OPENAI_API_MODEL`(如:Qwen/Qwen3-235B-A22B-Instruct-2507)
3) 在输入框中提问,查看流式推理与答案。
### 运行提示
- 启动时会自动准备 Playwright 浏览器(若失败不致命)。
- 启用 Persistent Storage 后,可在 `/data` 下持久化日志或文件。
👉 如需了解完整功能与细节,请前往原始项目仓库:
https://github.com/charSLee013/CognitiveKernel-Launchpad
---
## 🌟 为什么选择 CognitiveKernel-Launchpad?
本研究用途的分支派生自腾讯的 CognitiveKernel-Pro,专为推理时使用优化:剔除了复杂的训练/SFT 与繁重测试流水线,聚焦于简洁稳定的推理运行时,便于分布式部署与推理落地;同时新增轻量级 Gradio 网页界面,便于交互使用。
---
## 🚀 快速开始
### 1. 安装(无需 GPU)
```bash
git clone https://github.com/charSLee013/CognitiveKernel-Launchpad.git
cd CognitiveKernel-Launchpad
python -m venv .venv
source .venv/bin/activate # Windows: .venv\Scripts\activate
pip install -r requirements.txt
```
### 2. 设置环境变量(最小化配置)
```bash
export OPENAI_API_KEY="sk-..."
export OPENAI_API_BASE="https://api.openai.com/v1"
export OPENAI_API_MODEL="gpt-4o-mini"
```
### 3. 运行单个问题
```bash
python -m ck_pro "What is the capital of France?"
```
✅ 就这么简单!你已经在运行一个深度研究智能体。
---
## 🛠️ 核心特性
### 🖥️ 命令行接口
```bash
python -m ck_pro \
--config config.toml \
--input questions.txt \
--output answers.txt \
--interactive \
--verbose
```
| 参数 | 说明 |
|------|------|
| `-c, --config` | TOML 配置路径(可选) |
| `-i, --input` | 批量输入文件(每行一个问题) |
| `-o, --output` | 将答案输出到文件 |
| `--interactive` | 交互式问答模式 |
| `-v, --verbose` | 显示推理步骤与耗时 |
---
### ⚙️ 配置(config.toml)
> `TOML > 环境变量 > 默认值`
使用本仓库提供的两份示例:
- 最小配置:[config.minimal.toml](config.minimal.toml) —— 详细说明见 [CONFIG_EXAMPLES.md](CONFIG_EXAMPLES.md)
- 全面配置:[config.comprehensive.toml](config.comprehensive.toml) —— 完整字段与继承示例见 [CONFIG_EXAMPLES.md](CONFIG_EXAMPLES.md)
#### 🚀 推荐配置
基于当前设置,以下是获得最佳性能的推荐配置:
```toml
# 核心智能体配置
[ck.model]
call_target = "https://api-inference.modelscope.cn/v1/chat/completions"
api_key = "your-modelscope-api-key-here" # 请替换为您的实际密钥
model = "Qwen/Qwen3-235B-A22B-Instruct-2507"
[ck.model.extract_body]
temperature = 0.6
max_tokens = 8192
# Web智能体配置(用于网页浏览任务)
[web]
max_steps = 20
use_multimodal = "auto" # 需要时自动使用多模态
[web.model]
call_target = "https://api-inference.modelscope.cn/v1/chat/completions"
api_key = "your-modelscope-api-key-here" # 请替换为您的实际密钥
model = "moonshotai/Kimi-K2-Instruct"
request_timeout = 600
max_retry_times = 5
max_token_num = 8192
[web.model.extract_body]
temperature = 0.0
top_p = 0.95
max_tokens = 8192
# 多模态Web智能体(用于视觉任务)
[web.model_multimodal]
call_target = "https://api-inference.modelscope.cn/v1/chat/completions"
api_key = "your-modelscope-api-key-here" # 请替换为您的实际密钥
model = "Qwen/Qwen2.5-VL-72B-Instruct"
request_timeout = 600
max_retry_times = 5
max_token_num = 8192
[web.model_multimodal.extract_body]
temperature = 0.0
top_p = 0.95
max_tokens = 8192
# 搜索配置
[search]
backend = "duckduckgo" # 推荐:可靠且无需API密钥
```
#### 🔑 API密钥设置
1. **获取ModelScope API密钥**:访问 [ModelScope](https://www.modelscope.cn/) 获取您的API密钥
2. **替换占位符**:将所有 `your-modelscope-api-key-here` 替换为您的实际API密钥
3. **替代方案**:使用环境变量:
```bash
export OPENAI_API_KEY="your-actual-key"
```
#### 📋 模型选择理由
- **主智能体**:`Qwen3-235B-A22B-Instruct-2507` - 最新高性能推理模型
- **Web智能体**:`Kimi-K2-Instruct` - 针对网页交互任务优化
- **多模态**:`Qwen2.5-VL-72B-Instruct` - 先进的视觉-语言能力
完整配置与高级选项请参见 [CONFIG_EXAMPLES.md](CONFIG_EXAMPLES.md)。
---
### 📊 GAIA 基准评测
评测你的智能体在 GAIA 基准上的表现:
```bash
python -m gaia.cli.simple_validate \
--data gaia_val.jsonl \
--level all \
--count 10 \
--output results.jsonl
```
→ 输出详细的性能汇总与逐任务结果。
---
### 🌐 Gradio Web 界面
启动一个更友好的网页界面:
```bash
python -m ck_pro.gradio_app --host 0.0.0.0 --port 7860
```
→ 在浏览器打开 `http://localhost:7860`。
提示:推荐预先安装 Playwright 浏览器(或在遇到相关错误时再安装):`python -m playwright install`(Linux 可能还需执行 `python -m playwright install-deps`)。
---
### 📂 日志
- 控制台:默认 `INFO` 级别
- 会话日志:`logs/ck_session_*.log`
- 可在 TOML 的 `[logging]` 部分进行配置
---
## 🧩 架构要点
- 模块化设计:Web、文件、代码、推理模块
- 回退机制:HTTP API → Playwright 浏览器自动化
- 反思与投票:面向测试时优化的策略以提升准确率
- 可扩展:易于接入新模型、工具或数据集
---
## 📜 许可证与致谢
这是 **腾讯 CognitiveKernel-Pro** 的研究用分支。
🔗 原仓库:https://github.com/Tencent/CognitiveKernel-Pro
> ⚠️ 严格用于学术研究与教学用途,禁止商用。
> 详见 `LICENSE.txt`。
|