File size: 6,834 Bytes
1ea26af
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
# 🧠 CognitiveKernel-Launchpad — 深度研究智能体与基础模型的开放推理运行时框架

> 🎓 仅用于学术研究与教学使用 — 禁止商用
> 📄 [论文(arXiv:2508.00414)](https://arxiv.org/abs/2508.00414) | 🇬🇧 [English](readme.md) | 📜 [LICENSE](LICENSE.txt)

[![Python 3.10+](https://img.shields.io/badge/Python-3.10%2B-blue)](https://www.python.org/)
[![arXiv](https://img.shields.io/badge/arXiv-2508.00414-b31b1b.svg)](https://arxiv.org/abs/2508.00414)

---
## 🚀 本 Hugging Face Space 说明

- 本 Space 面向 Hugging Face 部署与访问控制,提供 Gradio 界面。
- 由于调用远程 LLM 服务提供商,运行时无需 GPU,CPU 即可。
- 访问控制:需登录 Hugging Face 才能使用(README 元数据已启用 OAuth 登录)。
- 可选:仅允许组织成员访问(在 README 元数据中添加 `hf_oauth_authorized_org: YOUR_ORG_NAME`)。

### 使用步骤(Space)
1) 点击 “Sign in with Hugging Face” 登录。
2) 在 Space → Settings → Secrets 配置:
   - `OPENAI_API_KEY`(必填)
   - `OPENAI_API_BASE`(如:https://api-inference.modelscope.cn/v1/chat/completions)
   - `OPENAI_API_MODEL`(如:Qwen/Qwen3-235B-A22B-Instruct-2507)
3) 在输入框中提问,查看流式推理与答案。

### 运行提示
- 启动时会自动准备 Playwright 浏览器(若失败不致命)。
- 启用 Persistent Storage 后,可在 `/data` 下持久化日志或文件。

👉 如需了解完整功能与细节,请前往原始项目仓库:
https://github.com/charSLee013/CognitiveKernel-Launchpad

---


## 🌟 为什么选择 CognitiveKernel-Launchpad?

本研究用途的分支派生自腾讯的 CognitiveKernel-Pro,专为推理时使用优化:剔除了复杂的训练/SFT 与繁重测试流水线,聚焦于简洁稳定的推理运行时,便于分布式部署与推理落地;同时新增轻量级 Gradio 网页界面,便于交互使用。

---

## 🚀 快速开始

### 1. 安装(无需 GPU)

```bash
git clone https://github.com/charSLee013/CognitiveKernel-Launchpad.git
cd CognitiveKernel-Launchpad
python -m venv .venv
source .venv/bin/activate  # Windows: .venv\Scripts\activate
pip install -r requirements.txt
```

### 2. 设置环境变量(最小化配置)

```bash
export OPENAI_API_KEY="sk-..."
export OPENAI_API_BASE="https://api.openai.com/v1"
export OPENAI_API_MODEL="gpt-4o-mini"
```

### 3. 运行单个问题

```bash
python -m ck_pro "What is the capital of France?"
```

✅ 就这么简单!你已经在运行一个深度研究智能体。

---

## 🛠️ 核心特性

### 🖥️ 命令行接口

```bash
python -m ck_pro \
  --config config.toml \
  --input questions.txt \
  --output answers.txt \
  --interactive \
  --verbose
```

| 参数 | 说明 |
|------|------|
| `-c, --config` | TOML 配置路径(可选) |
| `-i, --input` | 批量输入文件(每行一个问题) |
| `-o, --output` | 将答案输出到文件 |
| `--interactive` | 交互式问答模式 |
| `-v, --verbose` | 显示推理步骤与耗时 |

---

### ⚙️ 配置(config.toml)

> `TOML > 环境变量 > 默认值`

使用本仓库提供的两份示例:
- 最小配置:[config.minimal.toml](config.minimal.toml) —— 详细说明见 [CONFIG_EXAMPLES.md](CONFIG_EXAMPLES.md)
- 全面配置:[config.comprehensive.toml](config.comprehensive.toml) —— 完整字段与继承示例见 [CONFIG_EXAMPLES.md](CONFIG_EXAMPLES.md)

#### 🚀 推荐配置

基于当前设置,以下是获得最佳性能的推荐配置:

```toml
# 核心智能体配置
[ck.model]
call_target = "https://api-inference.modelscope.cn/v1/chat/completions"
api_key = "your-modelscope-api-key-here"  # 请替换为您的实际密钥
model = "Qwen/Qwen3-235B-A22B-Instruct-2507"

[ck.model.extract_body]
temperature = 0.6
max_tokens = 8192

# Web智能体配置(用于网页浏览任务)
[web]
max_steps = 20
use_multimodal = "auto"  # 需要时自动使用多模态

[web.model]
call_target = "https://api-inference.modelscope.cn/v1/chat/completions"
api_key = "your-modelscope-api-key-here"  # 请替换为您的实际密钥
model = "moonshotai/Kimi-K2-Instruct"
request_timeout = 600
max_retry_times = 5
max_token_num = 8192

[web.model.extract_body]
temperature = 0.0
top_p = 0.95
max_tokens = 8192

# 多模态Web智能体(用于视觉任务)
[web.model_multimodal]
call_target = "https://api-inference.modelscope.cn/v1/chat/completions"
api_key = "your-modelscope-api-key-here"  # 请替换为您的实际密钥
model = "Qwen/Qwen2.5-VL-72B-Instruct"
request_timeout = 600
max_retry_times = 5
max_token_num = 8192

[web.model_multimodal.extract_body]
temperature = 0.0
top_p = 0.95
max_tokens = 8192

# 搜索配置
[search]
backend = "duckduckgo"  # 推荐:可靠且无需API密钥
```

#### 🔑 API密钥设置

1. **获取ModelScope API密钥**:访问 [ModelScope](https://www.modelscope.cn/) 获取您的API密钥
2. **替换占位符**:将所有 `your-modelscope-api-key-here` 替换为您的实际API密钥
3. **替代方案**:使用环境变量:
   ```bash
   export OPENAI_API_KEY="your-actual-key"
   ```

#### 📋 模型选择理由

- **主智能体**`Qwen3-235B-A22B-Instruct-2507` - 最新高性能推理模型
- **Web智能体**`Kimi-K2-Instruct` - 针对网页交互任务优化
- **多模态**`Qwen2.5-VL-72B-Instruct` - 先进的视觉-语言能力

完整配置与高级选项请参见 [CONFIG_EXAMPLES.md](CONFIG_EXAMPLES.md)。

---

### 📊 GAIA 基准评测

评测你的智能体在 GAIA 基准上的表现:

```bash
python -m gaia.cli.simple_validate \
  --data gaia_val.jsonl \
  --level all \
  --count 10 \
  --output results.jsonl
```

→ 输出详细的性能汇总与逐任务结果。

---

### 🌐 Gradio Web 界面

启动一个更友好的网页界面:

```bash
python -m ck_pro.gradio_app --host 0.0.0.0 --port 7860
```

→ 在浏览器打开 `http://localhost:7860`。

提示:推荐预先安装 Playwright 浏览器(或在遇到相关错误时再安装):`python -m playwright install`(Linux 可能还需执行 `python -m playwright install-deps`)。


---

### 📂 日志

- 控制台:默认 `INFO` 级别
- 会话日志:`logs/ck_session_*.log`
- 可在 TOML 的 `[logging]` 部分进行配置

---

## 🧩 架构要点

- 模块化设计:Web、文件、代码、推理模块
- 回退机制:HTTP API → Playwright 浏览器自动化
- 反思与投票:面向测试时优化的策略以提升准确率
- 可扩展:易于接入新模型、工具或数据集

---

## 📜 许可证与致谢

这是 **腾讯 CognitiveKernel-Pro** 的研究用分支。
🔗 原仓库:https://github.com/Tencent/CognitiveKernel-Pro

> ⚠️ 严格用于学术研究与教学用途,禁止商用。
> 详见 `LICENSE.txt`。