Skip to main content

使用 Hermes 作为 Python 库

Hermes 不仅是一个命令行工具,你还可以直接导入 AIAgent 并在自己的 Python 脚本、Web 应用或自动化流程中以编程方式使用它。本指南将向你展示如何操作。


安装

直接从仓库安装 Hermes:

pip install git+https://github.com/NousResearch/hermes-agent.git

或使用 uv

uv pip install git+https://github.com/NousResearch/hermes-agent.git

你也可以将其固定到你的 requirements.txt 中:

hermes-agent @ git+https://github.com/NousResearch/hermes-agent.git
tip

使用 Hermes 作为库时,与 CLI 工具相同的环境变量是必需的。至少需要设置 OPENROUTER_API_KEY(或在直接使用提供者时设置 OPENAI_API_KEY / ANTHROPIC_API_KEY)。


基础用法

使用 Hermes 最简单的方式是调用 chat() 方法——传入一条消息,即可获得字符串响应:

from run_agent import AIAgent

agent = AIAgent(
model="anthropic/claude-sonnet-4",
quiet_mode=True,
)
response = agent.chat("What is the capital of France?")
print(response)

chat() 内部处理完整的对话循环(包括工具调用、重试等),并仅返回最终的文本回复。

warning

在将 Hermes 嵌入到你自己的代码中时,务必设置 quiet_mode=True。否则,该代理会输出 CLI 的旋转动画、进度指示器及其他终端内容,从而污染你应用程序的输出。


完全对话控制

如需对对话有更多控制权,请直接使用 run_conversation()。它返回一个包含完整响应、消息历史和元数据的字典:

agent = AIAgent(
model="anthropic/claude-sonnet-4",
quiet_mode=True,
)

result = agent.run_conversation(
user_message="Search for recent Python 3.13 features",
task_id="my-task-1",
)

print(result["final_response"])
print(f"Messages exchanged: {len(result['messages'])}")

返回的字典包含以下内容:

  • final_response —— 代理的最终文本回复
  • messages —— 完整的消息历史(系统、用户、助手、工具调用)
  • task_id —— 用于虚拟机隔离的任务标识符

你还可以传递自定义系统消息,覆盖该次调用的临时系统提示:

result = agent.run_conversation(
user_message="Explain quicksort",
system_message="You are a computer science tutor. Use simple analogies.",
)

配置工具

通过使用 enabled_toolsetsdisabled_toolsets 控制代理可访问的工具集:

# Only enable web tools (browsing, search)
agent = AIAgent(
model="anthropic/claude-sonnet-4",
enabled_toolsets=["web"],
quiet_mode=True,
)

# Enable everything except terminal access
agent = AIAgent(
model="anthropic/claude-sonnet-4",
disabled_toolsets=["terminal"],
quiet_mode=True,
)
tip

当你希望创建一个最小化且受控的代理(例如,仅允许网络搜索的研究机器人)时,使用 enabled_toolsets。当希望拥有大部分功能但需要限制特定工具(例如,在共享环境中禁用终端访问)时,使用 disabled_toolsets


多轮对话

通过将消息历史传回以维持多轮对话状态:

agent = AIAgent(
model="anthropic/claude-sonnet-4",
quiet_mode=True,
)

# First turn
result1 = agent.run_conversation("My name is Alice")
history = result1["messages"]

# Second turn — agent remembers the context
result2 = agent.run_conversation(
"What's my name?",
conversation_history=history,
)
print(result2["final_response"]) # "Your name is Alice."

conversation_history 参数接受来自前一次结果的 messages 列表。代理会内部复制该列表,因此你的原始列表不会被修改。


保存对话轨迹

启用轨迹保存功能,以 ShareGPT 格式捕获对话——对于生成训练数据或调试非常有用:

agent = AIAgent(
model="anthropic/claude-sonnet-4",
save_trajectories=True,
quiet_mode=True,
)

agent.chat("Write a Python function to sort a list")
# Saves to trajectory_samples.jsonl in ShareGPT format

每次对话都会作为单个 JSONL 行追加,便于从自动化运行中收集数据集。


自定义系统提示

使用 ephemeral_system_prompt 设置自定义系统提示,引导代理行为,但该提示不会保存到轨迹文件中(保持你的训练数据干净):

agent = AIAgent(
model="anthropic/claude-sonnet-4",
ephemeral_system_prompt="You are a SQL expert. Only answer database questions.",
quiet_mode=True,
)

response = agent.chat("How do I write a JOIN query?")
print(response)

这非常适合构建专用代理——代码审查员、文档撰写者、SQL 助手等,全部基于相同的底层工具。


批量处理

对于并行运行多个提示,Hermes 提供了 batch_runner.py。它能管理并发的 AIAgent 实例,并确保资源隔离:

python batch_runner.py --input prompts.jsonl --output results.jsonl

每个提示都有自己的 task_id 和隔离环境。如果你需要自定义批量逻辑,也可以直接使用 AIAgent 构建自己的方案:

import concurrent.futures
from run_agent import AIAgent

prompts = [
"Explain recursion",
"What is a hash table?",
"How does garbage collection work?",
]

def process_prompt(prompt):
# Create a fresh agent per task for thread safety
agent = AIAgent(
model="anthropic/claude-sonnet-4",
quiet_mode=True,
skip_memory=True,
)
return agent.chat(prompt)

with concurrent.futures.ThreadPoolExecutor(max_workers=3) as executor:
results = list(executor.map(process_prompt, prompts))

for prompt, result in zip(prompts, results):
print(f"Q: {prompt}\nA: {result}\n")
warning

请始终为每个线程或任务创建一个新的 AIAgent 实例。该代理维护内部状态(对话历史、工具会话、迭代计数器),这些状态不支持跨并发调用共享。


集成示例

FastAPI 端点

from fastapi import FastAPI
from pydantic import BaseModel
from run_agent import AIAgent

app = FastAPI()

class ChatRequest(BaseModel):
message: str
model: str = "anthropic/claude-sonnet-4"

@app.post("/chat")
async def chat(request: ChatRequest):
agent = AIAgent(
model=request.model,
quiet_mode=True,
skip_context_files=True,
skip_memory=True,
)
response = agent.chat(request.message)
return {"response": response}

Discord 机器人

import discord
from run_agent import AIAgent

client = discord.Client(intents=discord.Intents.default())

@client.event
async def on_message(message):
if message.author == client.user:
return
if message.content.startswith("!hermes "):
query = message.content[8:]
agent = AIAgent(
model="anthropic/claude-sonnet-4",
quiet_mode=True,
skip_context_files=True,
skip_memory=True,
platform="discord",
)
response = agent.chat(query)
await message.channel.send(response[:2000])

client.run("YOUR_DISCORD_TOKEN")

CI/CD 流水线步骤

#!/usr/bin/env python3
"""CI step: auto-review a PR diff."""
import subprocess
from run_agent import AIAgent

diff = subprocess.check_output(["git", "diff", "main...HEAD"]).decode()

agent = AIAgent(
model="anthropic/claude-sonnet-4",
quiet_mode=True,
skip_context_files=True,
skip_memory=True,
disabled_toolsets=["terminal", "browser"],
)

review = agent.chat(
f"Review this PR diff for bugs, security issues, and style problems:\n\n{diff}"
)
print(review)

关键构造函数参数

参数类型默认值说明
modelstr"anthropic/claude-opus-4.6"OpenRouter 格式的模型
quiet_modeboolFalse抑制 CLI 输出
enabled_toolsetsList[str]None白名单特定工具集
disabled_toolsetsList[str]None黑名单特定工具集
save_trajectoriesboolFalse将对话保存为 JSONL
ephemeral_system_promptstrNone自定义系统提示(不会保存到轨迹中)
max_iterationsint90每次对话的最大工具调用迭代次数
skip_context_filesboolFalse跳过加载 AGENTS.md 文件
skip_memoryboolFalse禁用持久内存的读写
api_keystrNoneAPI 密钥(会回退到环境变量)
base_urlstrNone自定义 API 端点 URL
platformstrNone平台提示("discord""telegram" 等)

重要注意事项

tip
  • 如果你不希望从工作目录加载 skip_context_files=True 文件进入系统提示,请设置 skip_context_files=True
  • 设置 skip_memory=True 可防止代理读取或写入持久内存——推荐用于无状态 API 端点。
  • platform 参数(如 "discord""telegram")会注入平台特定的格式提示,使代理能够自适应其输出风格。
warning
  • 线程安全性:每个线程或任务必须创建一个独立的 AIAgent 实例。绝对不要在并发调用之间共享实例。
  • 资源清理:代理会在对话结束时自动清理资源(终端会话、浏览器实例)。如果你在长期运行的进程中运行,请确保每次对话都能正常完成。
  • 迭代限制:默认的 max_iterations=90 值较为宽松。对于简单的问答场景,建议降低该值(例如 max_iterations=10),以防止工具调用陷入无限循环并控制成本。