7.5 LLM 模块:流式调用的实现
7.5.1 LLM.stream() 完整实现解析
LLM.stream() 完整实现解析export namespace LLM {
export type StreamInput = {
user: MessageV2.User // 当前用户消息
sessionID: string // 会话 ID
model: Provider.Model // 模型元数据
agent: Agent.Info // Agent 配置
system: string[] // 额外的 system 指令
abort: AbortSignal // 终止信号
messages: ModelMessage[] // 完整的对话历史
small?: boolean // 是否使用小模型配置
tools: Record<string, Tool> // 可用工具集
retries?: number // 重试次数
}
export async function stream(input: StreamInput) {
// ... 完整实现
}
}第一步:并行获取依赖资源
第二步:System Prompt 组装
第三步:Provider 选项合并
第四步:Plugin 参数钩子
第五步:工具解析与权限过滤
第六步:LiteLLM 代理兼容
第七步:调用 streamText()
streamText()experimental_repairToolCall:工具调用修复
experimental_repairToolCall:工具调用修复wrapLanguageModel 中间件
wrapLanguageModel 中间件7.5.2 认证体系
7.5.3 请求 Header 管理
7.5.4 小模型模式
本章小结
Last updated
