让您的服务器从 LLM 请求补全
sampling/createMessage
请求messages
数组包含要发送给 LLM 的对话历史。每条消息具有:
role
:可以是 “user” 或 “assistant”content
:消息内容,可以是:
text
字段的文本内容data
(base64)和 mimeType
字段的图像内容modelPreferences
对象允许服务器指定其模型选择偏好:
hints
:客户端可用于选择适当模型的模型名称建议数组:
name
:可以匹配完整或部分模型名称的字符串(例如 “claude-3”、“sonnet”)costPriority
:最小化成本的重要性speedPriority
:低延迟响应的重要性intelligencePriority
:高级模型能力的重要性systemPrompt
字段允许服务器请求特定的系统提示。客户端可能会修改或忽略此内容。
includeContext
参数指定要包含的 MCP 上下文:
"none"
:无额外上下文"thisServer"
:包含来自请求服务器的上下文"allServers"
:包含来自所有已连接 MCP 服务器的上下文temperature
:控制随机性(0.0 到 1.0)maxTokens
:生成的最大令牌数stopSequences
:停止生成的序列数组metadata
:额外的提供商特定参数includeContext
包含相关上下文