Qwen2.5-VL-32B-Instruct
截至目前组成对话的消息列表。
在生成对话时可产生的最大tokens数。如果您的提示(之前的消息)中的tokens数量加上max_tokens超过了模型的上下文长度,则行为取决于context_length_exceeded_behavior。默认情况下,max_tokens会被调整以适应上下文窗口,而不是返回错误。
是否使用流式传输。默认为false,如果设置了,tokens将以data-only server-sent events(SSE)发送,并以data: [DONE]消息终止流。
每个提示生成多少个对话。默认值为1。注意:由于此参数会生成多个对话,因此可能会快速消耗您的计费额度。请谨慎使用,并确保为max_tokens和stop设置了合理的值。所需范围:1 ≤ x < 128
默认值为0,正值会根据新tokens在当前文本中的出现频率对其进行惩罚,从而降低模型重复相同内容的可能性。如果目的是仅仅减少重复样本,合理的值大约在0.1到1之间。如果目的是强烈抑制重复,可以将系数提高到2,但这可能会明显降低样本质量。负值可以用来增加重复的可能性。另见presence_penalty,用于以固定速率惩罚至少出现一次的tokens。所需范围:-2 < x < 2
最多4个序列,API将停止生成更多tokens。返回的文本包含停止序列。
对话中的随机性程度,默认值为1,介于0和2之间。较高的值(如0.8)会使输出更加随机,而较低的值(如0.2),会使输出更集中且确定性更强。我们通常建议只调整此项或top_p,而不是同时调整两者。所需范围:0 < x < 2
作为temperature的替代方法,称为nucleus sampling,模型会考虑具有top_p概率质量的tokens的结果。因此,0.1意味着只考虑构成前10%概率质量的tokens。我们通常建议只调整此项或temperature,而不是同时调整两者。所需范围:0 < x ≤ 1
Top-k采样是另一种采样方法,在这种方法中,k个最可能的下一个tokens会被筛选出来,并且概率质量仅在这k个tokens之间重新分配。k的值控制了在每一步生成文本时,下一个tokens的候选数量。所需范围:1 < x < 128
允许强制模型产生特定的输出格式。
生成的对话选择列表。
响应生成的Unix时间戳(以秒为单位)。
响应的唯一标识符。
用于对话的模型。
对象类型,始终为chat.completion。
使用统计。对于流式回复,usage字段被包含在返回的最后一个回复块中。
MODEL="Qwen2.5-VL-32B-Instruct"
export OPENAI_API_KEY="sk-5p1zwaivq2bRCfF08Vm*****"
curl --location --request POST 'https://cloud.baicaiinfer.com/v1/chat/completions' \
--header "Authorization: Bearer ${OPENAI_API_KEY}" \
-H "Content-Type: application/json" \
-d @- <<EOF
{
"model": "${MODEL}",
"messages": [
{
"role": "user",
"content": [
{
"type": "text",
"text": "照片里面有什么?"
},
{
"type": "image_url",
"image_url": {
"url": "https://cdn.pixabay.com/photo/2025/09/21/08/39/fluffy-dog-9846034_640.jpg"
}
}
]
}
],
"stream": false
}
EOF{
"id": "chatcmpl-26a0b05d520e42bcb2a55035bda70eca",
"object": "chat.completion",
"created": 1761016758,
"model": "Qwen2.5-VL-32B-Instruct",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "这张照片中,一只白色的萨摩耶犬正从一辆车的窗户里探出头来。狗狗看起来非常开心,嘴巴微张,似乎在享受外面的空气或风景。背景是一个城市的夜景,可以看到一些霓虹灯招牌,其中一个招牌上写着“Finals”,显示出这是一个繁华的城市环境。车窗反射出周围的灯光和建筑物,增加了画面的动感和氛围感。整体感觉温馨而有趣。",
"refusal": null,
"annotations": null,
"audio": null,
"function_call": null,
"tool_calls": [],
"reasoning_content": null
},
"logprobs": null,
"finish_reason": "stop",
"stop_reason": null,
"token_ids": null
}
],
"service_tier": null,
"system_fingerprint": null,
"usage": {
"prompt_tokens": 347,
"total_tokens": 438,
"completion_tokens": 91,
"prompt_tokens_details": null
},
"prompt_logprobs": null,
"prompt_token_ids": null,
"kv_transfer_params": null
}