跳到主要内容

Qwen3-32B

更新时间:2025-12-22 13:32:15
调用Qwen3-32B模型,基于指定的聊天对话生成模型回复。Baicai Infer API服务支持通过OpenAI官方客户端进行调用。
POST
https://cloud.baicaiinfer.com/v1/chat/completions
Authorizations
AuthorizationsStringHeaderRequired

用户需使用已获取的API Key进行身份验证,以访问服务。

Body
modelStringRequired

模型名称,选择Qwen3-32B。更多模型,可参考支持的模型

messagesobject[]Required

截至目前组成对话的消息列表。

max_tokensintegerRequired

在生成对话时可产生的最大tokens数。如果您的提示(之前的消息)中的tokens数量加上max_tokens超过了模型的上下文长度,则行为取决于context_length_exceeded_behavior。默认情况下,max_tokens会被调整以适应上下文窗口,而不是返回错误。

streamboolean

是否使用流式传输。默认为false,如果设置了,tokens将以data-only server-sent events(SSE)发送,并以data: [DONE]消息终止流。

stream_optionsobject

流式回复选项。仅当stream设置为true时设置。

ninteger

每个提示生成多少个对话。默认值为1。注意:由于此参数会生成多个对话,因此可能会快速消耗您的计费额度。请谨慎使用,并确保为max_tokens和stop设置了合理的值。所需范围:1 ≤ x < 128

seedinteger

如果指定,我们的系统将尽最大努力进行确定性采样,以便相同的seed和参数的重复请求应返回相同的结果。

frequency_penaltynumber

默认值为0,正值会根据新tokens在当前文本中的出现频率对其进行惩罚,从而降低模型重复相同内容的可能性。如果目的是仅仅减少重复样本,合理的值大约在0.1到1之间。如果目的是强烈抑制重复,可以将系数提高到2,但这可能会明显降低样本质量。负值可以用来增加重复的可能性。另见presence_penalty,用于以固定速率惩罚至少出现一次的tokens。所需范围:-2 < x < 2

repetition_penaltynumber

对重复的tokens应用惩罚,以抑制或鼓励重复。值为1.0表示没有惩罚,允许自由重复。大于1.0的值会惩罚重复,降低重复tokens的可能性。介于0.0和1.0之间的值会奖励重复,增加重复tokens的机会。为了达到良好的平衡,通常建议使用1.2。请注意,在仅解码器模型中,惩罚会同时应用于生成的输出和提示。所需范围:0 < x < 2

stopstring

最多4个序列,API将停止生成更多tokens。返回的文本包含停止序列。

temperaturenumber

对话中的随机性程度,默认值为1,介于0和2之间。较高的值(如0.8)会使输出更加随机,而较低的值(如0.2),会使输出更集中且确定性更强。我们通常建议只调整此项或top_p,而不是同时调整两者。所需范围:0 < x < 2

top_pnumber

作为temperature的替代方法,称为nucleus sampling,模型会考虑具有top_p概率质量的tokens的结果。因此,0.1意味着只考虑构成前10%概率质量的tokens。我们通常建议只调整此项或temperature,而不是同时调整两者。所需范围:0 < x ≤ 1

top_kinteger

Top-k采样是另一种采样方法,在这种方法中,k个最可能的下一个tokens会被筛选出来,并且概率质量仅在这k个tokens之间重新分配。k的值控制了在每一步生成文本时,下一个tokens的候选数量。所需范围:1 < x < 128

min_pnumber

表示一个tokens被考虑的最小概率的浮动值,相对于最有可能的tokens的概率。所需范围:0 ≤ x ≤ 1

logit_biasmap[string, integer]

默认为null。修改指定tokens在对话中出现的可能性。接受一个JSON对象,将tokens映射到一个从-100到100的关联偏差值。

logprobsboolean

是否返回输出tokens的对数概率。如果为true,则返回消息内容中每个输出tokens的对数概率。

top_logprobsinteger

一个介于0到20之间的整数,指定在每个tokens位置返回的最可能的tokens数量,每个tokens都有一个关联的对数概率。如果使用此参数,必须将logprobs设置为true。所需范围:0 ≤ x ≤ 20

response_formatobject

允许强制模型产生特定的输出格式。

separate_reasoningboolean

控制是否将 “思考内容” 单独放入 “reasoning_content” 字段中。默认为false,即不单独返回 “思考内容”。目前支持的模型:deepseek/deepseek-r1-turbo

enable_thinkingboolean

控制是否开启思考模式。

Response
状态码:application/json
choicesarrayRequired

生成的对话选择列表。

createdintegerRequired

响应生成的Unix时间戳(以秒为单位)。

idstring Required

响应的唯一标识符。

modelstringRequired

用于对话的模型。

objectstring Required

对象类型,始终为chat.completion。

usageobject

使用统计。对于流式回复,usage字段被包含在返回的最后一个回复块中。

MODEL="Qwen3-32B"
export OPENAI_API_KEY="sk-5p1zwaivq2bRCfF08Vm*****"
curl --location --request POST 'https://cloud.baicaiinfer.com/v1/chat/completions' \
--header "Authorization: Bearer ${OPENAI_API_KEY}" \
-H "Content-Type: application/json" \
-d  @- <<EOF
{
    "model": "${MODEL}",
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "type": "text",
                    "text": "照片里面有什么?"
                },
                {
                    "type": "image_url",
                    "image_url": {
                        "url": "https://cdn.pixabay.com/photo/2025/09/21/08/39/fluffy-dog-9846034_640.jpg"
                    }
                }
            ]
        }
    ],
    "stream": false
}
EOF
{
    "id": "chatcmpl-26a0b05d520e42bcb2a55035bda70eca",
    "object": "chat.completion",
    "created": 1761016758,
    "model": "Qwen3-32B",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "这张照片中,一只白色的萨摩耶犬正从一辆车的窗户里探出头来。狗狗看起来非常开心,嘴巴微张,似乎在享受外面的空气或风景。背景是一个城市的夜景,可以看到一些霓虹灯招牌,其中一个招牌上写着“Finals”,显示出这是一个繁华的城市环境。车窗反射出周围的灯光和建筑物,增加了画面的动感和氛围感。整体感觉温馨而有趣。",
                "refusal": null,
                "annotations": null,
                "audio": null,
                "function_call": null,
                "tool_calls": [],
                "reasoning_content": null
            },
            "logprobs": null,
            "finish_reason": "stop",
            "stop_reason": null,
            "token_ids": null
        }
    ],
    "service_tier": null,
    "system_fingerprint": null,
    "usage": {
        "prompt_tokens": 347,
        "total_tokens": 438,
        "completion_tokens": 91,
        "prompt_tokens_details": null
    },
    "prompt_logprobs": null,
    "prompt_token_ids": null,
    "kv_transfer_params": null
}