Skip to content

[Enhancement]: 推理模型增加官方和硅基的qwq-32b支持 #89

@B3000Kcn

Description

@B3000Kcn

提交前确认

  • 我已经搜索过现有的 issues,确认没有类似的功能请求
  • 我相信这个功能对大多数用户有价值,而不仅仅对我个人有用

相关问题

qwq的推理能力还不错,可以用来平替r1。官方的qwq32b有128k上下文,是r1的两倍,而且速度非常快。硅基的qwq32b只有32k上下文,速度稍慢,但有toolcall功能。我在deepclaude里面将两种qwq32b设置为推理模型时都会报错,说是没有开启流式输出。

400: This model only support stream mode, please enable the stream parameter to access the model.

建议的解决方案

推理模型增加官方和硅基的qwq-32b支持

替代方案

No response

附加信息

No response

Metadata

Metadata

Assignees

No one assigned

    Labels

    help wantedExtra attention is needed

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions