现在 google 的 gemini 系列模型已经轻松支持 128k+ token 了,我通过 openAI 格式添加了一个gemini-2.0-flash 作为自定义模型,但是在阅读比较长的网页内容时,AI 输出的内容会被阶段,猜测是调用接口时,设置了错误的api token 限制,导致模型无法输出完整内容。 希望可以修复
现在 google 的 gemini 系列模型已经轻松支持 128k+ token 了,我通过 openAI 格式添加了一个gemini-2.0-flash 作为自定义模型,但是在阅读比较长的网页内容时,AI 输出的内容会被阶段,猜测是调用接口时,设置了错误的api token 限制,导致模型无法输出完整内容。
希望可以修复