LunaTranslator/docs/zh/guochandamoxing.md
HIllya51 cc60b50545 .
2025-10-06 21:51:31 +08:00

7.6 KiB
Raw Permalink Blame History

大模型翻译接口

大模型通用接口

::: details 同时使用多个大模型接口? 如果只是有多个不同的密钥想要轮询,只需用|分割就可以了。

但有时想要同时使用多个不同的api接口地址/prompt/model/参数等来对比翻译效果。方法是:

  1. 点击上方的“+”按钮,选择大模型通用接口 img
  2. 弹出一个窗口为之取个名字。这样会复制一份当前大模型通用接口的设置和api。 img
  3. 激活复制的接口,并可以进行单独设置。复制的接口可以和原接口一起运行,从而使用多个不同的设置来运行。 img :::

参数说明

  1. API接口地址

    大部分常见大模型平台的API接口地址可以在下拉列表中选取,但可能会有遗漏。对于其他没有列举出来的接口,请自行查阅平台的文档来填写。

  2. API Key

    API Key可以在平台获取。对于添加的多个Key会自动进行轮询并根据错误反馈调整Key的权重。

  3. model

    大部分平台填写好API接口地址API Key后,点击model旁的刷新按钮即可获取可用的模型列表。

    如果平台不支持拉取模型的接口,且默认列表中没有要用的模型,那么请参照接口官方文档手动填写模型。

  4. 流式输出

    开启后,将以流式增量显示模型输出的内容,否则会在模型完整输出后一次性显示所有内容。

  5. 隐藏思考过程

    开启后将不显示<think>标签包裹的内容。若开启了隐藏思考过程,会显示当前的思考进度。

  6. 附带上下文个数

    会附带若干条历史的原文和翻译接口提供给大模型以优化翻译。设置为0将禁用此优化。

    • 优化缓存命中 - 对于DeepSeek等平台平台会对缓存命中的输入以更低的价格计费。激活后会优化附带上下文时的形式以增加缓存命中率。
  7. 自定义 system prompt / 自定义 user message / prefill

    几种不同的控制输出内容的手段,可以根据喜好设置,或者使用默认即可。

    自定义system prompt和user message中可以使用字段来引用一些信息

    • {sentence}:当前欲翻译的文本
    • {srclang}{tgtlang}源语言和目标语言。如果prompt中仅使用英语则会替换成语言名称的英语翻译否则会替换成语言名称的当前UI语言翻译。
    • {contextOriginal[N]}{contextTranslation[N]}{contextTranslation[N]}N条历史原文、译文、两者。N与附带上下文个数无关,需要输入时替换成整数。
    • {DictWithPrompt[XXXXX]}:此字段可以引用专有名词翻译中的词条,且当没有匹配到的词条时,该字段会被清除以避免破坏翻译内容。其中,XXXXX是一段引导LLM使用给定的词条来优化翻译的prompt可以自行定义或禁用自定义user message以使用默认的引导prompt。
  8. Temperature / max tokens / top p / frequency penalty

    对于部分平台的部分模型,可能top pfrequency penalty等参数不被接口接受,或者max tokens参数被弃用并改为了max completion tokens,激活或取消开关可以解决这些问题。

  9. reasoning effort

    对于Gemini平台会自动将选项映射为Gemini的thinkingBudget,映射规则为:

    minimal->0(停用思考但对于Gemini-2.5-Pro模型不适用), low->512, medium->-1开启动态思维, high->24576。

  10. 其他参数

    以上只提供了一些常见的参数,如果使用的平台提供了其他未列出的有用的参数,可以自行添加键值。

常见的大模型平台

欧美的大模型平台

::: tabs

== OpenAI

API Key https://platform.openai.com/api-keys

== Gemini

API Key https://aistudio.google.com/app/apikey

== claude

API Key https://console.anthropic.com/

model https://docs.anthropic.com/en/docs/about-claude/models

== cohere

API Key https://dashboard.cohere.com/api-keys

== x.ai

API Key https://console.x.ai/

== groq

API Key https://console.groq.com/keys

== OpenRouter

API Key https://openrouter.ai/settings/keys

== Mistral AI

API Key https://console.mistral.ai/api-keys/

== Azure

API接口地址 https://{endpoint}.openai.azure.com/openai/deployments/{deployName}/chat/completions?api-version=2023-12-01-preview

其中,将{endpoint}{deployName}替换成你的endpoint和deployName

== deepinfra

API Key https://deepinfra.com/dash/api_keys

== cerebras

API Key https://cloud.cerebras.ai/ -> API Keys

== Chutes

API Key https://chutes.ai/app/api

:::

中国的大模型平台

::: tabs

== DeepSeek

API Key https://platform.deepseek.com/api_keys

== 阿里云百炼大模型

API Key https://bailian.console.aliyun.com/?apiKey=1#/api-key

model https://help.aliyun.com/zh/model-studio/getting-started/models

== 字节跳动火山引擎

API Key 创建API Key获取

model 创建推理接入点后,填入接入点而非模型

img

== 月之暗面

API Key https://platform.moonshot.cn/console/api-keys

== 智谱AI

API Key https://bigmodel.cn/usercenter/apikeys

== 零一万物

API Key https://platform.lingyiwanwu.com/apikeys

== 硅基流动

API Key https://cloud-hk.siliconflow.cn/account/ak

== 讯飞星火大模型

API Key 参考官方文档获取APIKeyAPISecret后,按照APIKey:APISecret的格式填入

model https://www.xfyun.cn/doc/spark/HTTP%E8%B0%83%E7%94%A8%E6%96%87%E6%A1%A3.html#_3-2-%E8%AF%B7%E6%B1%82%E5%8F%82%E6%95%B0

== 腾讯混元大模型

API Key 参考官方文档

model https://cloud.tencent.com/document/product/1729/97731

== 百度千帆大模型

API Key https://cloud.baidu.com/doc/WENXINWORKSHOP/s/Um2wxbaps

model https://cloud.baidu.com/doc/WENXINWORKSHOP/s/Fm2vrveyu

Warning

API Key请使用百度智能云IAM的Access Key、Secret Key来生成接口的BearerToken后作为API Key填入,或者按照Access Key:Secret Key的格式直接将两者一起填入API Key中。注意不是千帆ModelBuilder的旧版v1版本接口的API Key、Secret Key两者不能通用。

== MiniMax

API Key https://platform.minimaxi.com/document/Fast%20access?key=66701cf51d57f38758d581b2

:::

API聚合管理器

也可以使用new-api等API中继工具更方便地聚合管理多种大模型平台模型和多个密钥。

使用方法可以参考此文章

离线部署模型

也可以使用llama.cppollama之类的工具进行模型的部署,然后将地址和模型填入。

Sakura大模型

部署方法可参考 https://github.com/SakuraLLM/SakuraLLM/wiki ,也可以部署到Kaggle