LunaTranslator/docs/ko/guochandamoxing.md
HIllya51 cc60b50545 .
2025-10-06 21:51:31 +08:00

9.3 KiB
Raw Permalink Blame History

대형 모델 번역 인터페이스

대형 모델 일반 인터페이스

::: details 여러 대형 모델 인터페이스를 동시에 사용하기? 단순히 여러 개의 다른 키를 번갈아 사용하려면 |로 구분하면 됩니다.

하지만 때로는 여러 개의 다른 API 인터페이스 주소/prompt/model/매개변수 등을 동시에 사용하여 번역 결과를 비교하고 싶을 수 있습니다. 방법은 다음과 같습니다:

  1. 상단의 "+" 버튼을 클릭하고 대형 모델 범용 인터페이스를 선택하십시오 img
  2. 창이 팝업됩니다. 이름을 지정하십시오. 이렇게 하면 현재 대형 모델 범용 인터페이스의 설정과 API가 복제됩니다 img
  3. 복사된 인터페이스를 활성화하고 개별적으로 설정할 수 있습니다. 복사된 인터페이스는 원본 인터페이스와 함께 실행될 수 있어 서로 다른 여러 설정으로 실행할 수 있습니다. img :::

파라미터 설명

  1. API 인터페이스 주소

    대부분의 일반적인 대형 모델 플랫폼의 API 인터페이스 주소는 드롭다운 목록에서 선택할 수 있지만, 누락된 경우가 있을 수 있습니다. 목록에 없는 인터페이스의 경우 플랫폼 문서를 참고하여 직접 입력해 주세요.

  2. API Key

    API Key는 플랫폼에서 발급받을 수 있습니다. 여러 개의 Key를 추가하면 자동으로 순환하며, 오류 피드백에 따라 Key의 가중치를 조정합니다.

  3. model

    대부분의 플랫폼에서는 API 인터페이스 주소API Key를 입력한 후 model 옆의 새로고침 버튼을 클릭하면 사용 가능한 모델 목록을 가져올 수 있습니다.

    플랫폼이 모델 목록을 가져오는 인터페이스를 지원하지 않고, 기본 목록에 사용하려는 모델이 없는 경우, 인터페이스 공식 문서를 참고하여 모델을 수동으로 입력해 주세요.

  4. 스트리밍 출력

    활성화하면 모델의 출력 내용을 증분 방식으로 스트리밍하며, 비활성화 시 모델이 완전히 출력한 후 모든 내용을 한 번에 표시합니다.

  5. 사고 과정 숨기기

    활성화하면 <think> 태그로 감싼 내용을 표시하지 않습니다. 사고 과정 숨기기가 활성화된 경우 현재 사고 진행 상태를 표시합니다.

  6. 첨부할 컨텍스트 개수

    이전의 원문과 번역을 몇 개까지 대형 모델에 제공하여 번역을 최적화합니다. 0으로 설정하면 이 최적화 기능이 비활성화됩니다.

    • 캐시 적중률 최적화 — DeepSeek 등의 플랫폼에서는 캐시에 적중된 입력에 대해 더 낮은 가격으로 청구됩니다. 활성화하면 컨텍스트 첨부 방식을 최적화하여 캐시 적중률을 높입니다.
  7. 사용자 정의 system prompt / 사용자 정의 user message / prefill

    출력 내용을 제어하는 여러 가지 방법으로, 선호에 따라 설정하거나 기본값을 사용할 수 있습니다.

    사용자 정의 시스템 프롬프트와 사용자 메시지에서 필드를 사용하여 일부 정보를 참조할 수 있습니다:

    • {sentence}: 현재 번역할 텍스트
    • {srclang}{tgtlang}: 소스 언어 및 대상 언어. 프롬프트에서 영어만 사용된 경우, 언어 이름의 영어 번역으로 대체됩니다. 그렇지 않은 경우 현재 UI 언어의 언어 이름 번역으로 대체됩니다.
    • {contextOriginal[N]}{contextTranslation[N]}{contextTranslation[N]}: N개의 이전 원문, 번역문, 둘 다. N은 "동반 컨텍스트 수"와 관련이 없으며 입력 시 정수로 대체해야 합니다.
    • {DictWithPrompt[XXXXX]}: 이 필드는 "고유 명사 번역" 목록의 항목을 참조할 수 있습니다. 일치하는 항목이 없을 경우, 번역 내용을 손상시키지 않도록 이 필드는 지워집니다. 여기서 XXXXX는 LLM이 주어진 항목을 사용하여 번역을 최적화하도록 안내하는 프롬프트로, 사용자 정의할 수 있거나 사용자 지정 메시지를 비활성화하여 기본 프롬프트를 사용할 수 있습니다.
  8. Temperature / max tokens / top p / frequency penalty

    일부 플랫폼의 일부 모델에서는 top pfrequency penalty와 같은 매개변수가 인터페이스에서 허용되지 않을 수 있으며, 또는 max tokens 매개변수가 더 이상 사용되지 않고 max completion tokens로 변경되었을 수 있습니다. 이 문제는 스위치를 활성화하거나 비활성화하여 해결할 수 있습니다.

  9. reasoning effort

    Gemini 플랫폼에서는 이 옵션을 Gemini의 thinkingBudget에 자동으로 매핑합니다. 매핑 규칙은 다음과 같습니다:

    minimal→0(사고 비활성화, 단 Gemini-2.5-Pro 모델에는 적용되지 않음), low→512, medium→-1(동적 사고 활성화), high→24576.

  10. 기타 파라미터

    위에서는 일반적인 파라미터만 제공했습니다. 사용 중인 플랫폼에서 다른 유용한 파라미터를 제공하는 경우 직접 키-값을 추가할 수 있습니다.

일반적인 대형 모델 플랫폼

유럽과 미국의 대규모 모델 플랫폼

::: tabs

== OpenAI

API Key https://platform.openai.com/api-keys

== Gemini

API Key https://aistudio.google.com/app/apikey

== claude

API Key https://console.anthropic.com/

model https://docs.anthropic.com/en/docs/about-claude/models

== cohere

API Key https://dashboard.cohere.com/api-keys

== x.ai

API Key https://console.x.ai/

== groq

API Key https://console.groq.com/keys

== OpenRouter

API Key https://openrouter.ai/settings/keys

== Mistral AI

API Key https://console.mistral.ai/api-keys/

== Azure

API 인터페이스 주소 https://{endpoint}.openai.azure.com/openai/deployments/{deployName}/chat/completionsapi-version=2023-12-01-preview

여기서 {endpoint}{deployName}을 당신의 endpoint와 deployName으로 교체해 주세요.

== deepinfra

API Key https://deepinfra.com/dash/api_keys

== cerebras

API Key https://cloud.cerebras.ai/ -> API Keys

== Chutes

API Key https://chutes.ai/app/api

:::

중국의 대규모 모델 플랫폼

::: tabs

== DeepSeek

API Key https://platform.deepseek.com/api_keys

== 알리바이둔 백련 대형 모델

API Key https://bailian.console.aliyun.com/?apiKey=1#/api-key

model https://help.aliyun.com/zh/model-studio/getting-started/models

== 바이트댄스 화산 엔진

API 키 API 키 생성에서 획득

모델 추론 엔드포인트 생성 후, 모델이 아닌 엔드포인트를 입력

img

== 달의 어두운 면

API Key https://platform.moonshot.cn/console/api-keys

== 지푸AI

API Key https://bigmodel.cn/usercenter/apikeys

== 영일만물

API Key https://platform.lingyiwanwu.com/apikeys

== 실리콘 기반 흐름

API Key https://cloud-hk.siliconflow.cn/account/ak

== iFLYTEK 스파크 대형 모델

API 키 공식 문서 참조하여 APIKeyAPISecret 획득 후, APIKey:APISecret 형식으로 입력

model https://www.xfyun.cn/doc/spark/HTTP%E8%B0%83%E7%94%A8%E6%96%87%E6%A1%A3.html#_3-2-%E8%AF%B7%E6%B1%82%E5%8F%82%E6%95%B0

== 텐센트 혼위안 대형 모델

API 키 공식 문서 참조

model https://cloud.tencent.com/document/product/1729/97731

== 바이두 첸판 대형 모델

API Key https://cloud.baidu.com/doc/WENXINWORKSHOP/s/Um2wxbaps

model https://cloud.baidu.com/doc/WENXINWORKSHOP/s/Fm2vrveyu

Warning

API 키 바이두 스마트 클라우드 IAM의 Access Key, Secret Key를 사용하여 인터페이스의 BearerToken 생성 후 API 키로 입력하거나, Access Key:Secret Key 형식으로 직접 API 키에 함께 입력. 주의: 첸판 ModelBuilder의 구버전 v1 인터페이스 API Key, Secret Key와 혼용 불가.

== MiniMax

API Key https://platform.minimaxi.com/document/Fast%20access?key=66701cf51d57f38758d581b2

:::

API 애그리게이션 매니저

new-api와 같은 API 중계 도구를 사용하여 여러 대형 모델 플랫폼 모델과 여러 키를 보다 편리하게 집계 관리할 수도 있습니다.

사용 방법은 이 글을 참조하십시오.

오프라인 배포 모델

llama.cpp, ollama 등의 도구를 사용하여 모델 배포 후 주소와 모델을 입력할 수도 있습니다.