@lobehub/chat 1.117.1 → 1.118.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.env.example +8 -0
- package/AGENTS.md +133 -0
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/chat.json +6 -1
- package/locales/ar/error.json +8 -8
- package/locales/ar/models.json +21 -0
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/chat.json +6 -1
- package/locales/bg-BG/error.json +8 -8
- package/locales/bg-BG/models.json +21 -0
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/chat.json +6 -1
- package/locales/de-DE/error.json +7 -7
- package/locales/de-DE/models.json +21 -0
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/chat.json +6 -1
- package/locales/en-US/error.json +4 -4
- package/locales/en-US/models.json +21 -0
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/chat.json +6 -1
- package/locales/es-ES/error.json +9 -9
- package/locales/es-ES/models.json +21 -0
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/chat.json +6 -1
- package/locales/fa-IR/error.json +9 -9
- package/locales/fa-IR/models.json +21 -0
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/chat.json +6 -1
- package/locales/fr-FR/error.json +9 -9
- package/locales/fr-FR/models.json +21 -0
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/chat.json +6 -1
- package/locales/it-IT/error.json +7 -7
- package/locales/it-IT/models.json +21 -0
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/chat.json +6 -1
- package/locales/ja-JP/error.json +8 -8
- package/locales/ja-JP/models.json +21 -0
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/chat.json +6 -1
- package/locales/ko-KR/error.json +8 -8
- package/locales/ko-KR/models.json +21 -0
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/chat.json +6 -1
- package/locales/nl-NL/error.json +8 -8
- package/locales/nl-NL/models.json +21 -0
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/chat.json +6 -1
- package/locales/pl-PL/error.json +9 -9
- package/locales/pl-PL/models.json +21 -0
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/chat.json +6 -1
- package/locales/pt-BR/error.json +8 -8
- package/locales/pt-BR/models.json +21 -0
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/chat.json +6 -1
- package/locales/ru-RU/error.json +7 -7
- package/locales/ru-RU/models.json +21 -0
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/chat.json +6 -1
- package/locales/tr-TR/error.json +9 -9
- package/locales/tr-TR/models.json +21 -0
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/chat.json +6 -1
- package/locales/vi-VN/models.json +21 -0
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/chat.json +6 -1
- package/locales/zh-CN/models.json +21 -0
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/chat.json +6 -1
- package/locales/zh-TW/error.json +4 -4
- package/locales/zh-TW/models.json +21 -0
- package/locales/zh-TW/providers.json +3 -0
- package/next.config.ts +22 -6
- package/package.json +1 -1
- package/packages/model-runtime/src/akashchat/index.ts +43 -0
- package/packages/model-runtime/src/google/index.ts +17 -3
- package/packages/model-runtime/src/index.ts +1 -0
- package/packages/model-runtime/src/openai/__snapshots__/index.test.ts.snap +1 -1
- package/packages/model-runtime/src/runtimeMap.ts +2 -0
- package/packages/model-runtime/src/types/chat.ts +4 -0
- package/packages/model-runtime/src/types/type.ts +1 -0
- package/packages/model-runtime/src/utils/modelParse.ts +14 -1
- package/packages/types/src/agent/chatConfig.ts +1 -0
- package/packages/types/src/aiModel.ts +2 -1
- package/packages/types/src/user/settings/keyVaults.ts +1 -0
- package/src/app/[variants]/(main)/settings/llm/ProviderList/providers.tsx +2 -0
- package/src/config/aiModels/akashchat.ts +84 -0
- package/src/config/aiModels/google.ts +8 -6
- package/src/config/aiModels/index.ts +3 -0
- package/src/config/llm.ts +6 -0
- package/src/config/modelProviders/akashchat.ts +17 -0
- package/src/config/modelProviders/index.ts +3 -0
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +13 -1
- package/src/locales/default/chat.ts +4 -0
- package/src/services/chat.ts +4 -0
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix offre un accès à divers modèles d'IA via une interface API unifiée."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash est un marché de ressources cloud sans autorisation, offrant des tarifs compétitifs par rapport aux fournisseurs cloud traditionnels."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic est une entreprise axée sur la recherche et le développement en intelligence artificielle, offrant une gamme de modèles linguistiques avancés, tels que Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus et Claude 3 Haiku. Ces modèles atteignent un équilibre idéal entre intelligence, rapidité et coût, adaptés à divers scénarios d'application, allant des charges de travail d'entreprise aux réponses rapides. Claude 3.5 Sonnet, en tant que dernier modèle, a excellé dans plusieurs évaluations tout en maintenant un bon rapport qualité-prix."
|
16
19
|
},
|
package/locales/it-IT/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Interruttore di pensiero profondo"
|
54
54
|
},
|
55
|
-
"title": "Funzionalità di estensione del modello"
|
55
|
+
"title": "Funzionalità di estensione del modello",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "Se abilitato, analizzerà automaticamente i link delle pagine web per ottenere il contenuto contestuale reale della pagina",
|
58
|
+
"title": "Estrai contenuto dal link della pagina web"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "L'assistente ricorderà solo gli ultimi {{count}} messaggi"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Scrittura cache input",
|
126
130
|
"output": "Output",
|
127
131
|
"outputAudio": "Output audio",
|
132
|
+
"outputImage": "Output immagine",
|
128
133
|
"outputText": "Output testo",
|
129
134
|
"outputTitle": "Dettagli output",
|
130
135
|
"reasoning": "Ragionamento profondo",
|
package/locales/it-IT/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "Il contenuto della richiesta attuale supera la lunghezza che il modello può gestire. Si prega di ridurre la quantità di contenuto e riprovare.",
|
87
87
|
"FreePlanLimit": "Attualmente sei un utente gratuito e non puoi utilizzare questa funzione. Per favore, passa a un piano a pagamento per continuare.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "Il
|
89
|
+
"BLOCKLIST": "Il contenuto contiene parole proibite. Controlla e modifica l'input, quindi riprova.",
|
90
90
|
"IMAGE_SAFETY": "La generazione dell'immagine è stata bloccata per motivi di sicurezza. Prova a modificare la richiesta di generazione dell'immagine.",
|
91
|
-
"LANGUAGE": "La lingua
|
92
|
-
"OTHER": "Il contenuto è stato bloccato per
|
93
|
-
"PROHIBITED_CONTENT": "La tua richiesta potrebbe contenere contenuti
|
94
|
-
"RECITATION": "Il contenuto è stato bloccato perché potrebbe coinvolgere questioni di copyright. Prova a
|
95
|
-
"SAFETY": "Il contenuto è stato bloccato per motivi di sicurezza.
|
91
|
+
"LANGUAGE": "La lingua che stai utilizzando non è al momento supportata. Prova a riformulare la domanda in inglese o in un'altra lingua supportata.",
|
92
|
+
"OTHER": "Il contenuto è stato bloccato per ragioni sconosciute. Prova a riformulare la tua richiesta.",
|
93
|
+
"PROHIBITED_CONTENT": "La tua richiesta potrebbe contenere contenuti proibiti. Modificala per assicurarti che rispetti le linee guida d'uso.",
|
94
|
+
"RECITATION": "Il contenuto è stato bloccato perché potrebbe coinvolgere questioni di copyright. Prova a usare contenuti originali o a riformulare la richiesta.",
|
95
|
+
"SAFETY": "Il contenuto è stato bloccato per motivi di sicurezza. Prova ad adeguare la richiesta, evitando contenuti potenzialmente dannosi o inappropriati.",
|
96
96
|
"SPII": "Il tuo contenuto potrebbe contenere informazioni personali sensibili. Per proteggere la privacy, rimuovi tali informazioni e riprova.",
|
97
|
-
"default": "Contenuto bloccato: {{blockReason}}. Modifica la
|
97
|
+
"default": "Contenuto bloccato: {{blockReason}}. Modifica la richiesta e riprova."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Ci dispiace, la quota per questa chiave ha raggiunto il limite. Si prega di controllare il saldo dell'account o di aumentare la quota della chiave e riprovare.",
|
100
100
|
"InvalidAccessCode": "Password incorrect or empty, please enter the correct access password, or add a custom API Key",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 è un modello MoE sviluppato internamente dalla DeepSeek Company. I risultati di DeepSeek-V3 in molte valutazioni superano quelli di altri modelli open source come Qwen2.5-72B e Llama-3.1-405B, e si confronta alla pari con i modelli closed source di punta a livello mondiale come GPT-4o e Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: modello di inferenza di nuova generazione, migliora le capacità di ragionamento complesso e pensiero a catena, adatto a compiti che richiedono un'analisi approfondita."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Il fornitore del modello è la piattaforma sophnet. DeepSeek V3 Fast è la versione ad alta velocità TPS del modello DeepSeek V3 0324, completamente non quantificata, con capacità di codice e matematica potenziate e risposte più rapide!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Capacità avanzate di ragionamento visivo per applicazioni di agenti di comprensione visiva."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: modello Transformer versatile, adatto per compiti di dialogo e generazione."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Modello di testo ottimizzato per le istruzioni di Llama 3.1, progettato per casi d'uso di dialogo multilingue, che si distingue in molti modelli di chat open source e chiusi in benchmark di settore comuni."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 è il modello di linguaggio open source multilingue più avanzato della serie Llama, che offre prestazioni paragonabili a un modello da 405B a un costo estremamente ridotto. Basato su una struttura Transformer e migliorato tramite fine-tuning supervisionato (SFT) e apprendimento rinforzato con feedback umano (RLHF) per aumentarne l'utilità e la sicurezza. La sua versione ottimizzata per le istruzioni è progettata per dialoghi multilingue, superando molti modelli di chat open source e chiusi in vari benchmark di settore. La data di conoscenza è dicembre 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: modello su larga scala basato su Mixture-of-Experts, offre una strategia efficiente di attivazione degli esperti per eccellere nell'inferenza."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "Modello di inferenza completamente sviluppato internamente. Leader mondiale: 80K catene di pensiero x 1M input, prestazioni paragonabili ai migliori modelli internazionali."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B è un modello MoE (esperto misto) che introduce la “modalità di ragionamento ibrido”, consentendo agli utenti di passare senza soluzione di continuità tra la modalità “pensante” e quella “non pensante”. Supporta la comprensione e il ragionamento in 119 lingue e dialetti, dispone di potenti capacità di chiamata di strumenti e compete con i principali modelli di mercato come DeepSeek R1, OpenAI o1, o3-mini, Grok 3 e Google Gemini 2.5 Pro in vari benchmark relativi a capacità generali, codice e matematica, competenze multilingue, conoscenza e ragionamento."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: modello ottimizzato per ragionamento avanzato e istruzioni di dialogo, con architettura a esperti misti per mantenere l'efficienza nell'inferenza con parametri su larga scala."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B è un modello denso (Dense Model) che introduce la “modalità di ragionamento ibrido”, permettendo agli utenti di passare senza soluzione di continuità tra la modalità “pensante” e quella “non pensante”. Grazie a miglioramenti nell'architettura del modello, all'aumento dei dati di addestramento e a metodi di training più efficaci, le prestazioni complessive sono comparabili a quelle di Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash è il modello principale più avanzato di Google, progettato per compiti avanzati di ragionamento, codifica, matematica e scienze. Include capacità di “pensiero” integrate, che gli permettono di fornire risposte con maggiore accuratezza e una gestione più dettagliata del contesto.\n\nNota: questo modello ha due varianti: con pensiero e senza pensiero. Il prezzo di output varia significativamente a seconda che la capacità di pensiero sia attivata o meno. Se scegli la variante standard (senza il suffisso “:thinking”), il modello eviterà esplicitamente di generare token di pensiero.\n\nPer sfruttare la capacità di pensiero e ricevere token di pensiero, devi selezionare la variante “:thinking”, che comporta un prezzo di output più elevato per il pensiero.\n\nInoltre, Gemini 2.5 Flash può essere configurato tramite il parametro “max tokens for reasoning”, come descritto nella documentazione (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Modello sperimentale Gemini 2.5 Flash, supporta la generazione di immagini."
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Modello sperimentale Gemini 2.5 Flash, supporta la generazione di immagini."
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash è il modello principale più avanzato di Google, progettato per ragionamenti avanzati, codifica, matematica e compiti scientifici. Include capacità di 'pensiero' integrate, permettendo di fornire risposte con maggiore accuratezza e una gestione contestuale più dettagliata.\n\nNota: questo modello ha due varianti: pensiero e non pensiero. I prezzi di output variano significativamente a seconda che la capacità di pensiero sia attivata o meno. Se scegli la variante standard (senza il suffisso ':thinking'), il modello eviterà esplicitamente di generare token di pensiero.\n\nPer sfruttare la capacità di pensiero e ricevere token di pensiero, devi scegliere la variante ':thinking', che comporterà un prezzo di output di pensiero più elevato.\n\nInoltre, Gemini 2.5 Flash può essere configurato tramite il parametro 'numero massimo di token per il ragionamento', come descritto nella documentazione (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B è un modello linguistico open source rilasciato da OpenAI, che utilizza la tecnologia di quantizzazione MXFP4, adatto per l'esecuzione su GPU di fascia alta per consumatori o su Mac con Apple Silicon. Questo modello eccelle nella generazione di dialoghi, nella scrittura di codice e nei compiti di ragionamento, supportando chiamate di funzione e l'uso di strumenti."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4: struttura Transformer quantizzata, mantiene prestazioni elevate anche con risorse limitate."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B è un modello linguistico open source di grandi dimensioni rilasciato da OpenAI, che utilizza la tecnologia di quantizzazione MXFP4, rappresentando un modello di punta. Richiede un ambiente con più GPU o una workstation ad alte prestazioni per l'esecuzione, offrendo prestazioni eccellenti in ragionamenti complessi, generazione di codice e gestione multilingue, supportando chiamate di funzione avanzate e integrazione di strumenti."
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix offre l'accesso a diversi modelli di intelligenza artificiale tramite un'interfaccia API unificata."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash è un mercato di risorse cloud senza autorizzazioni, con prezzi competitivi rispetto ai fornitori di cloud tradizionali."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic è un'azienda focalizzata sulla ricerca e sviluppo dell'intelligenza artificiale, che offre una serie di modelli linguistici avanzati, come Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus e Claude 3 Haiku. Questi modelli raggiungono un equilibrio ideale tra intelligenza, velocità e costi, adatti a una varietà di scenari applicativi, dalle operazioni aziendali a risposte rapide. Claude 3.5 Sonnet, il loro modello più recente, ha mostrato prestazioni eccezionali in diverse valutazioni, mantenendo un alto rapporto qualità-prezzo."
|
16
19
|
},
|
package/locales/ja-JP/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "深い思考のスイッチ"
|
54
54
|
},
|
55
|
-
"title": "モデル拡張機能"
|
55
|
+
"title": "モデル拡張機能",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "有効にすると、実際のウェブページのコンテキスト内容を取得するためにウェブリンクを自動的に解析します",
|
58
|
+
"title": "ウェブリンク内容の抽出"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "アシスタントは最後の{{count}}件のメッセージのみを記憶します"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "入力キャッシュ書き込み",
|
126
130
|
"output": "出力",
|
127
131
|
"outputAudio": "音声出力",
|
132
|
+
"outputImage": "画像出力",
|
128
133
|
"outputText": "テキスト出力",
|
129
134
|
"outputTitle": "出力の詳細",
|
130
135
|
"reasoning": "深い思考",
|
package/locales/ja-JP/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "現在のリクエスト内容がモデルが処理できる長さを超えています。内容量を減らして再試行してください。",
|
87
87
|
"FreePlanLimit": "現在は無料ユーザーですので、この機能を使用することはできません。有料プランにアップグレードして継続してください。",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "
|
89
|
+
"BLOCKLIST": "入力内容に禁止されている語句が含まれています。入力を確認して修正のうえ、再度お試しください。",
|
90
90
|
"IMAGE_SAFETY": "生成された画像の内容は安全上の理由によりブロックされました。画像生成のリクエストを修正してお試しください。",
|
91
|
-
"LANGUAGE": "
|
92
|
-
"OTHER": "
|
93
|
-
"PROHIBITED_CONTENT": "
|
94
|
-
"RECITATION": "
|
95
|
-
"SAFETY": "
|
96
|
-
"SPII": "
|
97
|
-
"default": "コンテンツがブロックされました:{{blockReason}}
|
91
|
+
"LANGUAGE": "ご使用の言語は現在サポートされていません。英語またはサポートされている他の言語で再度ご質問いただくことをお試しください。",
|
92
|
+
"OTHER": "不明な理由でコンテンツがブロックされました。リクエストを言い換えてお試しください。",
|
93
|
+
"PROHIBITED_CONTENT": "リクエストは禁じられている内容を含んでいる可能性があります。リクエストを調整し、利用規約に沿った内容にしてください。",
|
94
|
+
"RECITATION": "著作権に関わる可能性があるためコンテンツがブロックされました。オリジナルの内容を使用するか、リクエストを言い換えてお試しください。",
|
95
|
+
"SAFETY": "セーフティポリシーによりコンテンツがブロックされました。潜在的に有害または不適切な内容を含まないようにリクエストを調整してください。",
|
96
|
+
"SPII": "コンテンツに個人の機密情報(SPII)が含まれている可能性があります。プライバシー保護のため、該当する機密情報を削除してから再度お試しください。",
|
97
|
+
"default": "コンテンツがブロックされました:{{blockReason}}。リクエスト内容を調整してから再度お試しください。"
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "申し訳ありませんが、そのキーのクォータが上限に達しました。アカウントの残高を確認するか、キーのクォータを増やしてから再試行してください。",
|
100
100
|
"InvalidAccessCode": "パスワードが正しくないか空です。正しいアクセスパスワードを入力するか、カスタムAPIキーを追加してください",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3は、深度求索社が独自に開発したMoEモデルです。DeepSeek-V3は、Qwen2.5-72BやLlama-3.1-405Bなどの他のオープンソースモデルを超える評価成績を収め、性能面では世界トップクラスのクローズドソースモデルであるGPT-4oやClaude-3.5-Sonnetと肩を並べています。"
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1:次世代の推論モデルで、複雑な推論と連鎖的思考能力を向上させ、深い分析が必要なタスクに適しています。"
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "モデル提供元:sophnetプラットフォーム。DeepSeek V3 FastはDeepSeek V3 0324バージョンの高TPS高速版で、フルパワーの非量子化モデルです。コードと数学能力が強化され、応答速度がさらに速くなっています!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "視覚理解エージェントアプリケーションに適した高度な画像推論能力を備えています。"
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B:汎用性の高いTransformerモデルで、対話や生成タスクに適しています。"
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Llama 3.1の指示調整されたテキストモデルで、多言語対話のユースケースに最適化されており、多くの利用可能なオープンソースおよびクローズドチャットモデルの中で、一般的な業界ベンチマークで優れた性能を発揮します。"
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3は、Llamaシリーズの最先端の多言語オープンソース大規模言語モデルで、非常に低コストで405Bモデルに匹敵する性能を体験できます。Transformer構造に基づき、監視付き微調整(SFT)と人間のフィードバックによる強化学習(RLHF)を通じて有用性と安全性を向上させています。その指示調整バージョンは多言語対話に最適化されており、さまざまな業界のベンチマークで多くのオープンソースおよびクローズドチャットモデルを上回る性能を発揮します。知識のカットオフ日は2023年12月です。"
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick:Mixture-of-Expertsに基づく大規模モデルで、効率的なエキスパート活性化戦略により推論性能を発揮します。"
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "新たに自社開発された推論モデル。世界最先端:80Kの思考チェーン×1Mの入力で、海外のトップモデルに匹敵する性能を実現。"
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22BはMoE(混合エキスパートモデル)で、「混合推論モード」を導入し、ユーザーが「思考モード」と「非思考モード」をシームレスに切り替え可能です。119言語と方言の理解・推論をサポートし、強力なツール呼び出し能力を備えています。総合能力、コード・数学、多言語能力、知識・推論などの複数のベンチマークで、DeepSeek R1、OpenAI o1、o3-mini、Grok 3、Google Gemini 2.5 Proなどの主要な大規模モデルと競合可能です。"
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507:高度な推論と対話指示に最適化されたモデルで、混合エキスパート構造により大規模パラメータでも推論効率を維持します。"
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32Bは密モデル(Dense Model)で、「混合推論モード」を導入し、ユーザーが「思考モード」と「非思考モード」をシームレスに切り替え可能です。モデルアーキテクチャの改良、トレーニングデータの増加、より効率的なトレーニング手法により、全体的な性能はQwen2.5-72Bと同等の水準に達しています。"
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash は、Google の最先端の主力モデルであり、高度な推論、コーディング、数学および科学タスク向けに設計されています。内蔵の「思考」機能を備えており、より高い精度と詳細なコンテキスト処理を伴う応答を提供できます。\n\n注意:このモデルには「思考」バリアントと非「思考」バリアントの2種類があります。出力の価格は思考機能の有効化により大きく異なります。標準バリアント(「:thinking」サフィックスなし)を選択した場合、モデルは明確に思考トークンの生成を回避します。\n\n思考機能を利用し思考トークンを受け取るには、「:thinking」バリアントを選択する必要があり、これにより思考出力の価格が高くなります。\n\nさらに、Gemini 2.5 Flash はドキュメントに記載されている「推論最大トークン数」パラメータ(https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)を通じて設定可能です。"
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Gemini 2.5 Flash 実験モデル、画像生成に対応"
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Gemini 2.5 Flash 実験モデル、画像生成に対応"
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flashは、Googleの最先端の主力モデルであり、高度な推論、コーディング、数学、科学タスクのために設計されています。内蔵の「思考」能力を備えており、より高い精度と詳細なコンテキスト処理で応答を提供します。\n\n注意:このモデルには、思考と非思考の2つのバリアントがあります。出力の価格は、思考能力が有効かどうかによって大きく異なります。標準バリアント(「:thinking」サフィックスなし)を選択すると、モデルは明示的に思考トークンの生成を避けます。\n\n思考能力を利用して思考トークンを受け取るには、「:thinking」バリアントを選択する必要があり、これにより思考出力の価格が高くなります。\n\nさらに、Gemini 2.5 Flashは、「推論最大トークン数」パラメータを介して構成可能であり、文書に記載されています (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。"
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B は OpenAI が公開したオープンソースの大規模言語モデルで、MXFP4 量子化技術を採用しており、高性能なコンシューマー向けGPUやApple Silicon搭載Macでの動作に適しています。このモデルは対話生成、コード作成、推論タスクに優れており、関数呼び出しやツールの使用をサポートしています。"
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4量子化Transformer構造で、リソース制限下でも高い性能を維持します。"
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B は OpenAI が公開した大型のオープンソース言語モデルで、MXFP4 量子化技術を採用したフラッグシップモデルです。複数GPUや高性能ワークステーション環境での動作が必要で、複雑な推論、コード生成、多言語処理において卓越した性能を発揮し、高度な関数呼び出しやツール統合をサポートしています。"
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix は統一された API インターフェースを通じて、さまざまな AI モデルへのアクセスを提供します。"
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash は許可不要のクラウドリソース市場であり、従来のクラウドプロバイダーと比べて競争力のある価格設定を提供します。"
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropicは、人工知能の研究と開発に特化した企業であり、Claude 3.5 Sonnet、Claude 3 Sonnet、Claude 3 Opus、Claude 3 Haikuなどの先進的な言語モデルを提供しています。これらのモデルは、知性、速度、コストの理想的なバランスを実現しており、企業向けのワークロードから迅速な応答が求められるさまざまなアプリケーションシーンに適しています。Claude 3.5 Sonnetは最新のモデルであり、複数の評価で優れたパフォーマンスを示し、高いコストパフォーマンスを維持しています。"
|
16
19
|
},
|
package/locales/ko-KR/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "심층 사고 스위치"
|
54
54
|
},
|
55
|
-
"title": "모델 확장 기능"
|
55
|
+
"title": "모델 확장 기능",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "활성화하면 실제 웹페이지 컨텍스트 내용을 얻기 위해 웹 링크를 자동으로 분석합니다",
|
58
|
+
"title": "웹 링크 내용 추출"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "도우미는 마지막 {{count}}개의 메시지만 기억합니다."
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "입력 캐시 쓰기",
|
126
130
|
"output": "출력",
|
127
131
|
"outputAudio": "오디오 출력",
|
132
|
+
"outputImage": "이미지 출력",
|
128
133
|
"outputText": "텍스트 출력",
|
129
134
|
"outputTitle": "출력 세부사항",
|
130
135
|
"reasoning": "심층 사고",
|
package/locales/ko-KR/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "현재 요청 내용이 모델이 처리할 수 있는 길이를 초과했습니다. 내용량을 줄인 후 다시 시도해 주십시오.",
|
87
87
|
"FreePlanLimit": "현재 무료 사용자이므로이 기능을 사용할 수 없습니다. 유료 요금제로 업그레이드 한 후 계속 사용하십시오.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "귀하의
|
90
|
-
"IMAGE_SAFETY": "생성된 이미지 내용이
|
91
|
-
"LANGUAGE": "사용하신 언어는 현재 지원되지 않습니다. 영어 또는 지원되는 다른 언어로 다시
|
89
|
+
"BLOCKLIST": "귀하의 내용에 금지된 단어가 포함되어 있습니다. 입력 내용을 확인하고 수정한 다음 다시 시도하세요.",
|
90
|
+
"IMAGE_SAFETY": "생성된 이미지 내용이 보안상의 이유로 차단되었습니다. 이미지 생성 요청을 수정해 보세요.",
|
91
|
+
"LANGUAGE": "사용하신 언어는 현재 지원되지 않습니다. 영어 또는 지원되는 다른 언어로 다시 문의해 주세요.",
|
92
92
|
"OTHER": "내용이 알 수 없는 이유로 차단되었습니다. 요청을 다시 표현해 보세요.",
|
93
|
-
"PROHIBITED_CONTENT": "요청에 금지된 내용이
|
94
|
-
"RECITATION": "
|
95
|
-
"SAFETY": "
|
96
|
-
"SPII": "
|
97
|
-
"default": "내용이 차단되었습니다: {{blockReason}}. 요청 내용을 조정한
|
93
|
+
"PROHIBITED_CONTENT": "요청에 금지된 내용이 포함되었을 수 있습니다. 요청을 조정하여 사용 규정을 준수해 주세요.",
|
94
|
+
"RECITATION": "콘텐츠가 저작권 문제와 관련되어 차단되었을 수 있습니다. 원본 콘텐츠를 사용하거나 요청을 다시 표현해 보세요.",
|
95
|
+
"SAFETY": "콘텐츠가 안전 정책에 의해 차단되었습니다. 유해하거나 부적절할 수 있는 내용을 포함하지 않도록 요청을 조정해 보세요.",
|
96
|
+
"SPII": "콘텐츠에 민감한 개인 신원 정보가 포함되어 있을 수 있습니다. 개인정보 보호를 위해 해당 민감 정보를 제거한 뒤 다시 시도하세요.",
|
97
|
+
"default": "내용이 차단되었습니다: {{blockReason}}. 요청 내용을 조정한 후 다시 시도하세요."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "죄송합니다. 해당 키의 할당량이 초과되었습니다. 계좌 잔액이 충분한지 확인하거나 키 할당량을 늘린 후 다시 시도해 주십시오.",
|
100
100
|
"InvalidAccessCode": "액세스 코드가 잘못되었거나 비어 있습니다. 올바른 액세스 코드를 입력하거나 사용자 지정 API 키를 추가하십시오.",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3는 심층 탐색 회사에서 자체 개발한 MoE 모델입니다. DeepSeek-V3는 여러 평가에서 Qwen2.5-72B 및 Llama-3.1-405B와 같은 다른 오픈 소스 모델을 초월하며, 성능 면에서 세계 최고의 폐쇄형 모델인 GPT-4o 및 Claude-3.5-Sonnet과 동등합니다."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: 차세대 추론 모델로, 복잡한 추론과 연쇄적 사고 능력을 향상시켜 심층 분석이 필요한 작업에 적합합니다."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "모델 공급자는 sophnet 플랫폼입니다. DeepSeek V3 Fast는 DeepSeek V3 0324 버전의 고TPS 초고속 버전으로, 완전 비양자화되어 코드와 수학 능력이 더욱 강력하며 반응 속도가 훨씬 빠릅니다!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "시각적 이해 에이전트 응용 프로그램에 적합한 고급 이미지 추론 능력입니다."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: 대화 및 생성 작업에 적합한 범용 Transformer 모델입니다."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Llama 3.1 지시 조정 텍스트 모델로, 다국어 대화 사용 사례에 최적화되어 있으며, 많은 오픈 소스 및 폐쇄형 채팅 모델 중에서 일반 산업 기준에서 우수한 성능을 보입니다."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3은 Llama 시리즈에서 가장 진보된 다국어 오픈 소스 대형 언어 모델로, 매우 낮은 비용으로 405B 모델의 성능을 경험할 수 있습니다. Transformer 구조를 기반으로 하며, 감독 미세 조정(SFT)과 인간 피드백 강화 학습(RLHF)을 통해 유용성과 안전성을 향상시켰습니다. 그 지시 조정 버전은 다국어 대화를 위해 최적화되어 있으며, 여러 산업 기준에서 많은 오픈 소스 및 폐쇄형 채팅 모델보다 우수한 성능을 보입니다. 지식 마감일은 2023년 12월입니다."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: Mixture-of-Experts 기반의 대규모 모델로, 효율적인 전문가 활성화 전략을 제공하여 추론 성능을 극대화합니다."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "완전히 새로 개발된 추론 모델입니다. 세계 최고 수준: 80K 사고 체인 x 1M 입력, 해외 최상위 모델과 견줄 만한 성능을 자랑합니다."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B는 MoE(혼합 전문가 모델)로, '혼합 추론 모드'를 도입하여 사용자가 '사고 모드'와 '비사고 모드' 사이를 원활하게 전환할 수 있습니다. 119개 언어 및 방언의 이해와 추론을 지원하며 강력한 도구 호출 능력을 갖추고 있습니다. 종합 능력, 코드 및 수학, 다국어 능력, 지식 및 추론 등 여러 벤치마크 테스트에서 DeepSeek R1, OpenAI o1, o3-mini, Grok 3, 구글 Gemini 2.5 Pro 등 현재 시장의 주요 대형 모델들과 경쟁할 수 있습니다."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: 고급 추론 및 대화 지시 최적화를 위한 모델로, 대규모 파라미터 환경에서도 추론 효율을 유지하는 혼합 전문가 아키텍처를 갖추고 있습니다."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B는 밀집 모델(Dense Model)로, '혼합 추론 모드'를 도입하여 사용자가 '사고 모드'와 '비사고 모드' 사이를 원활하게 전환할 수 있습니다. 모델 아키텍처 개선, 학습 데이터 증가 및 더 효율적인 학습 방법 덕분에 전체 성능이 Qwen2.5-72B와 유사한 수준입니다."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash는 Google의 최첨단 주력 모델로, 고급 추론, 코딩, 수학 및 과학 작업을 위해 설계되었습니다. 내장된 '사고' 능력을 포함하여 더 높은 정확도와 세밀한 문맥 처리가 가능한 응답을 제공합니다.\n\n참고: 이 모델에는 사고형과 비사고형 두 가지 변형이 있습니다. 출력 가격은 사고 능력 활성화 여부에 따라 크게 다릅니다. 표준 변형(‘:thinking’ 접미사 없음)을 선택하면 모델이 명확히 사고 토큰 생성을 피합니다.\n\n사고 능력을 활용하고 사고 토큰을 받으려면 ‘:thinking’ 변형을 선택해야 하며, 이 경우 더 높은 사고 출력 가격이 적용됩니다.\n\n또한, Gemini 2.5 Flash는 문서(https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)에 설명된 대로 '최대 추론 토큰 수' 매개변수를 통해 구성할 수 있습니다."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Gemini 2.5 Flash 실험 모델로, 이미지 생성을 지원합니다."
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Gemini 2.5 Flash 실험 모델로, 이미지 생성을 지원합니다."
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash는 Google의 최첨단 주력 모델로, 고급 추론, 코딩, 수학 및 과학 작업을 위해 설계되었습니다. 내장된 '사고' 능력을 포함하고 있어 더 높은 정확성과 세밀한 맥락 처리를 통해 응답을 제공합니다.\n\n주의: 이 모델에는 두 가지 변형이 있습니다: 사고 및 비사고. 출력 가격은 사고 능력이 활성화되었는지 여부에 따라 크게 다릅니다. 표준 변형(‘:thinking’ 접미사가 없는)을 선택하면 모델이 사고 토큰 생성을 명확히 피합니다.\n\n사고 능력을 활용하고 사고 토큰을 수신하려면 ‘:thinking’ 변형을 선택해야 하며, 이는 더 높은 사고 출력 가격을 발생시킵니다.\n\n또한, Gemini 2.5 Flash는 문서에 설명된 대로 '추론 최대 토큰 수' 매개변수를 통해 구성할 수 있습니다 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1533,6 +1551,9 @@
|
|
1533
1551
|
"gpt-oss": {
|
1534
1552
|
"description": "GPT-OSS 20B는 OpenAI에서 발표한 오픈 소스 대형 언어 모델로, MXFP4 양자화 기술을 사용하여 고급 소비자용 GPU 또는 Apple Silicon Mac에서 실행하기에 적합합니다. 이 모델은 대화 생성, 코드 작성 및 추론 작업에서 뛰어난 성능을 보이며, 함수 호출과 도구 사용을 지원합니다."
|
1535
1553
|
},
|
1554
|
+
"gpt-oss-120b": {
|
1555
|
+
"description": "GPT-OSS-120B MXFP4 양자화된 Transformer 구조로, 자원이 제한된 환경에서도 강력한 성능을 유지합니다."
|
1556
|
+
},
|
1536
1557
|
"gpt-oss:120b": {
|
1537
1558
|
"description": "GPT-OSS 120B는 OpenAI에서 발표한 대형 오픈 소스 언어 모델로, MXFP4 양자화 기술을 적용한 플래그십 모델입니다. 다중 GPU 또는 고성능 워크스테이션 환경에서 실행해야 하며, 복잡한 추론, 코드 생성 및 다국어 처리에서 탁월한 성능을 발휘하고 고급 함수 호출과 도구 통합을 지원합니다."
|
1538
1559
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix는 통합 API 인터페이스를 통해 다양한 AI 모델에 대한 접근을 제공합니다."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash는 허가가 필요 없는 클라우드 자원 시장으로, 전통적인 클라우드 제공업체에 비해 경쟁력 있는 가격을 제공합니다."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic은 인공지능 연구 및 개발에 집중하는 회사로, Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus 및 Claude 3 Haiku와 같은 고급 언어 모델을 제공합니다. 이러한 모델은 지능, 속도 및 비용 간의 이상적인 균형을 이루며, 기업급 작업 부하에서부터 빠른 응답이 필요한 다양한 응용 프로그램에 적합합니다. Claude 3.5 Sonnet은 최신 모델로, 여러 평가에서 우수한 성능을 보이며 높은 비용 효율성을 유지하고 있습니다."
|
16
19
|
},
|
package/locales/nl-NL/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Diepdenkschakelaar"
|
54
54
|
},
|
55
|
-
"title": "Modeluitbreidingsfunctie"
|
55
|
+
"title": "Modeluitbreidingsfunctie",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "Na inschakeling worden webkoppelingen automatisch geanalyseerd om de daadwerkelijke inhoud van de webpagina te verkrijgen",
|
58
|
+
"title": "Inhoud van webkoppeling extraheren"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "De assistent onthoudt alleen de laatste {{count}} berichten"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Invoer cache schrijven",
|
126
130
|
"output": "Uitvoer",
|
127
131
|
"outputAudio": "Audio-uitvoer",
|
132
|
+
"outputImage": "Afbeelding uitvoer",
|
128
133
|
"outputText": "Tekstuitvoer",
|
129
134
|
"outputTitle": "Uitvoerdetails",
|
130
135
|
"reasoning": "Diep nadenken",
|
package/locales/nl-NL/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "De inhoud van de huidige aanvraag overschrijdt de lengte die het model kan verwerken. Verminder de hoeveelheid inhoud en probeer het opnieuw.",
|
87
87
|
"FreePlanLimit": "U bent momenteel een gratis gebruiker en kunt deze functie niet gebruiken. Upgrade naar een betaald plan om door te gaan met gebruiken.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "Uw inhoud bevat verboden woorden. Controleer en
|
90
|
-
"IMAGE_SAFETY": "
|
89
|
+
"BLOCKLIST": "Uw inhoud bevat verboden woorden. Controleer en wijzig uw invoer en probeer het opnieuw.",
|
90
|
+
"IMAGE_SAFETY": "Het gegenereerde afbeeldingsmateriaal is om veiligheidsredenen geblokkeerd. Probeer uw afbeeldingsaanvraag te wijzigen.",
|
91
91
|
"LANGUAGE": "De door u gebruikte taal wordt momenteel niet ondersteund. Probeer het opnieuw in het Engels of een andere ondersteunde taal.",
|
92
|
-
"OTHER": "De inhoud is om onbekende
|
93
|
-
"PROHIBITED_CONTENT": "Uw verzoek kan verboden inhoud bevatten. Pas uw verzoek aan zodat het voldoet aan de
|
94
|
-
"RECITATION": "Uw inhoud is mogelijk geblokkeerd vanwege auteursrechtelijke kwesties.
|
95
|
-
"SAFETY": "Uw inhoud is geblokkeerd
|
96
|
-
"SPII": "Uw inhoud kan gevoelige
|
97
|
-
"default": "Inhoud geblokkeerd: {{blockReason}}
|
92
|
+
"OTHER": "De inhoud is om een onbekende reden geblokkeerd. Probeer uw verzoek anders te formuleren.",
|
93
|
+
"PROHIBITED_CONTENT": "Uw verzoek kan verboden inhoud bevatten. Pas uw verzoek aan zodat het voldoet aan de gebruiksrichtlijnen.",
|
94
|
+
"RECITATION": "Uw inhoud is mogelijk geblokkeerd vanwege mogelijke auteursrechtelijke kwesties. Probeer originele inhoud te gebruiken of formuleer uw verzoek anders.",
|
95
|
+
"SAFETY": "Uw inhoud is geblokkeerd vanwege veiligheidsbeleid. Probeer uw verzoek aan te passen en vermijd mogelijk schadelijke of ongepaste inhoud.",
|
96
|
+
"SPII": "Uw inhoud kan gevoelige persoonlijke identificatiegegevens bevatten. Verwijder dergelijke gevoelige gegevens om de privacy te beschermen en probeer het opnieuw.",
|
97
|
+
"default": "Inhoud geblokkeerd: {{blockReason}}. Pas uw verzoek aan en probeer het opnieuw."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Het spijt ons, de quotum van deze sleutel is bereikt. Controleer of uw account voldoende saldo heeft of vergroot het sleutelquotum en probeer het opnieuw.",
|
100
100
|
"InvalidAccessCode": "Ongeldige toegangscode: het wachtwoord is onjuist of leeg. Voer de juiste toegangscode in of voeg een aangepaste API-sleutel toe.",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 is een MoE-model dat zelf is ontwikkeld door DeepSeek Company. De prestaties van DeepSeek-V3 overtreffen die van andere open-source modellen zoals Qwen2.5-72B en Llama-3.1-405B, en presteert op het gebied van prestaties gelijkwaardig aan de wereldtop gesloten modellen zoals GPT-4o en Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: de volgende generatie redeneermodel, verbeterd in complexe redenering en ketendenken, geschikt voor taken die diepgaande analyse vereisen."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Modelleverancier: sophnet-platform. DeepSeek V3 Fast is de high-TPS snelle versie van DeepSeek V3 0324, volledig niet-gequantiseerd, met sterkere codeer- en wiskundige capaciteiten en snellere respons!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Geavanceerde beeldredeneringscapaciteiten voor visuele begripstoepassingen."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: een veelzijdig Transformer-model, geschikt voor dialoog- en generatietaken."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Llama 3.1 instructie-geoptimaliseerd tekstmodel, geoptimaliseerd voor meertalige gesprekstoepassingen, presteert uitstekend op veel beschikbare open-source en gesloten chatmodellen op veelvoorkomende industriële benchmarks."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 is het meest geavanceerde meertalige open-source grote taalmiddel in de Llama-serie, dat prestaties biedt die vergelijkbaar zijn met die van een 405B-model tegen zeer lage kosten. Gebaseerd op de Transformer-structuur en verbeterd door middel van supervisie-fijnstelling (SFT) en versterkend leren met menselijke feedback (RLHF) voor nuttigheid en veiligheid. De instructie-geoptimaliseerde versie is speciaal geoptimaliseerd voor meertalige gesprekken en presteert beter dan veel open-source en gesloten chatmodellen op verschillende industriële benchmarks. Kennisafkapdatum is december 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: een grootschalig model gebaseerd op Mixture-of-Experts, biedt een efficiënte expertactivatiestrategie voor uitstekende prestaties tijdens het redeneren."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "Een gloednieuw zelfontwikkeld redeneermodel. Wereldwijd toonaangevend: 80K denkpatronen x 1M invoer, prestaties vergelijkbaar met topmodellen uit het buitenland."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B is een MoE (hybride expertmodel) dat de \"hybride redeneermodus\" introduceert, waarmee gebruikers naadloos kunnen schakelen tussen \"denkmodus\" en \"niet-denkmodus\". Het ondersteunt begrip en redenering in 119 talen en dialecten en beschikt over krachtige tool-aanroepmogelijkheden. Op het gebied van algemene vaardigheden, codering en wiskunde, meertalige capaciteiten, kennis en redenering kan het concurreren met toonaangevende grote modellen op de markt zoals DeepSeek R1, OpenAI o1, o3-mini, Grok 3 en Google Gemini 2.5 Pro."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: een model geoptimaliseerd voor geavanceerde redenering en dialooginstructies, met een hybride expertarchitectuur die redeneringsefficiëntie behoudt bij grootschalige parameters."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B is een dense model dat de \"hybride redeneermodus\" introduceert, waarmee gebruikers naadloos kunnen schakelen tussen \"denkmodus\" en \"niet-denkmodus\". Dankzij verbeteringen in de modelarchitectuur, toegenomen trainingsdata en effectievere trainingsmethoden presteert het model in het algemeen vergelijkbaar met Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash is het meest geavanceerde hoofdmodel van Google, speciaal ontworpen voor geavanceerde redenering, codering, wiskunde en wetenschappelijke taken. Het bevat ingebouwde 'denk'-mogelijkheden, waardoor het reacties kan leveren met hogere nauwkeurigheid en gedetailleerdere contextverwerking.\n\nLet op: dit model heeft twee varianten: denkend en niet-denkend. De prijsstelling van de output verschilt aanzienlijk afhankelijk van of de denkcapaciteit is geactiveerd. Als u de standaardvariant kiest (zonder de ':thinking' achtervoegsel), zal het model expliciet vermijden denk-tokens te genereren.\n\nOm gebruik te maken van de denkcapaciteit en denk-tokens te ontvangen, moet u de ':thinking' variant selecteren, wat resulteert in een hogere prijs voor denk-output.\n\nDaarnaast kan Gemini 2.5 Flash worden geconfigureerd via de parameter 'maximale tokens voor redenering', zoals beschreven in de documentatie (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Gemini 2.5 Flash experimenteel model, ondersteunt beeldgeneratie"
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Gemini 2.5 Flash experimenteel model, ondersteunt beeldgeneratie"
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash is Google's meest geavanceerde hoofmodel, ontworpen voor geavanceerde redenering, codering, wiskunde en wetenschappelijke taken. Het bevat ingebouwde 'denkkracht', waardoor het in staat is om antwoorden te geven met een hogere nauwkeurigheid en gedetailleerde contextverwerking.\n\nLet op: dit model heeft twee varianten: denken en niet-denken. De outputprijs verschilt aanzienlijk afhankelijk van of de denkkracht is geactiveerd. Als u de standaardvariant kiest (zonder de ':thinking' suffix), zal het model expliciet vermijden om denk-tokens te genereren.\n\nOm gebruik te maken van de denkkracht en denk-tokens te ontvangen, moet u de ':thinking' variant kiezen, wat resulteert in hogere prijzen voor denk-output.\n\nBovendien kan Gemini 2.5 Flash worden geconfigureerd via de parameter 'max tokens for reasoning', zoals beschreven in de documentatie (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B is een open-source groot taalmodel uitgebracht door OpenAI, dat gebruikmaakt van MXFP4-kwantisatietechnologie en geschikt is voor gebruik op high-end consumentengpu's of Apple Silicon Macs. Dit model presteert uitstekend bij dialooggeneratie, code schrijven en redeneertaken, en ondersteunt functieverzoeken en het gebruik van tools."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4-gekwantificeerd Transformer-structuur, behoudt sterke prestaties zelfs bij beperkte middelen."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B is een groot open-source taalmodel uitgebracht door OpenAI, dat gebruikmaakt van MXFP4-kwantisatietechnologie en als vlaggenschipmodel fungeert. Het vereist een multi-gpu- of high-performance workstation-omgeving en levert uitstekende prestaties bij complexe redenering, codegeneratie en meertalige verwerking, met ondersteuning voor geavanceerde functieverzoeken en toolintegratie."
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix biedt via een uniforme API-toegang tot diverse AI-modellen."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash is een vergunningvrije cloudbronnenmarkt met concurrerende prijzen in vergelijking met traditionele cloudproviders."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic is een bedrijf dat zich richt op onderzoek en ontwikkeling van kunstmatige intelligentie, en biedt een reeks geavanceerde taalmodellen aan, zoals Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus en Claude 3 Haiku. Deze modellen bereiken een ideale balans tussen intelligentie, snelheid en kosten, en zijn geschikt voor een breed scala aan toepassingen, van bedrijfswerkbelasting tot snelle respons. Claude 3.5 Sonnet, als hun nieuwste model, presteert uitstekend in verschillende evaluaties, terwijl het een hoge kosteneffectiviteit behoudt."
|
16
19
|
},
|
package/locales/pl-PL/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Przełącznik głębokiego myślenia"
|
54
54
|
},
|
55
|
-
"title": "Funkcje rozszerzenia modelu"
|
55
|
+
"title": "Funkcje rozszerzenia modelu",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "Po włączeniu automatycznie analizuje linki do stron internetowych, aby uzyskać rzeczywistą zawartość kontekstu strony",
|
58
|
+
"title": "Wyodrębnij zawartość linku do strony"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "Asystent zapamięta tylko ostatnie {{count}} wiadomości"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Zapisz wejście w pamięci podręcznej",
|
126
130
|
"output": "Wyjście",
|
127
131
|
"outputAudio": "Wyjście audio",
|
132
|
+
"outputImage": "Wyjściowy obraz",
|
128
133
|
"outputText": "Wyjście tekstowe",
|
129
134
|
"outputTitle": "Szczegóły wyjścia",
|
130
135
|
"reasoning": "Głębokie myślenie",
|
package/locales/pl-PL/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "Aktualna zawartość żądania przekracza długość, którą model może przetworzyć. Proszę zmniejszyć ilość treści i spróbować ponownie.",
|
87
87
|
"FreePlanLimit": "Jesteś obecnie użytkownikiem darmowej wersji, nie możesz korzystać z tej funkcji. Proszę uaktualnić do planu płatnego, aby kontynuować korzystanie.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "Twoja
|
90
|
-
"IMAGE_SAFETY": "
|
91
|
-
"LANGUAGE": "Używany język nie jest obecnie obsługiwany. Spróbuj
|
92
|
-
"OTHER": "Treść została zablokowana z nieznanych powodów. Spróbuj sformułować zapytanie inaczej.",
|
93
|
-
"PROHIBITED_CONTENT": "Twoje żądanie może zawierać
|
94
|
-
"RECITATION": "Twoja treść została zablokowana
|
95
|
-
"SAFETY": "Twoja treść została zablokowana
|
96
|
-
"SPII": "Twoja treść może zawierać wrażliwe dane osobowe. Aby chronić prywatność, usuń
|
97
|
-
"default": "Treść została zablokowana: {{blockReason}}.
|
89
|
+
"BLOCKLIST": "Twoja zawartość zawiera zabronione słowa. Sprawdź i popraw swój tekst, a następnie spróbuj ponownie.",
|
90
|
+
"IMAGE_SAFETY": "Wygenerowany obraz został zablokowany ze względów bezpieczeństwa. Spróbuj zmodyfikować żądanie generowania obrazu.",
|
91
|
+
"LANGUAGE": "Używany język nie jest obecnie obsługiwany. Spróbuj zadać pytanie po angielsku lub w innym obsługiwanym języku.",
|
92
|
+
"OTHER": "Treść została zablokowana z nieznanych powodów. Spróbuj sformułować swoje zapytanie inaczej.",
|
93
|
+
"PROHIBITED_CONTENT": "Twoje żądanie może zawierać zabronione treści. Dostosuj proszę zapytanie, aby było zgodne z zasadami korzystania.",
|
94
|
+
"RECITATION": "Twoja treść została zablokowana ze względu na możliwe naruszenie praw autorskich. Spróbuj użyć oryginalnej treści lub sformułować zapytanie inaczej.",
|
95
|
+
"SAFETY": "Twoja treść została zablokowana zgodnie z zasadami bezpieczeństwa. Spróbuj zmienić zapytanie, unikając potencjalnie szkodliwych lub nieodpowiednich treści.",
|
96
|
+
"SPII": "Twoja treść może zawierać wrażliwe dane osobowe. Aby chronić prywatność, usuń te informacje i spróbuj ponownie.",
|
97
|
+
"default": "Treść została zablokowana: {{blockReason}}. Dostosuj proszę zapytanie i spróbuj ponownie."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Przykro nam, limit dla tego klucza został osiągnięty. Proszę sprawdzić saldo konta lub zwiększyć limit klucza i spróbować ponownie.",
|
100
100
|
"InvalidAccessCode": "Nieprawidłowy kod dostępu: Hasło jest nieprawidłowe lub puste. Proszę wprowadzić poprawne hasło dostępu lub dodać niestandardowy klucz API.",
|