@lobehub/chat 1.138.1 → 1.138.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/docker-compose/local/docker-compose.yml +1 -1
- package/docker-compose/local/grafana/docker-compose.yml +1 -1
- package/docker-compose/production/grafana/docker-compose.yml +1 -1
- package/locales/ar/chat.json +1 -1
- package/locales/ar/common.json +1 -1
- package/locales/ar/models.json +35 -8
- package/locales/ar/plugin.json +1 -1
- package/locales/ar/welcome.json +1 -1
- package/locales/bg-BG/chat.json +1 -1
- package/locales/bg-BG/common.json +1 -1
- package/locales/bg-BG/models.json +35 -8
- package/locales/bg-BG/plugin.json +1 -1
- package/locales/bg-BG/welcome.json +1 -1
- package/locales/de-DE/chat.json +1 -1
- package/locales/de-DE/common.json +1 -1
- package/locales/de-DE/models.json +35 -8
- package/locales/de-DE/plugin.json +1 -1
- package/locales/de-DE/welcome.json +1 -1
- package/locales/en-US/chat.json +1 -1
- package/locales/en-US/common.json +1 -1
- package/locales/en-US/models.json +35 -8
- package/locales/en-US/plugin.json +1 -1
- package/locales/en-US/welcome.json +1 -1
- package/locales/es-ES/chat.json +1 -1
- package/locales/es-ES/common.json +1 -1
- package/locales/es-ES/models.json +35 -8
- package/locales/es-ES/plugin.json +1 -1
- package/locales/es-ES/welcome.json +1 -1
- package/locales/fa-IR/chat.json +1 -1
- package/locales/fa-IR/common.json +1 -1
- package/locales/fa-IR/models.json +35 -8
- package/locales/fa-IR/plugin.json +1 -1
- package/locales/fa-IR/welcome.json +1 -1
- package/locales/fr-FR/chat.json +1 -1
- package/locales/fr-FR/common.json +1 -1
- package/locales/fr-FR/models.json +35 -8
- package/locales/fr-FR/plugin.json +1 -1
- package/locales/fr-FR/welcome.json +1 -1
- package/locales/it-IT/chat.json +1 -1
- package/locales/it-IT/common.json +1 -1
- package/locales/it-IT/models.json +35 -8
- package/locales/it-IT/plugin.json +1 -1
- package/locales/it-IT/welcome.json +1 -1
- package/locales/ja-JP/chat.json +1 -1
- package/locales/ja-JP/common.json +1 -1
- package/locales/ja-JP/models.json +35 -8
- package/locales/ja-JP/plugin.json +1 -1
- package/locales/ja-JP/welcome.json +1 -1
- package/locales/ko-KR/chat.json +1 -1
- package/locales/ko-KR/common.json +1 -1
- package/locales/ko-KR/models.json +35 -8
- package/locales/ko-KR/plugin.json +1 -1
- package/locales/ko-KR/welcome.json +1 -1
- package/locales/nl-NL/chat.json +1 -1
- package/locales/nl-NL/common.json +1 -1
- package/locales/nl-NL/models.json +35 -8
- package/locales/nl-NL/plugin.json +1 -1
- package/locales/nl-NL/welcome.json +1 -1
- package/locales/pl-PL/chat.json +1 -1
- package/locales/pl-PL/common.json +1 -1
- package/locales/pl-PL/models.json +35 -8
- package/locales/pl-PL/plugin.json +1 -1
- package/locales/pl-PL/welcome.json +1 -1
- package/locales/pt-BR/chat.json +1 -1
- package/locales/pt-BR/common.json +1 -1
- package/locales/pt-BR/models.json +35 -8
- package/locales/pt-BR/plugin.json +1 -1
- package/locales/pt-BR/welcome.json +1 -1
- package/locales/ru-RU/chat.json +1 -1
- package/locales/ru-RU/common.json +1 -1
- package/locales/ru-RU/models.json +35 -8
- package/locales/ru-RU/plugin.json +1 -1
- package/locales/ru-RU/welcome.json +1 -1
- package/locales/tr-TR/chat.json +1 -1
- package/locales/tr-TR/common.json +1 -1
- package/locales/tr-TR/models.json +35 -8
- package/locales/tr-TR/plugin.json +1 -1
- package/locales/tr-TR/welcome.json +1 -1
- package/locales/vi-VN/chat.json +1 -1
- package/locales/vi-VN/common.json +1 -1
- package/locales/vi-VN/models.json +35 -8
- package/locales/vi-VN/plugin.json +1 -1
- package/locales/vi-VN/welcome.json +1 -1
- package/locales/zh-CN/common.json +1 -1
- package/locales/zh-CN/models.json +35 -8
- package/locales/zh-CN/plugin.json +1 -1
- package/locales/zh-CN/welcome.json +1 -1
- package/locales/zh-TW/chat.json +1 -1
- package/locales/zh-TW/common.json +1 -1
- package/locales/zh-TW/models.json +35 -8
- package/locales/zh-TW/plugin.json +1 -1
- package/locales/zh-TW/welcome.json +1 -1
- package/package.json +1 -1
- package/packages/const/src/branding.ts +2 -2
- package/packages/const/src/index.ts +1 -0
- package/packages/const/src/version.ts +1 -1
- package/packages/database/src/models/topic.ts +0 -1
- package/packages/database/src/repositories/aiInfra/index.ts +19 -13
- package/packages/obervability-otel/package.json +4 -4
- package/packages/prompts/CLAUDE.md +289 -43
- package/packages/prompts/package.json +2 -1
- package/packages/prompts/promptfoo/supervisor/productive/eval.yaml +51 -0
- package/packages/prompts/promptfoo/supervisor/productive/prompt.ts +18 -0
- package/packages/prompts/promptfoo/supervisor/productive/tests/basic-case.ts +54 -0
- package/packages/prompts/promptfoo/supervisor/productive/tests/role.ts +58 -0
- package/packages/prompts/promptfoo/supervisor/productive/tools.json +80 -0
- package/packages/prompts/src/contexts/index.ts +1 -0
- package/packages/prompts/src/contexts/supervisor/index.ts +2 -0
- package/packages/prompts/src/contexts/supervisor/makeDecision.ts +68 -0
- package/packages/prompts/src/contexts/supervisor/tools.ts +102 -0
- package/packages/prompts/src/index.ts +1 -0
- package/packages/types/src/aiChat.ts +9 -3
- package/src/app/[variants]/(auth)/next-auth/signin/AuthSignInBox.tsx +4 -4
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{OpeningQuestions.tsx → AgentWelcome/OpeningQuestions.tsx} +2 -2
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/index.tsx +38 -17
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/index.tsx +2 -2
- package/src/app/[variants]/(main)/discover/(detail)/assistant/[...slugs]/page.tsx +1 -1
- package/src/app/[variants]/(main)/discover/(detail)/mcp/[slug]/page.tsx +1 -1
- package/src/config/modelProviders/lobehub.ts +1 -1
- package/src/locales/default/common.ts +1 -1
- package/src/locales/default/plugin.ts +1 -1
- package/src/locales/default/welcome.ts +1 -1
- package/src/server/ld.ts +1 -1
- package/src/server/routers/lambda/aiChat.ts +1 -1
- package/src/server/services/aiChat/index.test.ts +1 -1
- package/src/server/services/aiChat/index.ts +1 -1
- package/src/services/topic/client.ts +1 -1
- package/src/store/chat/slices/message/supervisor.test.ts +12 -5
- package/src/store/chat/slices/message/supervisor.ts +16 -129
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/AgentsSuggest.tsx +0 -114
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/QuestionSuggest.tsx +0 -104
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/WelcomeMessage.tsx +0 -65
- /package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/AddButton.tsx +0 -0
|
@@ -767,6 +767,9 @@
|
|
|
767
767
|
"claude-3-sonnet-20240229": {
|
|
768
768
|
"description": "Claude 3 Sonnet offre un equilibrio ideale tra intelligenza e velocità per i carichi di lavoro aziendali. Fornisce la massima utilità a un prezzo inferiore, affidabile e adatto per distribuzioni su larga scala."
|
|
769
769
|
},
|
|
770
|
+
"claude-haiku-4-5-20251001": {
|
|
771
|
+
"description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e una notevole capacità di ragionamento esteso."
|
|
772
|
+
},
|
|
770
773
|
"claude-opus-4-1-20250805": {
|
|
771
774
|
"description": "Claude Opus 4.1 è l'ultimo e più potente modello di Anthropic per la gestione di compiti altamente complessi. Si distingue per prestazioni, intelligenza, fluidità e capacità di comprensione eccezionali."
|
|
772
775
|
},
|
|
@@ -1148,6 +1151,9 @@
|
|
|
1148
1151
|
"doubao-seed-1.6-flash": {
|
|
1149
1152
|
"description": "Doubao-Seed-1.6-flash è un modello multimodale di pensiero profondo con velocità di inferenza estrema, con TPOT di soli 10 ms; supporta sia la comprensione testuale che visiva, con capacità di comprensione testuale superiore alla generazione lite precedente e comprensione visiva paragonabile ai modelli pro della concorrenza. Supporta una finestra contestuale di 256k e una lunghezza massima di output di 16k token."
|
|
1150
1153
|
},
|
|
1154
|
+
"doubao-seed-1.6-lite": {
|
|
1155
|
+
"description": "Doubao-Seed-1.6-lite è un nuovo modello multimodale di pensiero profondo, con supporto per livelli regolabili di sforzo di ragionamento (Minimal, Low, Medium, High). Offre un eccellente rapporto qualità-prezzo ed è la scelta ideale per compiti comuni, con una finestra contestuale fino a 256k."
|
|
1156
|
+
},
|
|
1151
1157
|
"doubao-seed-1.6-thinking": {
|
|
1152
1158
|
"description": "Il modello Doubao-Seed-1.6-thinking ha capacità di pensiero notevolmente potenziate; rispetto a Doubao-1.5-thinking-pro, migliora ulteriormente le capacità di base come coding, matematica e ragionamento logico, supportando anche la comprensione visiva. Supporta una finestra contestuale di 256k e una lunghezza massima di output di 16k token."
|
|
1153
1159
|
},
|
|
@@ -1541,9 +1547,6 @@
|
|
|
1541
1547
|
"glm-zero-preview": {
|
|
1542
1548
|
"description": "GLM-Zero-Preview possiede potenti capacità di ragionamento complesso, eccellendo nei campi del ragionamento logico, della matematica e della programmazione."
|
|
1543
1549
|
},
|
|
1544
|
-
"glm4.6:355b": {
|
|
1545
|
-
"description": "Il nuovo modello di punta di Zhipu, GLM-4.6 (355B), supera ampiamente la generazione precedente in codifica avanzata, elaborazione di testi lunghi, capacità di ragionamento e agenti intelligenti. In particolare, le sue prestazioni nella programmazione sono allineate a Claude Sonnet 4, rendendolo uno dei migliori modelli di coding in Cina."
|
|
1546
|
-
},
|
|
1547
1550
|
"google/gemini-2.0-flash": {
|
|
1548
1551
|
"description": "Gemini 2.0 Flash offre funzionalità di nuova generazione e miglioramenti, inclusa velocità eccezionale, uso integrato di strumenti, generazione multimodale e una finestra di contesto di 1 milione di token."
|
|
1549
1552
|
},
|
|
@@ -1934,12 +1937,18 @@
|
|
|
1934
1937
|
"inception/mercury-coder-small": {
|
|
1935
1938
|
"description": "Mercury Coder Small è la scelta ideale per compiti di generazione, debug e refactoring di codice, con latenza minima."
|
|
1936
1939
|
},
|
|
1940
|
+
"inclusionAI/Ling-1T": {
|
|
1941
|
+
"description": "Ling-1T è il primo modello di punta della serie \"Ling 2.0\" non orientato al pensiero, con un totale di 1 trilione di parametri e circa 50 miliardi di parametri attivi per token. Costruito sull'architettura Ling 2.0, Ling-1T mira a superare i limiti del ragionamento efficiente e della cognizione scalabile. Ling-1T-base è stato addestrato su oltre 20 trilioni di token di alta qualità e ad alta intensità di ragionamento."
|
|
1942
|
+
},
|
|
1937
1943
|
"inclusionAI/Ling-flash-2.0": {
|
|
1938
1944
|
"description": "Ling-flash-2.0 è il terzo modello della serie basata sull'architettura Ling 2.0 rilasciato dal team Bailing di Ant Group. È un modello di esperti misti (MoE) con un totale di 100 miliardi di parametri, ma attiva solo 6,1 miliardi di parametri per token (4,8 miliardi non embedding). Come modello leggero, Ling-flash-2.0 dimostra prestazioni paragonabili o superiori a modelli densi da 40 miliardi e a modelli MoE di scala maggiore in molte valutazioni autorevoli. Il modello esplora un percorso efficiente attraverso un design architetturale e strategie di addestramento estreme, sfidando il consenso che “modello grande equivale a molti parametri”."
|
|
1939
1945
|
},
|
|
1940
1946
|
"inclusionAI/Ling-mini-2.0": {
|
|
1941
1947
|
"description": "Ling-mini-2.0 è un modello di linguaggio di grandi dimensioni ad alte prestazioni e dimensioni ridotte basato sull'architettura MoE. Ha 16 miliardi di parametri totali, ma attiva solo 1,4 miliardi per token (789 milioni non embedding), raggiungendo così velocità di generazione molto elevate. Grazie al design efficiente MoE e a dati di addestramento di grande scala e alta qualità, Ling-mini-2.0 mostra prestazioni di punta in compiti downstream, comparabili a modelli densi sotto i 10 miliardi e a modelli MoE di scala maggiore."
|
|
1942
1948
|
},
|
|
1949
|
+
"inclusionAI/Ring-1T": {
|
|
1950
|
+
"description": "Ring-1T è un modello open source su scala trilionaria sviluppato dal team Bailing. Basato sull'architettura Ling 2.0 e sul modello di base Ling-1T, possiede 1 trilione di parametri totali e 50 miliardi di parametri attivi, con supporto per finestre contestuali fino a 128K. Il modello è ottimizzato tramite apprendimento per rinforzo con ricompense verificabili su larga scala."
|
|
1951
|
+
},
|
|
1943
1952
|
"inclusionAI/Ring-flash-2.0": {
|
|
1944
1953
|
"description": "Ring-flash-2.0 è un modello di pensiero ad alte prestazioni profondamente ottimizzato basato su Ling-flash-2.0-base. Utilizza un'architettura di esperti misti (MoE) con 100 miliardi di parametri totali, ma attiva solo 6,1 miliardi di parametri per inferenza. Il modello risolve l'instabilità dell'addestramento RL nei grandi modelli MoE grazie all'algoritmo innovativo icepop, migliorando continuamente le capacità di ragionamento complesso durante l'addestramento a lungo termine. Ring-flash-2.0 ha raggiunto risultati significativi in competizioni matematiche, generazione di codice e ragionamento logico, superando modelli densi di punta sotto i 40 miliardi di parametri e competendo con modelli MoE open source di scala maggiore e modelli di pensiero ad alte prestazioni closed source. Pur focalizzato sul ragionamento complesso, eccelle anche in compiti di scrittura creativa. Inoltre, grazie al design architetturale efficiente, Ring-flash-2.0 offre prestazioni elevate con inferenza veloce, riducendo significativamente i costi di deployment in scenari ad alta concorrenza."
|
|
1945
1954
|
},
|
|
@@ -2036,9 +2045,6 @@
|
|
|
2036
2045
|
"llama-3.3-instruct": {
|
|
2037
2046
|
"description": "Il modello Llama 3.3 per l'addestramento di istruzioni è stato ottimizzato per scenari di conversazione, superando molti modelli di chat open source esistenti nelle comuni benchmark settoriali."
|
|
2038
2047
|
},
|
|
2039
|
-
"llama-4-maverick-17b-128e-instruct": {
|
|
2040
|
-
"description": "Llama 4 Maverick: un modello ad alte prestazioni della serie Llama, ideale per ragionamento avanzato, risoluzione di problemi complessi e compiti di esecuzione di istruzioni."
|
|
2041
|
-
},
|
|
2042
2048
|
"llama-4-scout-17b-16e-instruct": {
|
|
2043
2049
|
"description": "Llama 4 Scout: un modello ad alte prestazioni della serie Llama, adatto a scenari che richiedono elevato throughput e bassa latenza."
|
|
2044
2050
|
},
|
|
@@ -2906,6 +2912,9 @@
|
|
|
2906
2912
|
"qwen3-8b": {
|
|
2907
2913
|
"description": "Qwen3 è un modello di nuova generazione con capacità notevolmente migliorate, raggiungendo livelli leader del settore in inferenza, generazione generale, agenti e multilinguismo, e supporta il passaggio tra modalità di pensiero."
|
|
2908
2914
|
},
|
|
2915
|
+
"qwen3-coder-30b-a3b-instruct": {
|
|
2916
|
+
"description": "Versione open source del modello di codifica Tongyi Qianwen. Il nuovo qwen3-coder-30b-a3b-instruct, basato su Qwen3, è un modello di generazione di codice con potenti capacità da Coding Agent, eccellente nell'uso di strumenti e interazione con ambienti, in grado di programmare autonomamente con elevate competenze generali."
|
|
2917
|
+
},
|
|
2909
2918
|
"qwen3-coder-480b-a35b-instruct": {
|
|
2910
2919
|
"description": "Versione open source del modello di codice Tongyi Qianwen. L'ultimo qwen3-coder-480b-a35b-instruct è un modello di generazione codice basato su Qwen3, con potenti capacità di Coding Agent, esperto nell'uso di strumenti e interazione ambientale, capace di programmazione autonoma con eccellenti capacità di codice e capacità generali."
|
|
2911
2920
|
},
|
|
@@ -2927,11 +2936,29 @@
|
|
|
2927
2936
|
"qwen3-next-80b-a3b-thinking": {
|
|
2928
2937
|
"description": "Modello open source di nuova generazione basato su Qwen3 in modalità riflessiva, con migliorata capacità di seguire le istruzioni rispetto alla versione precedente (Tongyi Qianwen 3-235B-A22B-Thinking-2507) e risposte di sintesi più concise."
|
|
2929
2938
|
},
|
|
2939
|
+
"qwen3-omni-flash": {
|
|
2940
|
+
"description": "Il modello Qwen-Omni accetta input multimodali combinati come testo, immagini, audio e video, generando risposte in forma testuale o vocale. Offre voci sintetiche realistiche, supporta più lingue e dialetti, ed è adatto a scenari come creazione di contenuti, riconoscimento visivo e assistenti vocali."
|
|
2941
|
+
},
|
|
2930
2942
|
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
-
"description": "Qwen3 VL 235B A22B
|
|
2943
|
+
"description": "Qwen3 VL 235B A22B in modalità non pensante (Instruct), ideale per scenari di istruzioni semplici, mantenendo una forte capacità di comprensione visiva."
|
|
2932
2944
|
},
|
|
2933
2945
|
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
-
"description": "Qwen3 VL 235B A22B
|
|
2946
|
+
"description": "Qwen3 VL 235B A22B in modalità pensante (versione open source), progettato per scenari complessi che richiedono ragionamento avanzato e comprensione di video lunghi, con capacità di ragionamento visivo e testuale di livello superiore."
|
|
2947
|
+
},
|
|
2948
|
+
"qwen3-vl-30b-a3b-instruct": {
|
|
2949
|
+
"description": "Qwen3 VL 30B in modalità non pensante (Instruct), adatto a scenari di istruzioni generali, con buone capacità di comprensione e generazione multimodale."
|
|
2950
|
+
},
|
|
2951
|
+
"qwen3-vl-30b-a3b-thinking": {
|
|
2952
|
+
"description": "Qwen-VL (versione open source) offre capacità di comprensione visiva e generazione testuale, supporta interazione con agenti intelligenti, codifica visiva, percezione spaziale, comprensione di video lunghi e pensiero profondo, con eccellenti prestazioni in riconoscimento testuale e supporto multilingue in scenari complessi."
|
|
2953
|
+
},
|
|
2954
|
+
"qwen3-vl-8b-instruct": {
|
|
2955
|
+
"description": "Qwen3 VL 8B in modalità non pensante (Instruct), adatto a compiti multimodali comuni di generazione e riconoscimento."
|
|
2956
|
+
},
|
|
2957
|
+
"qwen3-vl-8b-thinking": {
|
|
2958
|
+
"description": "Qwen3 VL 8B in modalità pensante, progettato per scenari leggeri di ragionamento e interazione multimodale, mantenendo la capacità di comprensione di contesti estesi."
|
|
2959
|
+
},
|
|
2960
|
+
"qwen3-vl-flash": {
|
|
2961
|
+
"description": "Qwen3 VL Flash: versione leggera e ad alta velocità di ragionamento, ideale per scenari sensibili alla latenza o con richieste su larga scala."
|
|
2935
2962
|
},
|
|
2936
2963
|
"qwen3-vl-plus": {
|
|
2937
2964
|
"description": "Tongyi Qianwen VL è un modello di generazione testuale con capacità di comprensione visiva (immagini). Non solo può eseguire OCR (riconoscimento del testo nelle immagini), ma anche riassumere e ragionare ulteriormente, ad esempio estraendo attributi da foto di prodotti o risolvendo problemi basati su immagini di esercizi."
|
package/locales/ja-JP/chat.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "バッチ削除",
|
|
32
32
|
"blog": "製品ブログ",
|
|
33
33
|
"branching": "サブトピックを作成",
|
|
34
|
-
"branchingDisable": "
|
|
34
|
+
"branchingDisable": "現在のモードでは「サブトピック」機能は利用できません。この機能を使用するには、Postgres/Pglite DB モードに切り替えるか、LobeHub Cloud をご利用ください。",
|
|
35
35
|
"branchingRequiresSavedTopic": "現在のトピックが保存されていません。保存後にサブトピック機能を使用できます。",
|
|
36
36
|
"cancel": "キャンセル",
|
|
37
37
|
"changelog": "変更履歴",
|
|
@@ -767,6 +767,9 @@
|
|
|
767
767
|
"claude-3-sonnet-20240229": {
|
|
768
768
|
"description": "Claude 3 Sonnetは、企業のワークロードに理想的なバランスを提供し、より低価格で最大の効用を提供し、信頼性が高く、大規模な展開に適しています。"
|
|
769
769
|
},
|
|
770
|
+
"claude-haiku-4-5-20251001": {
|
|
771
|
+
"description": "Claude Haiku 4.5 は、Anthropic による最速かつ最もインテリジェントな Haiku モデルであり、驚異的なスピードと拡張的な思考能力を備えています。"
|
|
772
|
+
},
|
|
770
773
|
"claude-opus-4-1-20250805": {
|
|
771
774
|
"description": "Claude Opus 4.1はAnthropicの最新かつ最強のモデルで、高度に複雑なタスクの処理に適しています。性能、知能、流暢さ、理解力の面で卓越したパフォーマンスを発揮します。"
|
|
772
775
|
},
|
|
@@ -1148,6 +1151,9 @@
|
|
|
1148
1151
|
"doubao-seed-1.6-flash": {
|
|
1149
1152
|
"description": "Doubao-Seed-1.6-flash は推論速度に優れたマルチモーダル深層思考モデルで、TPOT はわずか 10ms です。テキストと視覚の理解を同時にサポートし、テキスト理解能力は前世代の lite を超え、視覚理解は競合他社の pro シリーズモデルに匹敵します。256k のコンテキストウィンドウをサポートし、最大 16k トークンの出力長に対応しています。"
|
|
1150
1153
|
},
|
|
1154
|
+
"doubao-seed-1.6-lite": {
|
|
1155
|
+
"description": "Doubao-Seed-1.6-lite は新しいマルチモーダル深層思考モデルで、思考の深さ(reasoning effort)を Minimal、Low、Medium、High の4段階で調整可能。高いコストパフォーマンスを実現し、一般的なタスクに最適な選択肢。コンテキストウィンドウは最大256kに対応。"
|
|
1156
|
+
},
|
|
1151
1157
|
"doubao-seed-1.6-thinking": {
|
|
1152
1158
|
"description": "Doubao-Seed-1.6-thinking モデルは思考能力が大幅に強化されており、Doubao-1.5-thinking-pro と比較して、コーディング、数学、論理推論などの基礎能力がさらに向上しています。視覚理解もサポートしています。256k のコンテキストウィンドウをサポートし、最大 16k トークンの出力長に対応しています。"
|
|
1153
1159
|
},
|
|
@@ -1541,9 +1547,6 @@
|
|
|
1541
1547
|
"glm-zero-preview": {
|
|
1542
1548
|
"description": "GLM-Zero-Previewは、強力な複雑な推論能力を備え、論理推論、数学、プログラミングなどの分野で優れたパフォーマンスを発揮します。"
|
|
1543
1549
|
},
|
|
1544
|
-
"glm4.6:355b": {
|
|
1545
|
-
"description": "智譜の最新フラッグシップモデル GLM-4.6 (355B) は、高度なコーディング、長文処理、推論およびエージェント能力において前世代を大きく上回り、特にプログラミング能力では Claude Sonnet 4 に匹敵し、中国国内トップクラスのコーディングモデルとなっています。"
|
|
1546
|
-
},
|
|
1547
1550
|
"google/gemini-2.0-flash": {
|
|
1548
1551
|
"description": "Gemini 2.0 Flash は次世代の機能と改良を提供し、卓越した速度、組み込みツールの使用、マルチモーダル生成、100万トークンのコンテキストウィンドウを備えています。"
|
|
1549
1552
|
},
|
|
@@ -1934,12 +1937,18 @@
|
|
|
1934
1937
|
"inception/mercury-coder-small": {
|
|
1935
1938
|
"description": "Mercury Coder Small はコード生成、デバッグ、リファクタリングタスクに最適で、最小遅延を実現します。"
|
|
1936
1939
|
},
|
|
1940
|
+
"inclusionAI/Ling-1T": {
|
|
1941
|
+
"description": "Ling-1T は「Ling 2.0」シリーズ初のフラッグシップ non-thinking モデルで、総パラメータ数は1兆、トークンごとのアクティブパラメータは約500億。Ling 2.0 アーキテクチャに基づき、高効率な推論とスケーラブルな認知の限界に挑戦。Ling-1T-base は20兆以上の高品質かつ推論集約型トークンでトレーニングされています。"
|
|
1942
|
+
},
|
|
1937
1943
|
"inclusionAI/Ling-flash-2.0": {
|
|
1938
1944
|
"description": "Ling-flash-2.0は、Ant GroupのBailingチームがリリースしたLing 2.0アーキテクチャシリーズの第3弾モデルです。混合エキスパート(MoE)モデルで、総パラメータ数は1000億に達しますが、1トークンあたりの活性化パラメータは61億(非埋め込みは48億)に抑えられています。軽量構成のモデルとして、複数の権威ある評価で400億規模の密モデルやより大規模なMoEモデルに匹敵またはそれを超える性能を示しています。本モデルは「大きなモデル=大きなパラメータ」という共通認識のもと、効率的な性能向上の道を探求するために極限のアーキテクチャ設計とトレーニング戦略を採用しています。"
|
|
1939
1945
|
},
|
|
1940
1946
|
"inclusionAI/Ling-mini-2.0": {
|
|
1941
1947
|
"description": "Ling-mini-2.0はMoEアーキテクチャに基づく小型高性能大規模言語モデルです。総パラメータ数は16Bですが、1トークンあたりの活性化パラメータは1.4B(非埋め込みは789M)に抑えられており、非常に高速な生成を実現しています。効率的なMoE設計と大規模高品質トレーニングデータのおかげで、活性化パラメータが1.4Bに過ぎないにもかかわらず、下流タスクにおいて10B未満の密モデルやより大規模なMoEモデルに匹敵するトップクラスの性能を発揮します。"
|
|
1942
1948
|
},
|
|
1949
|
+
"inclusionAI/Ring-1T": {
|
|
1950
|
+
"description": "Ring-1T は百灵(Bailing)チームが開発した、1兆パラメータ規模のオープンソース思考モデルです。Ling 2.0 アーキテクチャと Ling-1T-base を基盤に構築され、総パラメータ数は1兆、アクティブパラメータは500億。最大128Kのコンテキストウィンドウに対応し、大規模な検証可能報酬強化学習によって最適化されています。"
|
|
1951
|
+
},
|
|
1943
1952
|
"inclusionAI/Ring-flash-2.0": {
|
|
1944
1953
|
"description": "Ring-flash-2.0はLing-flash-2.0-baseを深く最適化した高性能思考モデルです。混合エキスパート(MoE)アーキテクチャを採用し、総パラメータ数は100Bですが、推論時には6.1Bパラメータのみを活性化します。独自のicepopアルゴリズムにより、MoE大規模モデルの強化学習(RL)トレーニングにおける不安定性問題を解決し、長期トレーニングでの複雑推論能力の持続的向上を実現しました。Ring-flash-2.0は数学コンテスト、コード生成、論理推論などの高難度ベンチマークで顕著な成果を挙げており、40Bパラメータ未満のトップ密モデルを凌駕し、より大規模なオープンソースMoEモデルやクローズドソースの高性能思考モデルに匹敵します。複雑推論に特化しつつも、創造的な文章作成タスクでも優れた性能を示します。さらに、高効率なアーキテクチャ設計により、強力な性能を提供しつつ高速推論を実現し、高負荷環境での思考モデルの展開コストを大幅に削減しています。"
|
|
1945
1954
|
},
|
|
@@ -2036,9 +2045,6 @@
|
|
|
2036
2045
|
"llama-3.3-instruct": {
|
|
2037
2046
|
"description": "Llama 3.3 命令チューニングモデルは対話シナリオ向けに最適化されており、一般的な業界ベンチマークテストにおいて、多くの既存のオープンソースチャットモデルを凌駕しています。"
|
|
2038
2047
|
},
|
|
2039
|
-
"llama-4-maverick-17b-128e-instruct": {
|
|
2040
|
-
"description": "Llama 4 Maverick:高性能な Llama シリーズモデルで、高度な推論、複雑な問題解決、指示追従タスクに適しています。"
|
|
2041
|
-
},
|
|
2042
2048
|
"llama-4-scout-17b-16e-instruct": {
|
|
2043
2049
|
"description": "Llama 4 Scout:高性能な Llama シリーズモデルで、高スループットかつ低レイテンシーが求められるシナリオに最適です。"
|
|
2044
2050
|
},
|
|
@@ -2906,6 +2912,9 @@
|
|
|
2906
2912
|
"qwen3-8b": {
|
|
2907
2913
|
"description": "Qwen3は能力が大幅に向上した新世代の通義千問大モデルで、推論、一般、エージェント、多言語などの複数のコア能力において業界のリーダーレベルに達し、思考モードの切り替えをサポートしています。"
|
|
2908
2914
|
},
|
|
2915
|
+
"qwen3-coder-30b-a3b-instruct": {
|
|
2916
|
+
"description": "通義千問のコード生成モデルのオープンソース版。最新の qwen3-coder-30b-a3b-instruct は Qwen3 に基づくコード生成モデルで、強力な Coding Agent 機能を備え、ツールの呼び出しや環境との対話に長けており、自律的なプログラミングと卓越したコード生成能力、さらに汎用的な能力も兼ね備えています。"
|
|
2917
|
+
},
|
|
2909
2918
|
"qwen3-coder-480b-a35b-instruct": {
|
|
2910
2919
|
"description": "通義千問のコードモデルオープンソース版。最新のqwen3-coder-480b-a35b-instructはQwen3ベースのコード生成モデルで、強力なコーディングエージェント能力を持ち、ツール呼び出しや環境とのインタラクションに優れ、自律的なプログラミングが可能で、コード能力と汎用能力を兼ね備えています。"
|
|
2911
2920
|
},
|
|
@@ -2927,11 +2936,29 @@
|
|
|
2927
2936
|
"qwen3-next-80b-a3b-thinking": {
|
|
2928
2937
|
"description": "Qwen3に基づく次世代の思考モードのオープンソースモデルで、前バージョン(通義千問3-235B-A22B-Thinking-2507)と比べて指示遵守能力が向上し、モデルの要約応答がより簡潔になっています。"
|
|
2929
2938
|
},
|
|
2939
|
+
"qwen3-omni-flash": {
|
|
2940
|
+
"description": "Qwen-Omni モデルは、テキスト、画像、音声、動画など複数のモダリティを組み合わせた入力に対応し、テキストまたは音声での応答を生成可能。多様な人間らしい音声スタイルを提供し、多言語・方言での音声出力をサポート。文章生成、視覚認識、音声アシスタントなどのシーンに応用可能です。"
|
|
2941
|
+
},
|
|
2930
2942
|
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
-
"description": "Qwen3 VL 235B A22B Instruct
|
|
2943
|
+
"description": "Qwen3 VL 235B A22B の非思考モード(Instruct)は、非思考型の指示実行シナリオに適しており、優れた視覚理解能力を維持しています。"
|
|
2932
2944
|
},
|
|
2933
2945
|
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
-
"description": "Qwen3 VL 235B A22B
|
|
2946
|
+
"description": "Qwen3 VL 235B A22B の思考モード(オープンソース版)は、高難度な推論や長尺動画の理解シナリオに対応し、視覚とテキストの高度な推論能力を提供します。"
|
|
2947
|
+
},
|
|
2948
|
+
"qwen3-vl-30b-a3b-instruct": {
|
|
2949
|
+
"description": "Qwen3 VL 30B の非思考モード(Instruct)は、一般的な指示に従うシナリオ向けで、高いマルチモーダル理解と生成能力を維持しています。"
|
|
2950
|
+
},
|
|
2951
|
+
"qwen3-vl-30b-a3b-thinking": {
|
|
2952
|
+
"description": "Qwen-VL(オープンソース版)は、視覚理解とテキスト生成能力を提供し、エージェントとの対話、視覚エンコーディング、空間認識、長尺動画の理解、深い思考に対応。複雑なシーンにおいても優れた文字認識と多言語対応力を発揮します。"
|
|
2953
|
+
},
|
|
2954
|
+
"qwen3-vl-8b-instruct": {
|
|
2955
|
+
"description": "Qwen3 VL 8B の非思考モード(Instruct)は、一般的なマルチモーダル生成および認識タスクに適しています。"
|
|
2956
|
+
},
|
|
2957
|
+
"qwen3-vl-8b-thinking": {
|
|
2958
|
+
"description": "Qwen3 VL 8B の思考モードは、軽量なマルチモーダル推論および対話シナリオ向けで、長いコンテキストの理解能力を保持しています。"
|
|
2959
|
+
},
|
|
2960
|
+
"qwen3-vl-flash": {
|
|
2961
|
+
"description": "Qwen3 VL Flash:軽量かつ高速な推論バージョンで、低遅延が求められるシナリオや大量リクエストに最適です。"
|
|
2935
2962
|
},
|
|
2936
2963
|
"qwen3-vl-plus": {
|
|
2937
2964
|
"description": "Tongyi Qianwen VLは視覚(画像)理解能力を備えたテキスト生成モデルで、OCR(画像文字認識)だけでなく、商品写真から属性を抽出したり、問題図から解答を導くなどの要約や推論も可能です。"
|
package/locales/ko-KR/chat.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "일괄 삭제",
|
|
32
32
|
"blog": "제품 블로그",
|
|
33
33
|
"branching": "하위 주제 생성",
|
|
34
|
-
"branchingDisable": "현재 모드에서는 '하위 주제' 기능을 사용할 수 없습니다. 이 기능을 사용하려면 Postgres/Pglite DB 모드로 전환하거나
|
|
34
|
+
"branchingDisable": "현재 모드에서는 '하위 주제' 기능을 사용할 수 없습니다. 이 기능을 사용하려면 Postgres/Pglite DB 모드로 전환하거나 LobeHub Cloud를 이용해 주세요.",
|
|
35
35
|
"branchingRequiresSavedTopic": "현재 주제가 저장되지 않았습니다. 저장 후 하위 주제 기능을 사용할 수 있습니다.",
|
|
36
36
|
"cancel": "취소",
|
|
37
37
|
"changelog": "업데이트 로그",
|
|
@@ -767,6 +767,9 @@
|
|
|
767
767
|
"claude-3-sonnet-20240229": {
|
|
768
768
|
"description": "Claude 3 Sonnet은 기업 작업 부하에 이상적인 균형을 제공하며, 더 낮은 가격으로 최대 효용을 제공합니다. 신뢰성이 높고 대규모 배포에 적합합니다."
|
|
769
769
|
},
|
|
770
|
+
"claude-haiku-4-5-20251001": {
|
|
771
|
+
"description": "Claude Haiku 4.5는 Anthropic에서 가장 빠르고 지능적인 Haiku 모델로, 번개처럼 빠른 속도와 확장된 사고 능력을 갖추고 있습니다."
|
|
772
|
+
},
|
|
770
773
|
"claude-opus-4-1-20250805": {
|
|
771
774
|
"description": "Claude Opus 4.1은 Anthropic의 최신 고난도 작업 처리용 최강 모델입니다. 성능, 지능, 유창성, 이해력 면에서 탁월한 성과를 보입니다."
|
|
772
775
|
},
|
|
@@ -1148,6 +1151,9 @@
|
|
|
1148
1151
|
"doubao-seed-1.6-flash": {
|
|
1149
1152
|
"description": "Doubao-Seed-1.6-flash는 추론 속도가 극대화된 다중 모달 심층 사고 모델로, TPOT가 단 10ms에 불과합니다. 텍스트와 시각 이해를 모두 지원하며, 텍스트 이해 능력은 이전 세대 lite를 능가하고, 시각 이해는 경쟁사 pro 시리즈 모델과 견줄 만합니다. 256k 컨텍스트 창을 지원하며, 출력 길이는 최대 16k 토큰까지 가능합니다."
|
|
1150
1153
|
},
|
|
1154
|
+
"doubao-seed-1.6-lite": {
|
|
1155
|
+
"description": "Doubao-Seed-1.6-lite는 새로운 멀티모달 심층 사고 모델로, 사고 수준 조절(reasoning effort)을 지원합니다. Minimal, Low, Medium, High 네 가지 모드로 조절 가능하며, 뛰어난 가성비를 자랑하며 일반적인 작업에 최적화되어 있습니다. 최대 256k의 컨텍스트 윈도우를 지원합니다."
|
|
1156
|
+
},
|
|
1151
1157
|
"doubao-seed-1.6-thinking": {
|
|
1152
1158
|
"description": "Doubao-Seed-1.6-thinking 모델은 사고 능력이 크게 강화되어 Doubao-1.5-thinking-pro에 비해 코딩, 수학, 논리 추론 등 기본 능력이 더욱 향상되었으며, 시각 이해도 지원합니다. 256k 컨텍스트 창을 지원하며, 출력 길이는 최대 16k 토큰까지 가능합니다."
|
|
1153
1159
|
},
|
|
@@ -1541,9 +1547,6 @@
|
|
|
1541
1547
|
"glm-zero-preview": {
|
|
1542
1548
|
"description": "GLM-Zero-Preview는 강력한 복잡한 추론 능력을 갖추고 있으며, 논리 추론, 수학, 프로그래밍 등 분야에서 우수한 성능을 발휘합니다."
|
|
1543
1549
|
},
|
|
1544
|
-
"glm4.6:355b": {
|
|
1545
|
-
"description": "Zhipu의 최신 플래그십 모델 GLM-4.6 (355B)은 고급 코딩, 장문 처리, 추론 및 에이전트 능력에서 전 세대를 전면적으로 능가하며, 특히 코딩 능력에서는 Claude Sonnet 4와 동등한 수준으로 국내 최고의 코딩 모델로 자리매김했습니다."
|
|
1546
|
-
},
|
|
1547
1550
|
"google/gemini-2.0-flash": {
|
|
1548
1551
|
"description": "Gemini 2.0 Flash는 차세대 기능과 개선된 성능을 제공하며, 뛰어난 속도, 내장 도구 사용, 멀티모달 생성 및 100만 토큰의 컨텍스트 윈도우를 지원합니다."
|
|
1549
1552
|
},
|
|
@@ -1934,12 +1937,18 @@
|
|
|
1934
1937
|
"inception/mercury-coder-small": {
|
|
1935
1938
|
"description": "Mercury Coder Small은 코드 생성, 디버깅 및 리팩토링 작업에 이상적이며, 최소 지연 시간을 자랑합니다."
|
|
1936
1939
|
},
|
|
1940
|
+
"inclusionAI/Ling-1T": {
|
|
1941
|
+
"description": "Ling-1T는 'Ling 2.0' 시리즈의 첫 번째 플래그십 non-thinking 모델로, 총 1조 개의 파라미터와 토큰당 약 500억 개의 활성 파라미터를 보유하고 있습니다. Ling 2.0 아키텍처를 기반으로 구축되었으며, 효율적인 추론과 확장 가능한 인지 능력의 한계를 돌파하는 것을 목표로 합니다. Ling-1T-base는 200조 개 이상의 고품질 추론 중심 토큰으로 학습되었습니다."
|
|
1942
|
+
},
|
|
1937
1943
|
"inclusionAI/Ling-flash-2.0": {
|
|
1938
1944
|
"description": "Ling-flash-2.0은 앤트 그룹 백령 팀이 발표한 Ling 2.0 아키텍처 시리즈의 세 번째 모델입니다. 혼합 전문가(MoE) 모델로 총 파라미터 수는 1000억에 달하지만, 각 토큰당 61억 파라미터만 활성화(비임베딩 48억)됩니다. 경량 구성 모델로서 여러 권위 있는 평가에서 400억 규모의 밀집(Dense) 모델 및 더 큰 규모의 MoE 모델과 견줄 만한 성능을 보여줍니다. 이 모델은 '대형 모델 = 대형 파라미터'라는 공감대 하에 극대화된 아키텍처 설계와 학습 전략을 통해 고효율 경로를 탐색하는 것을 목표로 합니다."
|
|
1939
1945
|
},
|
|
1940
1946
|
"inclusionAI/Ling-mini-2.0": {
|
|
1941
1947
|
"description": "Ling-mini-2.0은 MoE 아키텍처 기반의 소형 고성능 대형 언어 모델입니다. 총 160억 파라미터를 보유하지만 각 토큰당 14억(비임베딩 7억 8천 9백만) 파라미터만 활성화하여 매우 빠른 생성 속도를 실현합니다. 효율적인 MoE 설계와 대규모 고품질 학습 데이터 덕분에, 활성화 파라미터가 14억에 불과함에도 불구하고 Ling-mini-2.0은 하위 작업에서 100억 이하의 밀집 LLM 및 더 큰 규모의 MoE 모델과 견줄 수 있는 최상위 성능을 보여줍니다."
|
|
1942
1948
|
},
|
|
1949
|
+
"inclusionAI/Ring-1T": {
|
|
1950
|
+
"description": "Ring-1T는 백링(Bailing) 팀이 공개한 1조 파라미터 규모의 오픈소스 사고 모델입니다. Ling 2.0 아키텍처와 Ling-1T-base 모델을 기반으로 학습되었으며, 총 파라미터 수는 1조, 활성 파라미터는 500억 개에 달합니다. 최대 128K의 컨텍스트 윈도우를 지원하며, 대규모 검증 가능한 보상 강화 학습을 통해 최적화되었습니다."
|
|
1951
|
+
},
|
|
1943
1952
|
"inclusionAI/Ring-flash-2.0": {
|
|
1944
1953
|
"description": "Ring-flash-2.0은 Ling-flash-2.0-base를 기반으로 깊이 최적화된 고성능 사고 모델입니다. 혼합 전문가(MoE) 아키텍처를 채택하여 총 1000억 파라미터를 보유하지만, 추론 시에는 61억 파라미터만 활성화합니다. 독창적인 icepop 알고리즘을 통해 MoE 대형 모델의 강화 학습(RL) 훈련 중 불안정성 문제를 해결하여 복잡한 추론 능력을 장기 훈련 동안 지속적으로 향상시켰습니다. 수학 경시대회, 코드 생성, 논리 추론 등 여러 고난도 벤치마크에서 뛰어난 성과를 거두었으며, 400억 파라미터 이하의 최상위 밀집 모델을 능가하고 더 큰 규모의 오픈소스 MoE 모델 및 폐쇄형 고성능 사고 모델과 견줄 만한 성능을 자랑합니다. 복잡한 추론에 집중하면서도 창의적 글쓰기 작업에서도 우수한 성능을 보입니다. 또한 효율적인 아키텍처 설계 덕분에 강력한 성능과 함께 고속 추론을 실현하여 고부하 환경에서 사고 모델의 배포 비용을 크게 절감합니다."
|
|
1945
1954
|
},
|
|
@@ -2036,9 +2045,6 @@
|
|
|
2036
2045
|
"llama-3.3-instruct": {
|
|
2037
2046
|
"description": "Llama 3.3 지침 미세 조정 모델은 대화 시나리오에 최적화되어 있으며, 일반적인 업계 벤치마크 테스트에서 기존의 많은 오픈소스 채팅 모델을 능가합니다."
|
|
2038
2047
|
},
|
|
2039
|
-
"llama-4-maverick-17b-128e-instruct": {
|
|
2040
|
-
"description": "Llama 4 Maverick: 고성능 Llama 시리즈 모델로, 고급 추론, 복잡한 문제 해결 및 명령어 수행 작업에 적합합니다."
|
|
2041
|
-
},
|
|
2042
2048
|
"llama-4-scout-17b-16e-instruct": {
|
|
2043
2049
|
"description": "Llama 4 Scout: 고성능 Llama 시리즈 모델로, 높은 처리량과 낮은 지연이 요구되는 환경에 적합합니다."
|
|
2044
2050
|
},
|
|
@@ -2906,6 +2912,9 @@
|
|
|
2906
2912
|
"qwen3-8b": {
|
|
2907
2913
|
"description": "Qwen3는 능력이 대폭 향상된 새로운 세대의 통합 지식 모델로, 추론, 일반, 에이전트 및 다국어 등 여러 핵심 능력에서 업계 선두 수준에 도달하며, 사고 모드 전환을 지원합니다."
|
|
2908
2914
|
},
|
|
2915
|
+
"qwen3-coder-30b-a3b-instruct": {
|
|
2916
|
+
"description": "통의천문 코드 모델 오픈소스 버전입니다. 최신 qwen3-coder-30b-a3b-instruct는 Qwen3 기반의 코드 생성 모델로, 강력한 Coding Agent 기능을 갖추고 있으며, 도구 호출 및 환경 상호작용에 능숙합니다. 자율적인 프로그래밍이 가능하며, 뛰어난 코드 처리 능력과 일반적인 언어 능력을 겸비하고 있습니다."
|
|
2917
|
+
},
|
|
2909
2918
|
"qwen3-coder-480b-a35b-instruct": {
|
|
2910
2919
|
"description": "통의천문 코드 모델 오픈 소스 버전입니다. 최신 qwen3-coder-480b-a35b-instruct는 Qwen3 기반 코드 생성 모델로, 강력한 코딩 에이전트 능력을 갖추고 도구 호출 및 환경 상호작용에 능하며, 자율 프로그래밍과 뛰어난 코드 능력 및 범용 능력을 동시에 구현합니다."
|
|
2911
2920
|
},
|
|
@@ -2927,11 +2936,29 @@
|
|
|
2927
2936
|
"qwen3-next-80b-a3b-thinking": {
|
|
2928
2937
|
"description": "Qwen3 기반의 차세대 사고 모드 오픈 소스 모델로, 이전 버전(통의천문3-235B-A22B-Thinking-2507)과 비교하여 명령 준수 능력이 향상되었고, 모델의 요약 응답이 더욱 간결해졌습니다."
|
|
2929
2938
|
},
|
|
2939
|
+
"qwen3-omni-flash": {
|
|
2940
|
+
"description": "Qwen-Omni 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 모달의 조합 입력을 수용할 수 있으며, 텍스트 또는 음성 형태의 응답을 생성할 수 있습니다. 다양한 인간 음색을 제공하며, 다국어 및 방언 음성 출력도 지원합니다. 텍스트 창작, 시각 인식, 음성 비서 등 다양한 분야에 활용 가능합니다."
|
|
2941
|
+
},
|
|
2930
2942
|
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
-
"description": "Qwen3 VL 235B A22B Instruct는
|
|
2943
|
+
"description": "Qwen3 VL 235B A22B 비사고 모드(Instruct)는 사고가 필요 없는 지시 기반 작업에 적합하며, 강력한 시각 이해 능력을 유지합니다."
|
|
2932
2944
|
},
|
|
2933
2945
|
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
-
"description": "Qwen3 VL 235B A22B
|
|
2946
|
+
"description": "Qwen3 VL 235B A22B 사고 모드(오픈소스 버전)는 고난도 추론 및 장시간 비디오 이해 시나리오에 최적화되어 있으며, 최고 수준의 시각+텍스트 추론 능력을 제공합니다."
|
|
2947
|
+
},
|
|
2948
|
+
"qwen3-vl-30b-a3b-instruct": {
|
|
2949
|
+
"description": "Qwen3 VL 30B 비사고 모드(Instruct)는 일반적인 지시 수행 시나리오에 적합하며, 우수한 멀티모달 이해 및 생성 능력을 유지합니다."
|
|
2950
|
+
},
|
|
2951
|
+
"qwen3-vl-30b-a3b-thinking": {
|
|
2952
|
+
"description": "Qwen-VL(오픈소스 버전)은 시각 이해 및 텍스트 생성 능력을 제공하며, 에이전트 상호작용, 시각 인코딩, 공간 인식, 장시간 비디오 이해 및 심층 사고를 지원합니다. 복잡한 상황에서도 뛰어난 문자 인식 및 다국어 지원 능력을 갖추고 있습니다."
|
|
2953
|
+
},
|
|
2954
|
+
"qwen3-vl-8b-instruct": {
|
|
2955
|
+
"description": "Qwen3 VL 8B 비사고 모드(Instruct)는 일반적인 멀티모달 생성 및 인식 작업에 적합합니다."
|
|
2956
|
+
},
|
|
2957
|
+
"qwen3-vl-8b-thinking": {
|
|
2958
|
+
"description": "Qwen3 VL 8B 사고 모드는 경량 멀티모달 추론 및 상호작용 시나리오에 적합하며, 긴 컨텍스트 이해 능력을 유지합니다."
|
|
2959
|
+
},
|
|
2960
|
+
"qwen3-vl-flash": {
|
|
2961
|
+
"description": "Qwen3 VL Flash는 경량 고속 추론 버전으로, 지연에 민감하거나 대량 요청이 필요한 상황에 적합합니다."
|
|
2935
2962
|
},
|
|
2936
2963
|
"qwen3-vl-plus": {
|
|
2937
2964
|
"description": "통의천문 VL은 시각(이미지) 이해 능력을 갖춘 텍스트 생성 모델로, OCR(이미지 내 문자 인식)뿐만 아니라 상품 사진에서 속성 추출, 문제 그림을 통한 문제 해결 등 요약 및 추론 작업도 수행할 수 있습니다."
|
package/locales/nl-NL/chat.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "Batch verwijderen",
|
|
32
32
|
"blog": "Product Blog",
|
|
33
33
|
"branching": "Subonderwerp aanmaken",
|
|
34
|
-
"branchingDisable": "De functie '
|
|
34
|
+
"branchingDisable": "De functie 'Subonderwerpen' is niet beschikbaar in de huidige modus. Schakel over naar de Postgres/Pglite DB-modus of gebruik LobeHub Cloud om deze functie te gebruiken.",
|
|
35
35
|
"branchingRequiresSavedTopic": "Het huidige onderwerp is niet opgeslagen. Sla het op om de subonderwerpfunctie te kunnen gebruiken.",
|
|
36
36
|
"cancel": "Annuleren",
|
|
37
37
|
"changelog": "Wijzigingslogboek",
|
|
@@ -767,6 +767,9 @@
|
|
|
767
767
|
"claude-3-sonnet-20240229": {
|
|
768
768
|
"description": "Claude 3 Sonnet biedt een ideale balans tussen intelligentie en snelheid voor bedrijfswerkbelastingen. Het biedt maximale bruikbaarheid tegen een lagere prijs, betrouwbaar en geschikt voor grootschalige implementatie."
|
|
769
769
|
},
|
|
770
|
+
"claude-haiku-4-5-20251001": {
|
|
771
|
+
"description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle prestaties en geavanceerde redeneercapaciteiten."
|
|
772
|
+
},
|
|
770
773
|
"claude-opus-4-1-20250805": {
|
|
771
774
|
"description": "Claude Opus 4.1 is het nieuwste en krachtigste model van Anthropic voor het verwerken van zeer complexe taken. Het blinkt uit in prestaties, intelligentie, vloeiendheid en begrip."
|
|
772
775
|
},
|
|
@@ -1148,6 +1151,9 @@
|
|
|
1148
1151
|
"doubao-seed-1.6-flash": {
|
|
1149
1152
|
"description": "Doubao-Seed-1.6-flash is een multimodaal diepdenkend model met extreem snelle inferentiesnelheid, TPOT slechts 10ms; ondersteunt zowel tekst- als visueel begrip, met tekstbegrip dat beter is dan de vorige lite-generatie en visueel begrip dat vergelijkbaar is met concurrerende pro-serie modellen. Ondersteunt een contextvenster van 256k en een maximale uitvoerlengte van 16k tokens."
|
|
1150
1153
|
},
|
|
1154
|
+
"doubao-seed-1.6-lite": {
|
|
1155
|
+
"description": "Doubao-Seed-1.6-lite is een gloednieuw multimodaal model voor diepgaand redeneren, met instelbare redeneerniveaus (Minimal, Low, Medium, High). Het biedt een uitstekende prijs-kwaliteitverhouding en is de beste keuze voor veelvoorkomende taken, met een contextvenster tot 256k."
|
|
1156
|
+
},
|
|
1151
1157
|
"doubao-seed-1.6-thinking": {
|
|
1152
1158
|
"description": "Doubao-Seed-1.6-thinking model heeft sterk verbeterde denkvermogens, met verdere verbeteringen in basisvaardigheden zoals coderen, wiskunde en logisch redeneren ten opzichte van Doubao-1.5-thinking-pro, en ondersteunt visueel begrip. Ondersteunt een contextvenster van 256k en een maximale uitvoerlengte van 16k tokens."
|
|
1153
1159
|
},
|
|
@@ -1541,9 +1547,6 @@
|
|
|
1541
1547
|
"glm-zero-preview": {
|
|
1542
1548
|
"description": "GLM-Zero-Preview heeft krachtige complexe redeneercapaciteiten en presteert uitstekend in logische redenering, wiskunde en programmeren."
|
|
1543
1549
|
},
|
|
1544
|
-
"glm4.6:355b": {
|
|
1545
|
-
"description": "GLM-4.6 (355B), het nieuwste vlaggenschipmodel van Zhipu, overtreft zijn voorgangers op alle fronten, waaronder geavanceerde codering, verwerking van lange teksten, redeneren en agentcapaciteiten. Vooral op het gebied van programmeren is het model op één lijn gebracht met Claude Sonnet 4, waarmee het een toonaangevend coding-model in China is geworden."
|
|
1546
|
-
},
|
|
1547
1550
|
"google/gemini-2.0-flash": {
|
|
1548
1551
|
"description": "Gemini 2.0 Flash biedt next-generation functies en verbeteringen, waaronder uitstekende snelheid, ingebouwde toolintegratie, multimodale generatie en een contextvenster van 1 miljoen tokens."
|
|
1549
1552
|
},
|
|
@@ -1934,12 +1937,18 @@
|
|
|
1934
1937
|
"inception/mercury-coder-small": {
|
|
1935
1938
|
"description": "Mercury Coder Small is ideaal voor codegeneratie, debugging en refactoring taken met minimale latentie."
|
|
1936
1939
|
},
|
|
1940
|
+
"inclusionAI/Ling-1T": {
|
|
1941
|
+
"description": "Ling-1T is het eerste vlaggenschipmodel uit de 'Ling 2.0'-serie zonder denkvermogen, met in totaal 1 biljoen parameters en ongeveer 50 miljard actieve parameters per token. Gebouwd op de Ling 2.0-architectuur, is Ling-1T ontworpen om de grenzen van efficiënte redenering en schaalbare cognitie te verleggen. Ling-1T-base is getraind op meer dan 20 biljoen hoogwaardige, redeneerintensieve tokens."
|
|
1942
|
+
},
|
|
1937
1943
|
"inclusionAI/Ling-flash-2.0": {
|
|
1938
1944
|
"description": "Ling-flash-2.0 is het derde model in de Ling 2.0 architectuurserie uitgebracht door het Bailing-team van Ant Group. Het is een Mixture of Experts (MoE) model met in totaal 100 miljard parameters, maar activeert slechts 6,1 miljard parameters per token (waarvan 4,8 miljard niet-embedding). Als een lichtgewicht configuratie toont Ling-flash-2.0 in meerdere gezaghebbende evaluaties prestaties die vergelijkbaar zijn met of beter dan 40 miljard dense modellen en grotere MoE modellen. Dit model is ontworpen om via ultieme architectuurontwerpen en trainingsstrategieën een efficiënte weg te verkennen binnen de consensus dat grote modellen gelijkstaan aan veel parameters."
|
|
1939
1945
|
},
|
|
1940
1946
|
"inclusionAI/Ling-mini-2.0": {
|
|
1941
1947
|
"description": "Ling-mini-2.0 is een klein maar hoogpresterend groot taalmodel gebaseerd op de MoE-architectuur. Het heeft 16 miljard totale parameters, maar activeert slechts 1,4 miljard per token (789 miljoen niet-embedding), wat een zeer hoge generatie snelheid mogelijk maakt. Dankzij het efficiënte MoE-ontwerp en grootschalige hoogwaardige trainingsdata levert Ling-mini-2.0, ondanks de beperkte geactiveerde parameters, topprestaties die vergelijkbaar zijn met dense LLM's onder 10 miljard en grotere MoE modellen in downstream taken."
|
|
1942
1948
|
},
|
|
1949
|
+
"inclusionAI/Ring-1T": {
|
|
1950
|
+
"description": "Ring-1T is een open-source denkmodel op biljoenschaal, uitgebracht door het Bailing-team. Het is gebaseerd op de Ling 2.0-architectuur en het Ling-1T-base model, met in totaal 1 biljoen parameters en 50 miljard actieve parameters. Het ondersteunt contextvensters tot 128K en is geoptimaliseerd via grootschalige, verifieerbare beloningsversterkende training."
|
|
1951
|
+
},
|
|
1943
1952
|
"inclusionAI/Ring-flash-2.0": {
|
|
1944
1953
|
"description": "Ring-flash-2.0 is een diep geoptimaliseerd hoogpresterend denkmodel gebaseerd op Ling-flash-2.0-base. Het gebruikt een Mixture of Experts (MoE) architectuur met in totaal 100 miljard parameters, maar activeert slechts 6,1 miljard parameters per inferentie. Dit model lost met het unieke icepop-algoritme de instabiliteitsproblemen van grote MoE modellen tijdens reinforcement learning (RL) training op, waardoor de complexe redeneercapaciteit continu verbetert bij langdurige training. Ring-flash-2.0 behaalde significante doorbraken in uitdagende benchmarks zoals wiskundewedstrijden, codegeneratie en logische redenering. Het presteert niet alleen beter dan top dense modellen onder 40 miljard parameters, maar kan ook concurreren met grotere open-source MoE modellen en gesloten hoogpresterende denkmodellen. Hoewel het model zich richt op complexe redenering, presteert het ook uitstekend in creatieve schrijfopdrachten. Dankzij het efficiënte architectuurontwerp biedt Ring-flash-2.0 krachtige prestaties met hoge inferentiesnelheid, wat de implementatiekosten in scenario's met hoge gelijktijdigheid aanzienlijk verlaagt."
|
|
1945
1954
|
},
|
|
@@ -2036,9 +2045,6 @@
|
|
|
2036
2045
|
"llama-3.3-instruct": {
|
|
2037
2046
|
"description": "Het Llama 3.3 instructie-fijnafstemmodel is geoptimaliseerd voor gesprekssituaties en overtreft vele bestaande open-source chatmodellen op veelvoorkomende industriebenchmarks."
|
|
2038
2047
|
},
|
|
2039
|
-
"llama-4-maverick-17b-128e-instruct": {
|
|
2040
|
-
"description": "Llama 4 Maverick: een krachtig model uit de Llama-serie, geschikt voor geavanceerde redenering, het oplossen van complexe problemen en instructievolgende taken."
|
|
2041
|
-
},
|
|
2042
2048
|
"llama-4-scout-17b-16e-instruct": {
|
|
2043
2049
|
"description": "Llama 4 Scout: een hoogwaardig model uit de Llama-serie, geoptimaliseerd voor scenario's die hoge verwerkingssnelheid en lage latentie vereisen."
|
|
2044
2050
|
},
|
|
@@ -2906,6 +2912,9 @@
|
|
|
2906
2912
|
"qwen3-8b": {
|
|
2907
2913
|
"description": "Qwen3 is een nieuwe generatie van het Qwen grote model met aanzienlijk verbeterde capaciteiten, die de industrie leidende niveaus bereikt in redeneren, algemeen gebruik, agent en meertalige ondersteuning, en ondersteunt de schakeling tussen denkmodi."
|
|
2908
2914
|
},
|
|
2915
|
+
"qwen3-coder-30b-a3b-instruct": {
|
|
2916
|
+
"description": "Open-source versie van het Tongyi Qianwen codeermodel. De nieuwste qwen3-coder-30b-a3b-instruct is gebaseerd op Qwen3 en blinkt uit in codegeneratie, met krachtige mogelijkheden als Coding Agent. Het is bedreven in toolgebruik en omgevingsinteractie, en combineert uitstekende programmeervaardigheden met algemene capaciteiten."
|
|
2917
|
+
},
|
|
2909
2918
|
"qwen3-coder-480b-a35b-instruct": {
|
|
2910
2919
|
"description": "Open-source codeermodel van Tongyi Qianwen. De nieuwste qwen3-coder-480b-a35b-instruct is gebaseerd op Qwen3, met krachtige Coding Agent-capaciteiten, bedreven in toolaanroepen en omgevingsinteractie, en kan zelfstandig programmeren met uitstekende codeervaardigheden en algemene capaciteiten."
|
|
2911
2920
|
},
|
|
@@ -2927,11 +2936,29 @@
|
|
|
2927
2936
|
"qwen3-next-80b-a3b-thinking": {
|
|
2928
2937
|
"description": "Een nieuwe generatie open-source model met denkmodus gebaseerd op Qwen3, met verbeterde instructienaleving en meer beknopte samenvattende antwoorden vergeleken met de vorige versie (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
|
|
2929
2938
|
},
|
|
2939
|
+
"qwen3-omni-flash": {
|
|
2940
|
+
"description": "Het Qwen-Omni model accepteert gecombineerde invoer van tekst, afbeeldingen, audio en video, en genereert antwoorden in tekst- of spraakvorm. Het biedt diverse natuurlijke stemklanken, ondersteunt meertalige en dialectische spraakuitvoer, en is toepasbaar in tekstcreatie, visuele herkenning, spraakassistenten en meer."
|
|
2941
|
+
},
|
|
2930
2942
|
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
-
"description": "Qwen3 VL 235B A22B Instruct
|
|
2943
|
+
"description": "Qwen3 VL 235B A22B Instruct-modus (non-thinking), geschikt voor instructiescenario’s zonder redeneervermogen, met behoud van sterke visuele interpretatiecapaciteiten."
|
|
2932
2944
|
},
|
|
2933
2945
|
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
-
"description": "Qwen3 VL 235B A22B Thinking
|
|
2946
|
+
"description": "Qwen3 VL 235B A22B Thinking-modus (open-source), ontworpen voor complexe redeneerscenario’s en lange video-inhoud, met toonaangevende visuele en tekstuele redeneercapaciteiten."
|
|
2947
|
+
},
|
|
2948
|
+
"qwen3-vl-30b-a3b-instruct": {
|
|
2949
|
+
"description": "Qwen3 VL 30B Instruct-modus (non-thinking), gericht op standaard instructievolgtaken, met sterke multimodale interpretatie- en generatiecapaciteiten."
|
|
2950
|
+
},
|
|
2951
|
+
"qwen3-vl-30b-a3b-thinking": {
|
|
2952
|
+
"description": "Qwen-VL (open-source) biedt visuele interpretatie en tekstgeneratie, ondersteunt agentinteractie, visuele codering, ruimtelijk bewustzijn, lange videoanalyse en diepgaand redeneren, met verbeterde teksterkenning en meertalige ondersteuning in complexe scenario’s."
|
|
2953
|
+
},
|
|
2954
|
+
"qwen3-vl-8b-instruct": {
|
|
2955
|
+
"description": "Qwen3 VL 8B Instruct-modus (non-thinking), geschikt voor standaard multimodale generatie- en herkenningstaken."
|
|
2956
|
+
},
|
|
2957
|
+
"qwen3-vl-8b-thinking": {
|
|
2958
|
+
"description": "Qwen3 VL 8B Thinking-modus, ontworpen voor lichtgewicht multimodale redeneer- en interactiescenario’s, met behoud van lange contextbegripcapaciteiten."
|
|
2959
|
+
},
|
|
2960
|
+
"qwen3-vl-flash": {
|
|
2961
|
+
"description": "Qwen3 VL Flash: een lichtgewicht, snelle redeneerversie, ideaal voor latency-gevoelige of grootschalige aanvraagscenario’s."
|
|
2935
2962
|
},
|
|
2936
2963
|
"qwen3-vl-plus": {
|
|
2937
2964
|
"description": "Tongyi Qianwen VL is een tekstgeneratiemodel met visuele (beeld) begripscapaciteiten. Het kan niet alleen OCR (tekstherkenning in afbeeldingen) uitvoeren, maar ook samenvatten en redeneren, bijvoorbeeld het extraheren van attributen uit productfoto's en het oplossen van problemen op basis van oefenplaatjes."
|
package/locales/pl-PL/chat.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "Usuń wiele",
|
|
32
32
|
"blog": "Blog produktowy",
|
|
33
33
|
"branching": "Utwórz podtemat",
|
|
34
|
-
"branchingDisable": "Funkcja „
|
|
34
|
+
"branchingDisable": "Funkcja „podtematów” jest niedostępna w bieżącym trybie. Aby z niej skorzystać, przełącz się na tryb bazy danych Postgres/Pglite lub użyj LobeHub Cloud.",
|
|
35
35
|
"branchingRequiresSavedTopic": "Aktualny temat nie został zapisany, zapisz go, aby móc korzystać z funkcji podtematów",
|
|
36
36
|
"cancel": "Anuluj",
|
|
37
37
|
"changelog": "Dziennik zmian",
|