@lobehub/chat 1.19.24 → 1.19.26
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +59 -0
- package/README.md +8 -8
- package/README.zh-CN.md +8 -8
- package/docker-compose/local/.env.example +17 -15
- package/docker-compose/local/.env.zh-CN.example +19 -16
- package/docker-compose/local/docker-compose.yml +17 -16
- package/docker-compose/local/init_data.json.tar.gz +0 -0
- package/docker-compose/local/s3_data.tar.gz +0 -0
- package/docker-compose/local/setup.sh +242 -0
- package/docker-compose/local-logto/.env.example +33 -0
- package/docker-compose/local-logto/.env.zh-CN.example +33 -0
- package/docker-compose/local-logto/docker-compose.yml +102 -0
- package/docs/self-hosting/advanced/auth/next-auth/auth0.mdx +5 -6
- package/docs/self-hosting/advanced/auth/next-auth/auth0.zh-CN.mdx +4 -5
- package/docs/self-hosting/advanced/auth/next-auth/authelia.mdx +4 -4
- package/docs/self-hosting/advanced/auth/next-auth/authelia.zh-CN.mdx +4 -4
- package/docs/self-hosting/advanced/auth/next-auth/authentik.mdx +4 -4
- package/docs/self-hosting/advanced/auth/next-auth/authentik.zh-CN.mdx +4 -4
- package/docs/self-hosting/advanced/auth/next-auth/cloudflare-zero-trust.mdx +4 -4
- package/docs/self-hosting/advanced/auth/next-auth/cloudflare-zero-trust.zh-CN.mdx +1 -1
- package/docs/self-hosting/advanced/auth/next-auth/github.mdx +3 -3
- package/docs/self-hosting/advanced/auth/next-auth/github.zh-CN.mdx +3 -3
- package/docs/self-hosting/advanced/auth/next-auth/logto.mdx +4 -4
- package/docs/self-hosting/advanced/auth/next-auth/logto.zh-CN.mdx +4 -4
- package/docs/self-hosting/advanced/auth/next-auth/microsoft-entra-id.mdx +4 -4
- package/docs/self-hosting/advanced/auth/next-auth/microsoft-entra-id.zh-CN.mdx +4 -4
- package/docs/self-hosting/advanced/auth/next-auth/zitadel.mdx +5 -5
- package/docs/self-hosting/advanced/auth/next-auth/zitadel.zh-CN.mdx +5 -5
- package/docs/self-hosting/server-database/docker-compose.mdx +2 -2
- package/docs/self-hosting/server-database/docker-compose.zh-CN.mdx +2 -2
- package/locales/ar/chat.json +2 -2
- package/locales/ar/models.json +3 -0
- package/locales/bg-BG/chat.json +2 -2
- package/locales/bg-BG/models.json +3 -0
- package/locales/de-DE/chat.json +2 -2
- package/locales/de-DE/models.json +3 -0
- package/locales/en-US/chat.json +2 -2
- package/locales/en-US/models.json +3 -0
- package/locales/es-ES/chat.json +2 -2
- package/locales/es-ES/models.json +3 -0
- package/locales/fr-FR/chat.json +2 -2
- package/locales/fr-FR/models.json +3 -0
- package/locales/it-IT/chat.json +2 -2
- package/locales/it-IT/models.json +3 -0
- package/locales/ja-JP/chat.json +2 -2
- package/locales/ja-JP/models.json +3 -0
- package/locales/ko-KR/chat.json +2 -2
- package/locales/ko-KR/models.json +3 -0
- package/locales/nl-NL/chat.json +2 -2
- package/locales/nl-NL/models.json +3 -0
- package/locales/pl-PL/chat.json +2 -2
- package/locales/pl-PL/models.json +131 -0
- package/locales/pt-BR/chat.json +2 -2
- package/locales/pt-BR/models.json +3 -0
- package/locales/ru-RU/chat.json +2 -2
- package/locales/ru-RU/models.json +3 -0
- package/locales/tr-TR/chat.json +2 -2
- package/locales/tr-TR/models.json +3 -0
- package/locales/vi-VN/chat.json +2 -2
- package/locales/vi-VN/models.json +131 -0
- package/locales/vi-VN/providers.json +4 -0
- package/locales/zh-CN/chat.json +2 -2
- package/locales/zh-CN/models.json +6 -3
- package/locales/zh-TW/chat.json +2 -2
- package/locales/zh-TW/models.json +3 -0
- package/package.json +1 -1
- package/src/app/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/Main.tsx +2 -2
- package/src/config/modelProviders/ai360.ts +2 -1
- package/src/layout/GlobalProvider/StoreInitialization.tsx +12 -8
- package/src/libs/agent-runtime/ai360/index.ts +8 -0
- package/src/locales/default/chat.ts +2 -2
@@ -35,6 +35,9 @@
|
|
35
35
|
"Gryphe/MythoMax-L2-13b": {
|
36
36
|
"description": "MythoMax-L2 (13B) è un modello innovativo, adatto per applicazioni in più settori e compiti complessi."
|
37
37
|
},
|
38
|
+
"Max-32k": {
|
39
|
+
"description": "Spark Max 32K è dotato di una grande capacità di elaborazione del contesto, con una comprensione e un ragionamento logico più potenti, supporta l'input di testo fino a 32K token, adatto per la lettura di documenti lunghi, domande e risposte su conoscenze private e altri scenari."
|
40
|
+
},
|
38
41
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
39
42
|
"description": "Hermes 2 Mixtral 8x7B DPO è un modello altamente flessibile, progettato per offrire un'esperienza creativa eccezionale."
|
40
43
|
},
|
package/locales/ja-JP/chat.json
CHANGED
@@ -5,7 +5,7 @@
|
|
5
5
|
"agentDefaultMessage": "こんにちは、私は **{{name}}** です。すぐに私と会話を始めることもできますし、[アシスタント設定]({{url}}) に行って私の情報を充実させることもできます。",
|
6
6
|
"agentDefaultMessageWithSystemRole": "こんにちは、私は **{{name}}** です、{{systemRole}}、さあ、チャットを始めましょう!",
|
7
7
|
"agentDefaultMessageWithoutEdit": "こんにちは、私は**{{name}}**です。会話しましょう!",
|
8
|
-
"
|
8
|
+
"agents": "エージェント",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "生成中",
|
11
11
|
"thinking": "思考中",
|
@@ -81,7 +81,7 @@
|
|
81
81
|
},
|
82
82
|
"regenerate": "再生成",
|
83
83
|
"roleAndArchive": "役割とアーカイブ",
|
84
|
-
"searchAgentPlaceholder": "
|
84
|
+
"searchAgentPlaceholder": "検索アシスタント...",
|
85
85
|
"sendPlaceholder": "チャット内容を入力してください...",
|
86
86
|
"sessionGroup": {
|
87
87
|
"config": "グループ設定",
|
@@ -35,6 +35,9 @@
|
|
35
35
|
"Gryphe/MythoMax-L2-13b": {
|
36
36
|
"description": "MythoMax-L2 (13B)は、革新的なモデルであり、多分野のアプリケーションや複雑なタスクに適しています。"
|
37
37
|
},
|
38
|
+
"Max-32k": {
|
39
|
+
"description": "Spark Max 32Kは、大規模なコンテキスト処理能力を備え、より強力なコンテキスト理解と論理推論能力を持ち、32Kトークンのテキスト入力をサポートします。長文書の読解やプライベートな知識に基づく質問応答などのシーンに適しています。"
|
40
|
+
},
|
38
41
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
39
42
|
"description": "Hermes 2 Mixtral 8x7B DPOは非常に柔軟なマルチモデル統合で、卓越した創造的体験を提供することを目的としています。"
|
40
43
|
},
|
package/locales/ko-KR/chat.json
CHANGED
@@ -5,7 +5,7 @@
|
|
5
5
|
"agentDefaultMessage": "안녕하세요, 저는 **{{name}}**입니다. 지금 바로 저와 대화를 시작하시거나 [도우미 설정]({{url}})으로 가셔서 제 정보를 완성하실 수 있습니다.",
|
6
6
|
"agentDefaultMessageWithSystemRole": "안녕하세요, 저는 **{{name}}**입니다. {{systemRole}}입니다. 대화를 시작해 봅시다!",
|
7
7
|
"agentDefaultMessageWithoutEdit": "안녕하세요, 저는 **{{name}}**입니다. 대화를 시작해보세요!",
|
8
|
-
"
|
8
|
+
"agents": "도우미",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "생성 중",
|
11
11
|
"thinking": "생각 중",
|
@@ -81,7 +81,7 @@
|
|
81
81
|
},
|
82
82
|
"regenerate": "재생성",
|
83
83
|
"roleAndArchive": "역할 및 아카이브",
|
84
|
-
"searchAgentPlaceholder": "
|
84
|
+
"searchAgentPlaceholder": "검색 도우미...",
|
85
85
|
"sendPlaceholder": "채팅 내용 입력...",
|
86
86
|
"sessionGroup": {
|
87
87
|
"config": "그룹 설정",
|
@@ -35,6 +35,9 @@
|
|
35
35
|
"Gryphe/MythoMax-L2-13b": {
|
36
36
|
"description": "MythoMax-L2 (13B)는 혁신적인 모델로, 다양한 분야의 응용과 복잡한 작업에 적합합니다."
|
37
37
|
},
|
38
|
+
"Max-32k": {
|
39
|
+
"description": "Spark Max 32K는 대규모 컨텍스트 처리 능력을 갖추고 있으며, 더 강력한 컨텍스트 이해 및 논리 추론 능력을 제공합니다. 32K 토큰의 텍스트 입력을 지원하며, 긴 문서 읽기, 개인 지식 질문 응답 등 다양한 상황에 적합합니다."
|
40
|
+
},
|
38
41
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
39
42
|
"description": "Hermes 2 Mixtral 8x7B DPO는 뛰어난 창의적 경험을 제공하기 위해 설계된 고도로 유연한 다중 모델 통합입니다."
|
40
43
|
},
|
package/locales/nl-NL/chat.json
CHANGED
@@ -5,7 +5,7 @@
|
|
5
5
|
"agentDefaultMessage": "Hallo, ik ben **{{name}}**. Je kunt meteen met me beginnen praten, of je kunt naar [Assistentinstellingen]({{url}}) gaan om mijn informatie aan te vullen.",
|
6
6
|
"agentDefaultMessageWithSystemRole": "Hallo, ik ben **{{name}}**, {{systemRole}}, laten we beginnen met praten!",
|
7
7
|
"agentDefaultMessageWithoutEdit": "Hallo, ik ben **{{name}}**. Laten we beginnen met een gesprek!",
|
8
|
-
"
|
8
|
+
"agents": "Assistent",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "Genereren",
|
11
11
|
"thinking": "Denken",
|
@@ -81,7 +81,7 @@
|
|
81
81
|
},
|
82
82
|
"regenerate": "Opnieuw genereren",
|
83
83
|
"roleAndArchive": "Rol en archief",
|
84
|
-
"searchAgentPlaceholder": "
|
84
|
+
"searchAgentPlaceholder": "Zoekassistent...",
|
85
85
|
"sendPlaceholder": "Voer chatbericht in...",
|
86
86
|
"sessionGroup": {
|
87
87
|
"config": "Groepsbeheer",
|
@@ -35,6 +35,9 @@
|
|
35
35
|
"Gryphe/MythoMax-L2-13b": {
|
36
36
|
"description": "MythoMax-L2 (13B) is een innovatief model, geschikt voor toepassingen in meerdere domeinen en complexe taken."
|
37
37
|
},
|
38
|
+
"Max-32k": {
|
39
|
+
"description": "Spark Max 32K is uitgerust met een grote contextverwerkingscapaciteit, verbeterd begrip van context en logische redeneervaardigheden, ondersteunt tekstinvoer van 32K tokens, geschikt voor het lezen van lange documenten, privé kennisvragen en andere scenario's."
|
40
|
+
},
|
38
41
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
39
42
|
"description": "Hermes 2 Mixtral 8x7B DPO is een zeer flexibele multi-model combinatie, ontworpen om een uitstekende creatieve ervaring te bieden."
|
40
43
|
},
|
package/locales/pl-PL/chat.json
CHANGED
@@ -5,7 +5,7 @@
|
|
5
5
|
"agentDefaultMessage": "Cześć, jestem **{{name}}**, możesz od razu rozpocząć ze mną rozmowę lub przejść do [ustawień asystenta]({{url}}), aby uzupełnić moje informacje.",
|
6
6
|
"agentDefaultMessageWithSystemRole": "Cześć, jestem **{{name}}**, {{systemRole}}, zacznijmy rozmowę!",
|
7
7
|
"agentDefaultMessageWithoutEdit": "Cześć, jestem **{{name}}**. Zacznijmy rozmowę!",
|
8
|
-
"
|
8
|
+
"agents": "Asystent",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "Generowanie",
|
11
11
|
"thinking": "Myślenie",
|
@@ -81,7 +81,7 @@
|
|
81
81
|
},
|
82
82
|
"regenerate": "Wygeneruj ponownie",
|
83
83
|
"roleAndArchive": "Rola i archiwum",
|
84
|
-
"searchAgentPlaceholder": "
|
84
|
+
"searchAgentPlaceholder": "Wyszukaj pomocnika...",
|
85
85
|
"sendPlaceholder": "Wpisz treść rozmowy...",
|
86
86
|
"sessionGroup": {
|
87
87
|
"config": "Zarządzanie grupami",
|
@@ -35,6 +35,9 @@
|
|
35
35
|
"Gryphe/MythoMax-L2-13b": {
|
36
36
|
"description": "MythoMax-L2 (13B) to innowacyjny model, idealny do zastosowań w wielu dziedzinach i złożonych zadań."
|
37
37
|
},
|
38
|
+
"Max-32k": {
|
39
|
+
"description": "Spark Max 32K ma dużą zdolność przetwarzania kontekstu, lepsze zrozumienie kontekstu i zdolności logicznego rozumowania, obsługując teksty o długości 32K tokenów, odpowiednie do czytania długich dokumentów, prywatnych pytań o wiedzę i innych scenariuszy."
|
40
|
+
},
|
38
41
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
39
42
|
"description": "Hermes 2 Mixtral 8x7B DPO to wysoce elastyczna fuzja wielu modeli, mająca na celu zapewnienie doskonałego doświadczenia twórczego."
|
40
43
|
},
|
@@ -44,6 +47,27 @@
|
|
44
47
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
45
48
|
"description": "Nous Hermes-2 Yi (34B) oferuje zoptymalizowane wyjście językowe i różnorodne możliwości zastosowania."
|
46
49
|
},
|
50
|
+
"Phi-3-5-mini-instruct": {
|
51
|
+
"description": "Odświeżona wersja modelu Phi-3-mini."
|
52
|
+
},
|
53
|
+
"Phi-3-medium-128k-instruct": {
|
54
|
+
"description": "Ten sam model Phi-3-medium, ale z większym rozmiarem kontekstu do RAG lub kilku strzałowego wywoływania."
|
55
|
+
},
|
56
|
+
"Phi-3-medium-4k-instruct": {
|
57
|
+
"description": "Model z 14 miliardami parametrów, oferujący lepszą jakość niż Phi-3-mini, z naciskiem na dane o wysokiej jakości i gęstości rozumowania."
|
58
|
+
},
|
59
|
+
"Phi-3-mini-128k-instruct": {
|
60
|
+
"description": "Ten sam model Phi-3-mini, ale z większym rozmiarem kontekstu do RAG lub kilku strzałowego wywoływania."
|
61
|
+
},
|
62
|
+
"Phi-3-mini-4k-instruct": {
|
63
|
+
"description": "Najmniejszy członek rodziny Phi-3. Zoptymalizowany zarówno pod kątem jakości, jak i niskiej latencji."
|
64
|
+
},
|
65
|
+
"Phi-3-small-128k-instruct": {
|
66
|
+
"description": "Ten sam model Phi-3-small, ale z większym rozmiarem kontekstu do RAG lub kilku strzałowego wywoływania."
|
67
|
+
},
|
68
|
+
"Phi-3-small-8k-instruct": {
|
69
|
+
"description": "Model z 7 miliardami parametrów, oferujący lepszą jakość niż Phi-3-mini, z naciskiem na dane o wysokiej jakości i gęstości rozumowania."
|
70
|
+
},
|
47
71
|
"Pro-128k": {
|
48
72
|
"description": "Spark Pro-128K ma wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, szczególnie odpowiedni do analizy całościowej i długoterminowego przetwarzania logicznego w długich tekstach, zapewniając płynne i spójne logicznie komunikowanie się oraz różnorodne wsparcie cytatów."
|
49
73
|
},
|
@@ -56,6 +80,24 @@
|
|
56
80
|
"Qwen/Qwen2-72B-Instruct": {
|
57
81
|
"description": "Qwen2 to zaawansowany uniwersalny model językowy, wspierający różne typy poleceń."
|
58
82
|
},
|
83
|
+
"Qwen/Qwen2.5-14B-Instruct": {
|
84
|
+
"description": "Qwen2.5 to nowa seria dużych modeli językowych, zaprojektowana w celu optymalizacji przetwarzania zadań instrukcyjnych."
|
85
|
+
},
|
86
|
+
"Qwen/Qwen2.5-32B-Instruct": {
|
87
|
+
"description": "Qwen2.5 to nowa seria dużych modeli językowych, zaprojektowana w celu optymalizacji przetwarzania zadań instrukcyjnych."
|
88
|
+
},
|
89
|
+
"Qwen/Qwen2.5-72B-Instruct": {
|
90
|
+
"description": "Qwen2.5 to nowa seria dużych modeli językowych, z silniejszymi zdolnościami rozumienia i generacji."
|
91
|
+
},
|
92
|
+
"Qwen/Qwen2.5-7B-Instruct": {
|
93
|
+
"description": "Qwen2.5 to nowa seria dużych modeli językowych, zaprojektowana w celu optymalizacji przetwarzania zadań instrukcyjnych."
|
94
|
+
},
|
95
|
+
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
96
|
+
"description": "Qwen2.5-Coder koncentruje się na pisaniu kodu."
|
97
|
+
},
|
98
|
+
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
99
|
+
"description": "Qwen2.5-Math koncentruje się na rozwiązywaniu problemów w dziedzinie matematyki, oferując profesjonalne odpowiedzi na trudne pytania."
|
100
|
+
},
|
59
101
|
"THUDM/glm-4-9b-chat": {
|
60
102
|
"description": "GLM-4 9B to otwarta wersja, oferująca zoptymalizowane doświadczenie dialogowe dla aplikacji konwersacyjnych."
|
61
103
|
},
|
@@ -131,6 +173,15 @@
|
|
131
173
|
"accounts/yi-01-ai/models/yi-large": {
|
132
174
|
"description": "Model Yi-Large, oferujący doskonałe możliwości przetwarzania wielojęzycznego, nadający się do różnych zadań generowania i rozumienia języka."
|
133
175
|
},
|
176
|
+
"ai21-jamba-1.5-large": {
|
177
|
+
"description": "Model wielojęzyczny z 398 miliardami parametrów (94 miliardy aktywnych), oferujący okno kontekstowe o długości 256K, wywoływanie funkcji, strukturalne wyjście i generację opartą na kontekście."
|
178
|
+
},
|
179
|
+
"ai21-jamba-1.5-mini": {
|
180
|
+
"description": "Model wielojęzyczny z 52 miliardami parametrów (12 miliardów aktywnych), oferujący okno kontekstowe o długości 256K, wywoływanie funkcji, strukturalne wyjście i generację opartą na kontekście."
|
181
|
+
},
|
182
|
+
"ai21-jamba-instruct": {
|
183
|
+
"description": "Model LLM oparty na Mamba, zaprojektowany do osiągania najlepszej wydajności, jakości i efektywności kosztowej."
|
184
|
+
},
|
134
185
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
135
186
|
"description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, osiągając doskonałe wyniki w szerokim zakresie ocen, jednocześnie oferując szybkość i koszty na poziomie naszych modeli średniej klasy."
|
136
187
|
},
|
@@ -227,6 +278,12 @@
|
|
227
278
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
228
279
|
"description": "Dolphin Mixtral 8x22B to model zaprojektowany do przestrzegania instrukcji, dialogów i programowania."
|
229
280
|
},
|
281
|
+
"cohere-command-r": {
|
282
|
+
"description": "Command R to skalowalny model generatywny, który koncentruje się na RAG i użyciu narzędzi, aby umożliwić AI na skalę produkcyjną dla przedsiębiorstw."
|
283
|
+
},
|
284
|
+
"cohere-command-r-plus": {
|
285
|
+
"description": "Command R+ to model zoptymalizowany pod kątem RAG, zaprojektowany do obsługi obciążeń roboczych na poziomie przedsiębiorstwa."
|
286
|
+
},
|
230
287
|
"command-r": {
|
231
288
|
"description": "Command R to LLM zoptymalizowany do dialogów i zadań z długim kontekstem, szczególnie odpowiedni do dynamicznej interakcji i zarządzania wiedzą."
|
232
289
|
},
|
@@ -434,6 +491,8 @@
|
|
434
491
|
"internlm/internlm2_5-7b-chat": {
|
435
492
|
"description": "InternLM2.5 oferuje inteligentne rozwiązania dialogowe w różnych scenariuszach."
|
436
493
|
},
|
494
|
+
"jamba-1.5-large": {},
|
495
|
+
"jamba-1.5-mini": {},
|
437
496
|
"llama-3.1-70b-instruct": {
|
438
497
|
"description": "Model Llama 3.1 70B Instruct, z 70B parametrami, oferujący doskonałe osiągi w dużych zadaniach generowania tekstu i poleceń."
|
439
498
|
},
|
@@ -497,6 +556,21 @@
|
|
497
556
|
"mathstral": {
|
498
557
|
"description": "MathΣtral zaprojektowany do badań naukowych i wnioskowania matematycznego, oferujący efektywne możliwości obliczeniowe i interpretację wyników."
|
499
558
|
},
|
559
|
+
"meta-llama-3-70b-instruct": {
|
560
|
+
"description": "Potężny model z 70 miliardami parametrów, doskonały w rozumowaniu, kodowaniu i szerokich zastosowaniach językowych."
|
561
|
+
},
|
562
|
+
"meta-llama-3-8b-instruct": {
|
563
|
+
"description": "Wszechstronny model z 8 miliardami parametrów, zoptymalizowany do zadań dialogowych i generacji tekstu."
|
564
|
+
},
|
565
|
+
"meta-llama-3.1-405b-instruct": {
|
566
|
+
"description": "Modele tekstowe Llama 3.1 dostosowane do instrukcji, zoptymalizowane do wielojęzycznych przypadków użycia dialogowego, przewyższają wiele dostępnych modeli open source i zamkniętych w powszechnych benchmarkach branżowych."
|
567
|
+
},
|
568
|
+
"meta-llama-3.1-70b-instruct": {
|
569
|
+
"description": "Modele tekstowe Llama 3.1 dostosowane do instrukcji, zoptymalizowane do wielojęzycznych przypadków użycia dialogowego, przewyższają wiele dostępnych modeli open source i zamkniętych w powszechnych benchmarkach branżowych."
|
570
|
+
},
|
571
|
+
"meta-llama-3.1-8b-instruct": {
|
572
|
+
"description": "Modele tekstowe Llama 3.1 dostosowane do instrukcji, zoptymalizowane do wielojęzycznych przypadków użycia dialogowego, przewyższają wiele dostępnych modeli open source i zamkniętych w powszechnych benchmarkach branżowych."
|
573
|
+
},
|
500
574
|
"meta-llama/Llama-2-13b-chat-hf": {
|
501
575
|
"description": "LLaMA-2 Chat (13B) oferuje doskonałe możliwości przetwarzania języka i znakomite doświadczenie interakcji."
|
502
576
|
},
|
@@ -584,12 +658,21 @@
|
|
584
658
|
"mistral-large": {
|
585
659
|
"description": "Mixtral Large to flagowy model Mistral, łączący zdolności generowania kodu, matematyki i wnioskowania, wspierający kontekst o długości 128k."
|
586
660
|
},
|
661
|
+
"mistral-large-2407": {
|
662
|
+
"description": "Mistral Large (2407) to zaawansowany model językowy (LLM) z najnowocześniejszymi zdolnościami rozumowania, wiedzy i kodowania."
|
663
|
+
},
|
587
664
|
"mistral-large-latest": {
|
588
665
|
"description": "Mistral Large to flagowy model, doskonały w zadaniach wielojęzycznych, złożonym wnioskowaniu i generowaniu kodu, idealny do zaawansowanych zastosowań."
|
589
666
|
},
|
590
667
|
"mistral-nemo": {
|
591
668
|
"description": "Mistral Nemo, opracowany przez Mistral AI i NVIDIA, to model 12B o wysokiej wydajności."
|
592
669
|
},
|
670
|
+
"mistral-small": {
|
671
|
+
"description": "Mistral Small może być używany w każdym zadaniu opartym na języku, które wymaga wysokiej wydajności i niskiej latencji."
|
672
|
+
},
|
673
|
+
"mistral-small-latest": {
|
674
|
+
"description": "Mistral Small to opcja o wysokiej efektywności kosztowej, szybka i niezawodna, odpowiednia do tłumaczeń, podsumowań i analizy sentymentu."
|
675
|
+
},
|
593
676
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
594
677
|
"description": "Mistral (7B) Instruct jest znany z wysokiej wydajności, idealny do różnorodnych zadań językowych."
|
595
678
|
},
|
@@ -677,9 +760,30 @@
|
|
677
760
|
"phi3:14b": {
|
678
761
|
"description": "Phi-3 to lekki model otwarty wydany przez Microsoft, odpowiedni do efektywnej integracji i dużej skali wnioskowania wiedzy."
|
679
762
|
},
|
763
|
+
"pixtral-12b-2409": {
|
764
|
+
"description": "Model Pixtral wykazuje silne zdolności w zadaniach związanych z analizą wykresów i zrozumieniem obrazów, pytaniami dokumentowymi, wielomodalnym rozumowaniem i przestrzeganiem instrukcji, zdolny do przyjmowania obrazów w naturalnej rozdzielczości i proporcjach, a także do przetwarzania dowolnej liczby obrazów w długim oknie kontekstowym o długości do 128K tokenów."
|
765
|
+
},
|
766
|
+
"qwen-coder-turbo-latest": {
|
767
|
+
"description": "Model kodowania Qwen."
|
768
|
+
},
|
680
769
|
"qwen-long": {
|
681
770
|
"description": "Qwen to ultra-duży model językowy, który obsługuje długie konteksty tekstowe oraz funkcje dialogowe oparte na długich dokumentach i wielu dokumentach."
|
682
771
|
},
|
772
|
+
"qwen-math-plus-latest": {
|
773
|
+
"description": "Model matematyczny Qwen, stworzony specjalnie do rozwiązywania problemów matematycznych."
|
774
|
+
},
|
775
|
+
"qwen-math-turbo-latest": {
|
776
|
+
"description": "Model matematyczny Qwen, stworzony specjalnie do rozwiązywania problemów matematycznych."
|
777
|
+
},
|
778
|
+
"qwen-max-latest": {
|
779
|
+
"description": "Model językowy Qwen Max o skali miliardów parametrów, obsługujący różne języki, w tym chiński i angielski, będący API modelu za produktem Qwen 2.5."
|
780
|
+
},
|
781
|
+
"qwen-plus-latest": {
|
782
|
+
"description": "Wzmocniona wersja modelu językowego Qwen Plus, obsługująca różne języki, w tym chiński i angielski."
|
783
|
+
},
|
784
|
+
"qwen-turbo-latest": {
|
785
|
+
"description": "Model językowy Qwen Turbo, obsługujący różne języki, w tym chiński i angielski."
|
786
|
+
},
|
683
787
|
"qwen-vl-chat-v1": {
|
684
788
|
"description": "Qwen VL obsługuje elastyczne interakcje, w tym wiele obrazów, wielokrotne pytania i odpowiedzi oraz zdolności twórcze."
|
685
789
|
},
|
@@ -698,6 +802,33 @@
|
|
698
802
|
"qwen2": {
|
699
803
|
"description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
|
700
804
|
},
|
805
|
+
"qwen2.5-14b-instruct": {
|
806
|
+
"description": "Model Qwen 2.5 o skali 14B, udostępniony na zasadzie open source."
|
807
|
+
},
|
808
|
+
"qwen2.5-32b-instruct": {
|
809
|
+
"description": "Model Qwen 2.5 o skali 32B, udostępniony na zasadzie open source."
|
810
|
+
},
|
811
|
+
"qwen2.5-72b-instruct": {
|
812
|
+
"description": "Model Qwen 2.5 o skali 72B, udostępniony na zasadzie open source."
|
813
|
+
},
|
814
|
+
"qwen2.5-7b-instruct": {
|
815
|
+
"description": "Model Qwen 2.5 o skali 7B, udostępniony na zasadzie open source."
|
816
|
+
},
|
817
|
+
"qwen2.5-coder-1.5b-instruct": {
|
818
|
+
"description": "Otwarta wersja modelu kodowania Qwen."
|
819
|
+
},
|
820
|
+
"qwen2.5-coder-7b-instruct": {
|
821
|
+
"description": "Otwarta wersja modelu kodowania Qwen."
|
822
|
+
},
|
823
|
+
"qwen2.5-math-1.5b-instruct": {
|
824
|
+
"description": "Model Qwen-Math, który ma silne zdolności rozwiązywania problemów matematycznych."
|
825
|
+
},
|
826
|
+
"qwen2.5-math-72b-instruct": {
|
827
|
+
"description": "Model Qwen-Math, który ma silne zdolności rozwiązywania problemów matematycznych."
|
828
|
+
},
|
829
|
+
"qwen2.5-math-7b-instruct": {
|
830
|
+
"description": "Model Qwen-Math, który ma silne zdolności rozwiązywania problemów matematycznych."
|
831
|
+
},
|
701
832
|
"qwen2:0.5b": {
|
702
833
|
"description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
|
703
834
|
},
|
package/locales/pt-BR/chat.json
CHANGED
@@ -5,7 +5,7 @@
|
|
5
5
|
"agentDefaultMessage": "Olá, eu sou **{{name}}**, você pode começar a conversar comigo agora ou ir para [Configurações do Assistente]({{url}}) para completar minhas informações.",
|
6
6
|
"agentDefaultMessageWithSystemRole": "Olá, eu sou **{{name}}**, {{systemRole}}, vamos conversar!",
|
7
7
|
"agentDefaultMessageWithoutEdit": "Olá, sou o **{{name}}**, vamos começar a conversa!",
|
8
|
-
"
|
8
|
+
"agents": "Assistente",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "Gerando",
|
11
11
|
"thinking": "Pensando",
|
@@ -81,7 +81,7 @@
|
|
81
81
|
},
|
82
82
|
"regenerate": "Regenerar",
|
83
83
|
"roleAndArchive": "Função e Arquivo",
|
84
|
-
"searchAgentPlaceholder": "
|
84
|
+
"searchAgentPlaceholder": "Assistente de busca...",
|
85
85
|
"sendPlaceholder": "Digite a mensagem...",
|
86
86
|
"sessionGroup": {
|
87
87
|
"config": "Gerenciar grupos",
|
@@ -35,6 +35,9 @@
|
|
35
35
|
"Gryphe/MythoMax-L2-13b": {
|
36
36
|
"description": "MythoMax-L2 (13B) é um modelo inovador, adequado para aplicações em múltiplas áreas e tarefas complexas."
|
37
37
|
},
|
38
|
+
"Max-32k": {
|
39
|
+
"description": "O Spark Max 32K possui uma grande capacidade de processamento de contexto, com uma compreensão e raciocínio lógico mais robustos, suportando entradas de texto de 32K tokens, adequado para leitura de documentos longos, perguntas e respostas sobre conhecimento privado e outros cenários."
|
40
|
+
},
|
38
41
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
39
42
|
"description": "Hermes 2 Mixtral 8x7B DPO é uma fusão de múltiplos modelos altamente flexível, projetada para oferecer uma experiência criativa excepcional."
|
40
43
|
},
|
package/locales/ru-RU/chat.json
CHANGED
@@ -5,7 +5,7 @@
|
|
5
5
|
"agentDefaultMessage": "Здравствуйте, я **{{name}}**. Вы можете сразу начать со мной разговор или перейти в [настройки помощника]({{url}}), чтобы дополнить мою информацию.",
|
6
6
|
"agentDefaultMessageWithSystemRole": "Привет, я **{{name}}**, {{systemRole}}. Давай начнем разговор!",
|
7
7
|
"agentDefaultMessageWithoutEdit": "Привет, я **{{name}}**, давай начнём разговор!",
|
8
|
-
"
|
8
|
+
"agents": "Ассистент",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "Генерация",
|
11
11
|
"thinking": "В процессе размышлений",
|
@@ -81,7 +81,7 @@
|
|
81
81
|
},
|
82
82
|
"regenerate": "Сгенерировать заново",
|
83
83
|
"roleAndArchive": "Роль и архив",
|
84
|
-
"searchAgentPlaceholder": "Поиск
|
84
|
+
"searchAgentPlaceholder": "Поиск помощника...",
|
85
85
|
"sendPlaceholder": "Введите сообщение...",
|
86
86
|
"sessionGroup": {
|
87
87
|
"config": "Управление группами",
|
@@ -35,6 +35,9 @@
|
|
35
35
|
"Gryphe/MythoMax-L2-13b": {
|
36
36
|
"description": "MythoMax-L2 (13B) — это инновационная модель, подходящая для многообластных приложений и сложных задач."
|
37
37
|
},
|
38
|
+
"Max-32k": {
|
39
|
+
"description": "Spark Max 32K оснащен высокой способностью обработки контекста, улучшенным пониманием контекста и логическим выводом, поддерживает текстовый ввод до 32K токенов, подходит для чтения длинных документов, частных вопросов и ответов и других сценариев"
|
40
|
+
},
|
38
41
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
39
42
|
"description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта."
|
40
43
|
},
|
package/locales/tr-TR/chat.json
CHANGED
@@ -5,7 +5,7 @@
|
|
5
5
|
"agentDefaultMessage": "Merhaba, ben **{{name}}**. Hemen benimle konuşmaya başlayabilir veya [Asistan Ayarları]({{url}}) sayfasına giderek bilgilerimi güncelleyebilirsin.",
|
6
6
|
"agentDefaultMessageWithSystemRole": "Merhaba, Ben **{{name}}**, {{systemRole}}. Hemen sohbet etmeye başlayalım!",
|
7
7
|
"agentDefaultMessageWithoutEdit": "Merhaba, ben **{{name}}**. Konuşmaya başlayalım!",
|
8
|
-
"
|
8
|
+
"agents": "Asistan",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "Üretiliyor",
|
11
11
|
"thinking": "Düşünülüyor",
|
@@ -81,7 +81,7 @@
|
|
81
81
|
},
|
82
82
|
"regenerate": "Tekrarla",
|
83
83
|
"roleAndArchive": "Rol ve Arşiv",
|
84
|
-
"searchAgentPlaceholder": "Arama
|
84
|
+
"searchAgentPlaceholder": "Arama Asistanı...",
|
85
85
|
"sendPlaceholder": "Mesajınızı buraya yazın...",
|
86
86
|
"sessionGroup": {
|
87
87
|
"config": "Grup Yönetimi",
|
@@ -35,6 +35,9 @@
|
|
35
35
|
"Gryphe/MythoMax-L2-13b": {
|
36
36
|
"description": "MythoMax-L2 (13B), çok alanlı uygulamalar ve karmaşık görevler için uygun yenilikçi bir modeldir."
|
37
37
|
},
|
38
|
+
"Max-32k": {
|
39
|
+
"description": "Spark Max 32K, büyük bağlam işleme yeteneği, daha güçlü bağlam anlama ve mantıksal akıl yürütme yeteneği ile donatılmıştır. 32K token'lık metin girişi destekler ve uzun belgelerin okunması, özel bilgi sorgulamaları gibi senaryolar için uygundur."
|
40
|
+
},
|
38
41
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
39
42
|
"description": "Hermes 2 Mixtral 8x7B DPO, olağanüstü yaratıcı deneyimler sunmak için tasarlanmış son derece esnek bir çoklu model birleşimidir."
|
40
43
|
},
|
package/locales/vi-VN/chat.json
CHANGED
@@ -5,7 +5,7 @@
|
|
5
5
|
"agentDefaultMessage": "Xin chào, tôi là **{{name}}**, bạn có thể bắt đầu trò chuyện với tôi ngay bây giờ, hoặc bạn có thể đến [Cài đặt trợ lý]({{url}}) để hoàn thiện thông tin của tôi.",
|
6
6
|
"agentDefaultMessageWithSystemRole": "Xin chào, tôi là **{{name}}**, {{systemRole}}. Hãy bắt đầu trò chuyện ngay!",
|
7
7
|
"agentDefaultMessageWithoutEdit": "Xin chào, tôi là **{{name}}**, chúng ta hãy bắt đầu trò chuyện nào!",
|
8
|
-
"
|
8
|
+
"agents": "Trợ lý",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "Đang tạo",
|
11
11
|
"thinking": "Đang suy nghĩ",
|
@@ -81,7 +81,7 @@
|
|
81
81
|
},
|
82
82
|
"regenerate": "Tạo lại",
|
83
83
|
"roleAndArchive": "Vai trò và lưu trữ",
|
84
|
-
"searchAgentPlaceholder": "
|
84
|
+
"searchAgentPlaceholder": "Trợ lý tìm kiếm...",
|
85
85
|
"sendPlaceholder": "Nhập nội dung trò chuyện...",
|
86
86
|
"sessionGroup": {
|
87
87
|
"config": "Quản lý nhóm",
|