@lobehub/chat 1.138.0 → 1.138.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/docs/self-hosting/environment-variables/auth.mdx +17 -0
- package/locales/ar/chat.json +1 -1
- package/locales/ar/common.json +1 -1
- package/locales/ar/models.json +35 -8
- package/locales/ar/plugin.json +1 -1
- package/locales/ar/welcome.json +1 -1
- package/locales/bg-BG/chat.json +1 -1
- package/locales/bg-BG/common.json +1 -1
- package/locales/bg-BG/models.json +35 -8
- package/locales/bg-BG/plugin.json +1 -1
- package/locales/bg-BG/welcome.json +1 -1
- package/locales/de-DE/chat.json +1 -1
- package/locales/de-DE/common.json +1 -1
- package/locales/de-DE/models.json +35 -8
- package/locales/de-DE/plugin.json +1 -1
- package/locales/de-DE/welcome.json +1 -1
- package/locales/en-US/chat.json +1 -1
- package/locales/en-US/common.json +1 -1
- package/locales/en-US/models.json +35 -8
- package/locales/en-US/plugin.json +1 -1
- package/locales/en-US/welcome.json +1 -1
- package/locales/es-ES/chat.json +1 -1
- package/locales/es-ES/common.json +1 -1
- package/locales/es-ES/models.json +35 -8
- package/locales/es-ES/plugin.json +1 -1
- package/locales/es-ES/welcome.json +1 -1
- package/locales/fa-IR/chat.json +1 -1
- package/locales/fa-IR/common.json +1 -1
- package/locales/fa-IR/models.json +35 -8
- package/locales/fa-IR/plugin.json +1 -1
- package/locales/fa-IR/welcome.json +1 -1
- package/locales/fr-FR/chat.json +1 -1
- package/locales/fr-FR/common.json +1 -1
- package/locales/fr-FR/models.json +35 -8
- package/locales/fr-FR/plugin.json +1 -1
- package/locales/fr-FR/welcome.json +1 -1
- package/locales/it-IT/chat.json +1 -1
- package/locales/it-IT/common.json +1 -1
- package/locales/it-IT/models.json +35 -8
- package/locales/it-IT/plugin.json +1 -1
- package/locales/it-IT/welcome.json +1 -1
- package/locales/ja-JP/chat.json +1 -1
- package/locales/ja-JP/common.json +1 -1
- package/locales/ja-JP/models.json +35 -8
- package/locales/ja-JP/plugin.json +1 -1
- package/locales/ja-JP/welcome.json +1 -1
- package/locales/ko-KR/chat.json +1 -1
- package/locales/ko-KR/common.json +1 -1
- package/locales/ko-KR/models.json +35 -8
- package/locales/ko-KR/plugin.json +1 -1
- package/locales/ko-KR/welcome.json +1 -1
- package/locales/nl-NL/chat.json +1 -1
- package/locales/nl-NL/common.json +1 -1
- package/locales/nl-NL/models.json +35 -8
- package/locales/nl-NL/plugin.json +1 -1
- package/locales/nl-NL/welcome.json +1 -1
- package/locales/pl-PL/chat.json +1 -1
- package/locales/pl-PL/common.json +1 -1
- package/locales/pl-PL/models.json +35 -8
- package/locales/pl-PL/plugin.json +1 -1
- package/locales/pl-PL/welcome.json +1 -1
- package/locales/pt-BR/chat.json +1 -1
- package/locales/pt-BR/common.json +1 -1
- package/locales/pt-BR/models.json +35 -8
- package/locales/pt-BR/plugin.json +1 -1
- package/locales/pt-BR/welcome.json +1 -1
- package/locales/ru-RU/chat.json +1 -1
- package/locales/ru-RU/common.json +1 -1
- package/locales/ru-RU/models.json +35 -8
- package/locales/ru-RU/plugin.json +1 -1
- package/locales/ru-RU/welcome.json +1 -1
- package/locales/tr-TR/chat.json +1 -1
- package/locales/tr-TR/common.json +1 -1
- package/locales/tr-TR/models.json +35 -8
- package/locales/tr-TR/plugin.json +1 -1
- package/locales/tr-TR/welcome.json +1 -1
- package/locales/vi-VN/chat.json +1 -1
- package/locales/vi-VN/common.json +1 -1
- package/locales/vi-VN/models.json +35 -8
- package/locales/vi-VN/plugin.json +1 -1
- package/locales/vi-VN/welcome.json +1 -1
- package/locales/zh-CN/common.json +1 -1
- package/locales/zh-CN/models.json +35 -8
- package/locales/zh-CN/plugin.json +1 -1
- package/locales/zh-CN/welcome.json +1 -1
- package/locales/zh-TW/chat.json +1 -1
- package/locales/zh-TW/common.json +1 -1
- package/locales/zh-TW/models.json +35 -8
- package/locales/zh-TW/plugin.json +1 -1
- package/locales/zh-TW/welcome.json +1 -1
- package/package.json +1 -1
- package/packages/const/src/branding.ts +2 -2
- package/packages/const/src/index.ts +1 -0
- package/packages/const/src/version.ts +1 -1
- package/packages/model-bank/src/aiModels/ollamacloud.ts +12 -2
- package/packages/model-bank/src/aiModels/qwen.ts +124 -0
- package/packages/model-bank/src/aiModels/siliconcloud.ts +42 -0
- package/packages/model-bank/src/aiModels/vercelaigateway.ts +2 -4
- package/packages/types/src/aiChat.ts +1 -1
- package/src/app/[variants]/(auth)/next-auth/signin/AuthSignInBox.tsx +4 -4
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{OpeningQuestions.tsx → AgentWelcome/OpeningQuestions.tsx} +2 -2
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/index.tsx +38 -17
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/index.tsx +2 -2
- package/src/app/[variants]/(main)/discover/(detail)/assistant/[...slugs]/page.tsx +1 -1
- package/src/app/[variants]/(main)/discover/(detail)/mcp/[slug]/page.tsx +1 -1
- package/src/config/modelProviders/lobehub.ts +1 -1
- package/src/libs/next-auth/sso-providers/feishu.ts +83 -0
- package/src/libs/next-auth/sso-providers/index.ts +2 -0
- package/src/locales/default/common.ts +1 -1
- package/src/locales/default/plugin.ts +1 -1
- package/src/locales/default/welcome.ts +1 -1
- package/src/server/ld.ts +1 -1
- package/src/server/routers/lambda/aiChat.test.ts +2 -2
- package/src/server/routers/lambda/aiChat.ts +4 -4
- package/src/store/chat/slices/aiChat/actions/__tests__/generateAIChatV2.test.ts +76 -5
- package/src/store/chat/slices/aiChat/actions/generateAIChatV2.ts +15 -6
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/AgentsSuggest.tsx +0 -114
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/QuestionSuggest.tsx +0 -104
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/WelcomeMessage.tsx +0 -65
- /package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/AddButton.tsx +0 -0
package/CHANGELOG.md
CHANGED
|
@@ -2,6 +2,56 @@
|
|
|
2
2
|
|
|
3
3
|
# Changelog
|
|
4
4
|
|
|
5
|
+
### [Version 1.138.2](https://github.com/lobehub/lobe-chat/compare/v1.138.1...v1.138.2)
|
|
6
|
+
|
|
7
|
+
<sup>Released on **2025-10-16**</sup>
|
|
8
|
+
|
|
9
|
+
#### 💄 Styles
|
|
10
|
+
|
|
11
|
+
- **misc**: Improve welcome message.
|
|
12
|
+
|
|
13
|
+
<br/>
|
|
14
|
+
|
|
15
|
+
<details>
|
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
17
|
+
|
|
18
|
+
#### Styles
|
|
19
|
+
|
|
20
|
+
- **misc**: Improve welcome message, closes [#9747](https://github.com/lobehub/lobe-chat/issues/9747) ([c83fe13](https://github.com/lobehub/lobe-chat/commit/c83fe13))
|
|
21
|
+
|
|
22
|
+
</details>
|
|
23
|
+
|
|
24
|
+
<div align="right">
|
|
25
|
+
|
|
26
|
+
[](#readme-top)
|
|
27
|
+
|
|
28
|
+
</div>
|
|
29
|
+
|
|
30
|
+
### [Version 1.138.1](https://github.com/lobehub/lobe-chat/compare/v1.138.0...v1.138.1)
|
|
31
|
+
|
|
32
|
+
<sup>Released on **2025-10-16**</sup>
|
|
33
|
+
|
|
34
|
+
#### 🐛 Bug Fixes
|
|
35
|
+
|
|
36
|
+
- **misc**: Automatic topic creation switch does not work.
|
|
37
|
+
|
|
38
|
+
<br/>
|
|
39
|
+
|
|
40
|
+
<details>
|
|
41
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
42
|
+
|
|
43
|
+
#### What's fixed
|
|
44
|
+
|
|
45
|
+
- **misc**: Automatic topic creation switch does not work, closes [#9693](https://github.com/lobehub/lobe-chat/issues/9693) ([a02b301](https://github.com/lobehub/lobe-chat/commit/a02b301))
|
|
46
|
+
|
|
47
|
+
</details>
|
|
48
|
+
|
|
49
|
+
<div align="right">
|
|
50
|
+
|
|
51
|
+
[](#readme-top)
|
|
52
|
+
|
|
53
|
+
</div>
|
|
54
|
+
|
|
5
55
|
## [Version 1.138.0](https://github.com/lobehub/lobe-chat/compare/v1.137.10...v1.138.0)
|
|
6
56
|
|
|
7
57
|
<sup>Released on **2025-10-16**</sup>
|
package/changelog/v1.json
CHANGED
|
@@ -1,4 +1,22 @@
|
|
|
1
1
|
[
|
|
2
|
+
{
|
|
3
|
+
"children": {
|
|
4
|
+
"improvements": [
|
|
5
|
+
"Improve welcome message."
|
|
6
|
+
]
|
|
7
|
+
},
|
|
8
|
+
"date": "2025-10-16",
|
|
9
|
+
"version": "1.138.2"
|
|
10
|
+
},
|
|
11
|
+
{
|
|
12
|
+
"children": {
|
|
13
|
+
"fixes": [
|
|
14
|
+
"Automatic topic creation switch does not work."
|
|
15
|
+
]
|
|
16
|
+
},
|
|
17
|
+
"date": "2025-10-16",
|
|
18
|
+
"version": "1.138.1"
|
|
19
|
+
},
|
|
2
20
|
{
|
|
3
21
|
"children": {
|
|
4
22
|
"features": [
|
|
@@ -3,6 +3,7 @@ title: LobeChat Authentication Service Environment Variables
|
|
|
3
3
|
description: >-
|
|
4
4
|
Explore the essential environment variables for configuring authentication services in LobeChat, including OAuth SSO, NextAuth settings, and provider-specific details.
|
|
5
5
|
|
|
6
|
+
|
|
6
7
|
tags:
|
|
7
8
|
- Authentication Service
|
|
8
9
|
- OAuth SSO
|
|
@@ -279,6 +280,22 @@ LobeChat provides a complete authentication service capability when deployed. Th
|
|
|
279
280
|
- Default: `-`
|
|
280
281
|
- Example: `https://your-instance.okta.com`
|
|
281
282
|
|
|
283
|
+
### Feishu
|
|
284
|
+
|
|
285
|
+
#### `AUTH_FEISHU_APP_ID`
|
|
286
|
+
|
|
287
|
+
- Type: Required
|
|
288
|
+
- Description: App ID of the Feishu application.
|
|
289
|
+
- Default: `-`
|
|
290
|
+
- Example: `cli_9f7b1e1e1e1e1e1e`
|
|
291
|
+
|
|
292
|
+
#### `AUTH_FEISHU_APP_SECRET`
|
|
293
|
+
|
|
294
|
+
- Type: Required
|
|
295
|
+
- Description: App Secret of the Feishu application.
|
|
296
|
+
- Default: `-`
|
|
297
|
+
- Example: `AlHxxX1e1e1e1e1e1e1e1e1e1e1e1e1e`
|
|
298
|
+
|
|
282
299
|
### Generic OIDC
|
|
283
300
|
|
|
284
301
|
#### `AUTH_GENERIC_OIDC_ID`
|
package/locales/ar/chat.json
CHANGED
package/locales/ar/common.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "حذف دفعة",
|
|
32
32
|
"blog": "مدونة المنتجات",
|
|
33
33
|
"branching": "إنشاء موضوع فرعي",
|
|
34
|
-
"branchingDisable": "ميزة \"
|
|
34
|
+
"branchingDisable": "ميزة \"الموضوعات الفرعية\" غير متاحة في الوضع الحالي. لاستخدام هذه الميزة، يُرجى التبديل إلى وضع قاعدة البيانات Postgres/Pglite أو استخدام LobeHub Cloud",
|
|
35
35
|
"branchingRequiresSavedTopic": "الموضوع الحالي غير محفوظ، يجب الحفظ قبل استخدام ميزة الموضوع الفرعي",
|
|
36
36
|
"cancel": "إلغاء",
|
|
37
37
|
"changelog": "سجل التغييرات",
|
package/locales/ar/models.json
CHANGED
|
@@ -767,6 +767,9 @@
|
|
|
767
767
|
"claude-3-sonnet-20240229": {
|
|
768
768
|
"description": "Claude 3 Sonnet يوفر توازنًا مثاليًا بين الذكاء والسرعة لحمولات العمل المؤسسية. يقدم أقصى فائدة بسعر أقل، موثوق ومناسب للنشر على نطاق واسع."
|
|
769
769
|
},
|
|
770
|
+
"claude-haiku-4-5-20251001": {
|
|
771
|
+
"description": "Claude Haiku 4.5 هو نموذج Haiku الأسرع والأذكى من Anthropic، يتميز بسرعة فائقة وقدرة متقدمة على التفكير المتسلسل."
|
|
772
|
+
},
|
|
770
773
|
"claude-opus-4-1-20250805": {
|
|
771
774
|
"description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic لمعالجة المهام المعقدة للغاية. يتميز بأداء ذكي وسلس وفهم عميق."
|
|
772
775
|
},
|
|
@@ -1148,6 +1151,9 @@
|
|
|
1148
1151
|
"doubao-seed-1.6-flash": {
|
|
1149
1152
|
"description": "نموذج Doubao-Seed-1.6-flash للتفكير العميق متعدد الوسائط مع سرعة استدلال فائقة، حيث يحتاج TPOT فقط إلى 10 مللي ثانية؛ يدعم فهم النصوص والرؤية، وتفوق قدرات فهم النصوص على الجيل السابق lite، وفهم الرؤية يضاهي نماذج pro المنافسة. يدعم نافذة سياق بحجم 256k وطول إخراج يصل إلى 16k رمز."
|
|
1150
1153
|
},
|
|
1154
|
+
"doubao-seed-1.6-lite": {
|
|
1155
|
+
"description": "Doubao-Seed-1.6-lite هو نموذج تفكير متعدد الوسائط جديد كليًا، يدعم ضبط مستوى الجهد الاستدلالي (reasoning effort) بأربعة أوضاع: الحد الأدنى، منخفض، متوسط، وعالٍ. يتميز بكفاءة عالية وتكلفة مناسبة، وهو الخيار الأمثل للمهام الشائعة، مع نافذة سياق تصل إلى 256 ألف."
|
|
1156
|
+
},
|
|
1151
1157
|
"doubao-seed-1.6-thinking": {
|
|
1152
1158
|
"description": "نموذج Doubao-Seed-1.6-thinking يعزز قدرات التفكير بشكل كبير، مقارنة بـ Doubao-1.5-thinking-pro، مع تحسينات إضافية في القدرات الأساسية مثل البرمجة والرياضيات والاستدلال المنطقي، ويدعم الفهم البصري. يدعم نافذة سياق بحجم 256k وطول إخراج يصل إلى 16k رمز."
|
|
1153
1159
|
},
|
|
@@ -1541,9 +1547,6 @@
|
|
|
1541
1547
|
"glm-zero-preview": {
|
|
1542
1548
|
"description": "يمتلك GLM-Zero-Preview قدرة قوية على الاستدلال المعقد، ويظهر أداءً ممتازًا في مجالات الاستدلال المنطقي، والرياضيات، والبرمجة."
|
|
1543
1549
|
},
|
|
1544
|
-
"glm4.6:355b": {
|
|
1545
|
-
"description": "نموذج GLM-4.6 (355B) الرائد الأحدث من Zhipu يتفوق بشكل شامل على الجيل السابق في الترميز المتقدم، ومعالجة النصوص الطويلة، والاستدلال، وقدرات الوكلاء الذكيين، لا سيما في مجال البرمجة حيث يتماشى مع Claude Sonnet 4، ليصبح من أفضل نماذج الترميز في الصين."
|
|
1546
|
-
},
|
|
1547
1550
|
"google/gemini-2.0-flash": {
|
|
1548
1551
|
"description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي وتحسينات تشمل سرعة فائقة، استخدام أدوات مدمجة، توليد متعدد الوسائط، ونافذة سياق تصل إلى مليون رمز."
|
|
1549
1552
|
},
|
|
@@ -1934,12 +1937,18 @@
|
|
|
1934
1937
|
"inception/mercury-coder-small": {
|
|
1935
1938
|
"description": "Mercury Coder Small هو الخيار المثالي لمهام توليد الكود، وتصحيح الأخطاء، وإعادة الهيكلة، مع أدنى تأخير."
|
|
1936
1939
|
},
|
|
1940
|
+
"inclusionAI/Ling-1T": {
|
|
1941
|
+
"description": "Ling-1T هو أول نموذج رائد من سلسلة \"Ling 2.0\" غير المعتمد على التفكير، يحتوي على تريليون معلمة إجمالية و50 مليار معلمة نشطة لكل رمز. تم بناؤه على بنية Ling 2.0، ويهدف إلى تجاوز حدود الاستدلال الفعال والإدراك القابل للتوسع. تم تدريب Ling-1T-base على أكثر من 200 تريليون رمز عالي الجودة وغني بالاستدلال."
|
|
1942
|
+
},
|
|
1937
1943
|
"inclusionAI/Ling-flash-2.0": {
|
|
1938
1944
|
"description": "Ling-flash-2.0 هو النموذج الثالث في سلسلة بنية Ling 2.0 التي أصدرها فريق Bailing في مجموعة Ant. هو نموذج خبراء مختلط (MoE) بحجم إجمالي 100 مليار معلمة، لكنه ينشط فقط 6.1 مليار معلمة لكل رمز (غير متضمنة تمثيلات الكلمات 4.8 مليار). كنموذج خفيف الوزن، أظهر Ling-flash-2.0 أداءً يضاهي أو يتفوق على نماذج كثيفة بحجم 40 مليار معلمة ونماذج MoE أكبر في عدة تقييمات موثوقة. يهدف النموذج إلى استكشاف مسارات عالية الكفاءة من خلال تصميم معماري واستراتيجيات تدريب متقدمة، في ظل القناعة بأن \"النموذج الكبير يعني معلمات كثيرة\"."
|
|
1939
1945
|
},
|
|
1940
1946
|
"inclusionAI/Ling-mini-2.0": {
|
|
1941
1947
|
"description": "Ling-mini-2.0 هو نموذج لغة كبير صغير الحجم وعالي الأداء مبني على بنية MoE. يحتوي على 16 مليار معلمة إجمالية، لكنه ينشط فقط 1.4 مليار معلمة لكل رمز (غير متضمنة التضمين 789 مليون)، مما يحقق سرعة توليد عالية جدًا. بفضل تصميم MoE الفعال وبيانات تدريب ضخمة وعالية الجودة، رغم تنشيط معلمات قليلة، يظهر Ling-mini-2.0 أداءً متقدمًا في المهام اللاحقة يضاهي نماذج LLM كثيفة أقل من 10 مليارات معلمة ونماذج MoE أكبر."
|
|
1942
1948
|
},
|
|
1949
|
+
"inclusionAI/Ring-1T": {
|
|
1950
|
+
"description": "Ring-1T هو نموذج تفكير مفتوح المصدر بحجم تريليون معلمة، أطلقه فريق Bailing. يعتمد على بنية Ling 2.0 ونموذج Ling-1T-base، ويحتوي على تريليون معلمة إجمالية و50 مليار معلمة نشطة، ويدعم نافذة سياق تصل إلى 128 ألف. تم تحسينه من خلال تعلم التعزيز القابل للتحقق على نطاق واسع."
|
|
1951
|
+
},
|
|
1943
1952
|
"inclusionAI/Ring-flash-2.0": {
|
|
1944
1953
|
"description": "Ring-flash-2.0 هو نموذج تفكير عالي الأداء محسّن بعمق بناءً على Ling-flash-2.0-base. يستخدم بنية خبراء مختلط (MoE) بحجم إجمالي 100 مليار معلمة، لكنه ينشط فقط 6.1 مليار معلمة في كل استدلال. يحل النموذج من خلال خوارزمية icepop المبتكرة مشكلة عدم استقرار نماذج MoE الكبيرة في تدريب التعلم المعزز (RL)، مما يسمح بتحسين مستمر لقدرات الاستدلال المعقدة خلال التدريب طويل الأمد. حقق Ring-flash-2.0 تقدمًا ملحوظًا في مسابقات الرياضيات، توليد الشيفرة، والاستدلال المنطقي، متفوقًا على أفضل النماذج الكثيفة التي تقل عن 40 مليار معلمة، وقريبًا من نماذج MoE مفتوحة المصدر الأكبر ونماذج التفكير عالية الأداء المغلقة المصدر. رغم تركيزه على الاستدلال المعقد، يظهر أداءً ممتازًا في مهام الكتابة الإبداعية. بالإضافة إلى ذلك، وبفضل تصميمه المعماري الفعال، يوفر Ring-flash-2.0 أداءً قويًا مع استدلال عالي السرعة، مما يقلل بشكل كبير من تكلفة نشر نماذج التفكير في بيئات ذات حمل عالٍ."
|
|
1945
1954
|
},
|
|
@@ -2036,9 +2045,6 @@
|
|
|
2036
2045
|
"llama-3.3-instruct": {
|
|
2037
2046
|
"description": "تم تحسين نموذج Llama 3.3 المعدل للتعليمات خصيصًا لسيناريوهات المحادثة، حيث تفوق على العديد من نماذج الدردشة مفتوحة المصدر الحالية في اختبارات المعايير الصناعية الشائعة."
|
|
2038
2047
|
},
|
|
2039
|
-
"llama-4-maverick-17b-128e-instruct": {
|
|
2040
|
-
"description": "Llama 4 Maverick: نموذج عالي الأداء من سلسلة Llama، مناسب لمهام الاستدلال المتقدم، حل المشكلات المعقدة، وتنفيذ التعليمات."
|
|
2041
|
-
},
|
|
2042
2048
|
"llama-4-scout-17b-16e-instruct": {
|
|
2043
2049
|
"description": "Llama 4 Scout: نموذج عالي الأداء من سلسلة Llama، مثالي للسيناريوهات التي تتطلب إنتاجية عالية وزمن استجابة منخفض."
|
|
2044
2050
|
},
|
|
@@ -2906,6 +2912,9 @@
|
|
|
2906
2912
|
"qwen3-8b": {
|
|
2907
2913
|
"description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الصناعة في الاستدلال، والعموم، والوكلاء، واللغات المتعددة، ويدعم التبديل بين أنماط التفكير."
|
|
2908
2914
|
},
|
|
2915
|
+
"qwen3-coder-30b-a3b-instruct": {
|
|
2916
|
+
"description": "النسخة مفتوحة المصدر من نموذج Qwen3 للبرمجة. النموذج الأحدث qwen3-coder-30b-a3b-instruct مبني على Qwen3، ويتميز بقدرات قوية كوكيل برمجي، بارع في استخدام الأدوات والتفاعل مع البيئات، ويجمع بين مهارات البرمجة الذاتية والقدرات العامة."
|
|
2917
|
+
},
|
|
2909
2918
|
"qwen3-coder-480b-a35b-instruct": {
|
|
2910
2919
|
"description": "نسخة مفتوحة المصدر من نموذج كود Tongyi Qianwen. أحدث نموذج qwen3-coder-480b-a35b-instruct مبني على Qwen3 لتوليد الكود، يتمتع بقدرات قوية كوكيل برمجي، بارع في استدعاء الأدوات والتفاعل مع البيئة، قادر على البرمجة الذاتية مع أداء برمجي ممتاز وقدرات عامة."
|
|
2911
2920
|
},
|
|
@@ -2927,11 +2936,29 @@
|
|
|
2927
2936
|
"qwen3-next-80b-a3b-thinking": {
|
|
2928
2937
|
"description": "نموذج مفتوح المصدر من الجيل الجديد لوضع التفكير مبني على Qwen3، يتميز بتحسين في الالتزام بالتعليمات مقارنة بالإصدار السابق (Tongyi Qianwen 3-235B-A22B-Thinking-2507)، مع ردود ملخصة وأكثر إيجازًا من النموذج."
|
|
2929
2938
|
},
|
|
2939
|
+
"qwen3-omni-flash": {
|
|
2940
|
+
"description": "نموذج Qwen-Omni قادر على استقبال مدخلات متعددة الوسائط مثل النصوص، الصور، الصوت، والفيديو، ويولّد ردودًا على شكل نص أو صوت. يوفر أصواتًا بشرية متعددة، ويدعم إخراج الصوت بعدة لغات ولهجات، ويمكن استخدامه في مجالات مثل إنشاء النصوص، التعرف البصري، والمساعدات الصوتية."
|
|
2941
|
+
},
|
|
2930
2942
|
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
-
"description": "Qwen3 VL 235B A22B Instruct
|
|
2943
|
+
"description": "Qwen3 VL 235B A22B في وضع غير التفكير (Instruct)، مصمم لسيناريوهات الأوامر غير المعتمدة على التفكير، مع الحفاظ على قدرات قوية في الفهم البصري."
|
|
2932
2944
|
},
|
|
2933
2945
|
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
-
"description": "Qwen3 VL 235B A22B
|
|
2946
|
+
"description": "Qwen3 VL 235B A22B في وضع التفكير (نسخة مفتوحة المصدر)، مخصص للمهام المعقدة التي تتطلب استدلالًا عاليًا وفهمًا لمقاطع الفيديو الطويلة، ويقدم قدرات رائدة في الاستدلال البصري والنصي."
|
|
2947
|
+
},
|
|
2948
|
+
"qwen3-vl-30b-a3b-instruct": {
|
|
2949
|
+
"description": "Qwen3 VL 30B في وضع غير التفكير (Instruct)، موجه لسيناريوهات متابعة الأوامر العامة، مع الحفاظ على مستوى عالٍ من الفهم والتوليد متعدد الوسائط."
|
|
2950
|
+
},
|
|
2951
|
+
"qwen3-vl-30b-a3b-thinking": {
|
|
2952
|
+
"description": "Qwen-VL (نسخة مفتوحة المصدر) يوفر قدرات في الفهم البصري وتوليد النصوص، ويدعم التفاعل الذكي، الترميز البصري، الإدراك المكاني، فهم الفيديوهات الطويلة والتفكير العميق، مع دعم قوي للتعرف على النصوص المتقدمة وتعدد اللغات في البيئات المعقدة."
|
|
2953
|
+
},
|
|
2954
|
+
"qwen3-vl-8b-instruct": {
|
|
2955
|
+
"description": "Qwen3 VL 8B في وضع غير التفكير (Instruct)، مناسب لمهام التوليد والتعرف متعدد الوسائط الروتينية."
|
|
2956
|
+
},
|
|
2957
|
+
"qwen3-vl-8b-thinking": {
|
|
2958
|
+
"description": "Qwen3 VL 8B في وضع التفكير، مخصص لسيناريوهات الاستدلال والتفاعل متعدد الوسائط الخفيفة، مع الحفاظ على قدرة فهم السياق الطويل."
|
|
2959
|
+
},
|
|
2960
|
+
"qwen3-vl-flash": {
|
|
2961
|
+
"description": "Qwen3 VL Flash: نسخة خفيفة وسريعة للاستدلال، مناسبة للسيناريوهات الحساسة للزمن أو التي تتطلب معالجة عدد كبير من الطلبات."
|
|
2935
2962
|
},
|
|
2936
2963
|
"qwen3-vl-plus": {
|
|
2937
2964
|
"description": "Tongyi Qianwen VL هو نموذج توليد نصوص يمتلك قدرات فهم بصرية (صور)، لا يقتصر على التعرف الضوئي على الحروف (OCR)، بل يمكنه أيضًا التلخيص والاستدلال، مثل استخراج خصائص من صور المنتجات، وحل المسائل بناءً على صور التمارين."
|
package/locales/ar/plugin.json
CHANGED
package/locales/ar/welcome.json
CHANGED
package/locales/bg-BG/chat.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "Пакетно изтриване",
|
|
32
32
|
"blog": "Продуктов блог",
|
|
33
33
|
"branching": "Създаване на подтема",
|
|
34
|
-
"branchingDisable": "Функцията
|
|
34
|
+
"branchingDisable": "Функцията „Подтеми“ не е налична в текущия режим. За да я използвате, превключете към режим Postgres/Pglite DB или използвайте LobeHub Cloud.",
|
|
35
35
|
"branchingRequiresSavedTopic": "Текущата тема не е запазена, моля запазете я, за да използвате функцията за под-теми",
|
|
36
36
|
"cancel": "Отказ",
|
|
37
37
|
"changelog": "Дневник на промените",
|
|
@@ -767,6 +767,9 @@
|
|
|
767
767
|
"claude-3-sonnet-20240229": {
|
|
768
768
|
"description": "Claude 3 Sonnet предлага идеален баланс между интелигентност и скорост за корпоративни работни натоварвания. Той предлага максимална полезност на по-ниска цена, надежден и подходящ за мащабно внедряване."
|
|
769
769
|
},
|
|
770
|
+
"claude-haiku-4-5-20251001": {
|
|
771
|
+
"description": "Claude Haiku 4.5 е най-бързият и интелигентен Haiku модел на Anthropic, отличаващ се със светкавична скорост и разширени способности за мислене."
|
|
772
|
+
},
|
|
770
773
|
"claude-opus-4-1-20250805": {
|
|
771
774
|
"description": "Claude Opus 4.1 е най-новият и най-мощен модел на Anthropic за справяне с изключително сложни задачи. Той се отличава с изключителна производителност, интелигентност, плавност и разбиране."
|
|
772
775
|
},
|
|
@@ -1148,6 +1151,9 @@
|
|
|
1148
1151
|
"doubao-seed-1.6-flash": {
|
|
1149
1152
|
"description": "Doubao-Seed-1.6-flash е изключително бърз много модален модел за дълбоко мислене с TPOT само 10ms; поддържа както текстово, така и визуално разбиране, като текстовите му възможности надминават предишното поколение lite, а визуалното разбиране е на нивото на професионалните модели на конкурентите. Поддържа контекстен прозорец от 256k и максимална дължина на изхода до 16k токена."
|
|
1150
1153
|
},
|
|
1154
|
+
"doubao-seed-1.6-lite": {
|
|
1155
|
+
"description": "Doubao-Seed-1.6-lite е нов мултимодален модел за дълбоко мислене, поддържащ регулируеми нива на разсъждение (reasoning effort): Minimal, Low, Medium и High. Със своята висока ефективност и достъпност, той е отличен избор за често срещани задачи и поддържа контекстуален прозорец до 256k."
|
|
1156
|
+
},
|
|
1151
1157
|
"doubao-seed-1.6-thinking": {
|
|
1152
1158
|
"description": "Doubao-Seed-1.6-thinking моделът значително подобрява способностите за мислене в сравнение с Doubao-1.5-thinking-pro, с допълнителни подобрения в кодиране, математика и логическо разсъждение, като поддържа и визуално разбиране. Поддържа контекстен прозорец от 256k и максимална дължина на изхода до 16k токена."
|
|
1153
1159
|
},
|
|
@@ -1541,9 +1547,6 @@
|
|
|
1541
1547
|
"glm-zero-preview": {
|
|
1542
1548
|
"description": "GLM-Zero-Preview притежава мощни способности за сложни разсъждения, показвайки отлични резултати в логическото разсъждение, математиката и програмирането."
|
|
1543
1549
|
},
|
|
1544
|
-
"glm4.6:355b": {
|
|
1545
|
-
"description": "Най-новият флагмански модел на Zhipu — GLM-4.6 (355B) — значително надминава предшествениците си в напреднало програмиране, обработка на дълги текстове, логическо разсъждение и способности на интелигентни агенти. Особено в програмирането се изравнява с Claude Sonnet 4, превръщайки се в водещ модел за кодиране в Китай."
|
|
1546
|
-
},
|
|
1547
1550
|
"google/gemini-2.0-flash": {
|
|
1548
1551
|
"description": "Gemini 2.0 Flash предлага следващо поколение функции и подобрения, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена."
|
|
1549
1552
|
},
|
|
@@ -1934,12 +1937,18 @@
|
|
|
1934
1937
|
"inception/mercury-coder-small": {
|
|
1935
1938
|
"description": "Mercury Coder Small е идеален за задачи по генериране, отстраняване на грешки и рефакториране на код с минимална латентност."
|
|
1936
1939
|
},
|
|
1940
|
+
"inclusionAI/Ling-1T": {
|
|
1941
|
+
"description": "Ling-1T е първият флагмански non-thinking модел от серията „Ling 2.0“, с общо 1 трилион параметри и около 50 милиарда активни параметри на токен. Изграден върху архитектурата Ling 2.0, Ling-1T цели да преодолее границите на ефективното разсъждение и мащабируемото познание. Ling-1T-base е обучен върху над 20 трилиона висококачествени, интензивно логически токени."
|
|
1942
|
+
},
|
|
1937
1943
|
"inclusionAI/Ling-flash-2.0": {
|
|
1938
1944
|
"description": "Ling-flash-2.0 е третият модел от серията Ling 2.0 архитектури, публикуван от екипа на Ant Group Bailing. Това е модел с хибридни експерти (MoE) с общо 100 милиарда параметри, но при всеки токен активира само 6.1 милиарда параметри (без вграждания – 4.8 милиарда). Като леко конфигуриран модел, Ling-flash-2.0 показва в множество авторитетни оценки производителност, сравнима или дори превъзхождаща плътни (Dense) модели с 40 милиарда параметри и по-големи MoE модели. Моделът е предназначен да изследва пътища за висока ефективност чрез изключителен дизайн на архитектурата и стратегии за обучение, в контекста на общоприетото схващане, че „големият модел е равен на големи параметри“."
|
|
1939
1945
|
},
|
|
1940
1946
|
"inclusionAI/Ling-mini-2.0": {
|
|
1941
1947
|
"description": "Ling-mini-2.0 е малък, но високопроизводителен голям езиков модел, базиран на MoE архитектура. Той има общо 16 милиарда параметри, но при всеки токен активира само 1.4 милиарда (без вграждания – 789 милиона), което осигурява изключително бърза генерация. Благодарение на ефективния MoE дизайн и големия обем висококачествени тренировъчни данни, въпреки че активираните параметри са само 1.4 милиарда, Ling-mini-2.0 демонстрира върхова производителност в downstream задачи, сравнима с плътни LLM под 10 милиарда параметри и по-големи MoE модели."
|
|
1942
1948
|
},
|
|
1949
|
+
"inclusionAI/Ring-1T": {
|
|
1950
|
+
"description": "Ring-1T е отворен модел за мислене с трилион параметри, разработен от екипа на Bailing. Базиран е на архитектурата Ling 2.0 и основния модел Ling-1T-base, с общо 1 трилион параметри и 50 милиарда активни параметри, поддържащ контекстуален прозорец до 128K. Моделът е оптимизиран чрез мащабно обучение с проверими награди и подсилено обучение."
|
|
1951
|
+
},
|
|
1943
1952
|
"inclusionAI/Ring-flash-2.0": {
|
|
1944
1953
|
"description": "Ring-flash-2.0 е високопроизводителен мисловен модел, дълбоко оптимизиран на базата на Ling-flash-2.0-base. Той използва MoE архитектура с общо 100 милиарда параметри, но при всяко извод активира само 6.1 милиарда параметри. Моделът решава нестабилността на големите MoE модели при обучение с подсилено учене (RL) чрез уникалния алгоритъм icepop, което позволява непрекъснато подобряване на сложните разсъждения при дългосрочно обучение. Ring-flash-2.0 постига значителни пробиви в множество трудни бенчмаркове като математически състезания, генериране на код и логически разсъждения. Неговата производителност не само превъзхожда топ плътни модели с по-малко от 40 милиарда параметри, но и се сравнява с по-големи отворени MoE модели и затворени високопроизводителни мисловни модели. Въпреки че е фокусиран върху сложни разсъждения, моделът се представя отлично и в творческо писане. Благодарение на ефективния си архитектурен дизайн, Ring-flash-2.0 осигурява висока производителност и бърз извод, значително намалявайки разходите за внедряване на мисловни модели при висока паралелност."
|
|
1945
1954
|
},
|
|
@@ -2036,9 +2045,6 @@
|
|
|
2036
2045
|
"llama-3.3-instruct": {
|
|
2037
2046
|
"description": "Моделата Llama 3.3 с фина настройка за инструкции е оптимизирана за диалогови сценарии и надминава много съществуващи модели с отворен код в общи отраслови бенчмарк тестове."
|
|
2038
2047
|
},
|
|
2039
|
-
"llama-4-maverick-17b-128e-instruct": {
|
|
2040
|
-
"description": "Llama 4 Maverick: високопроизводителен модел от серията Llama, подходящ за напреднало разсъждение, решаване на сложни задачи и следване на инструкции."
|
|
2041
|
-
},
|
|
2042
2048
|
"llama-4-scout-17b-16e-instruct": {
|
|
2043
2049
|
"description": "Llama 4 Scout: високопроизводителен модел от серията Llama, оптимизиран за сценарии с висока пропускателна способност и ниска латентност."
|
|
2044
2050
|
},
|
|
@@ -2906,6 +2912,9 @@
|
|
|
2906
2912
|
"qwen3-8b": {
|
|
2907
2913
|
"description": "Qwen3 е ново поколение модел с значително подобрени способности, който достига водещо ниво в индустрията в области като разсъждение, общо използване, агенти и многоезичност, и поддържа превключване на режимите на разсъждение."
|
|
2908
2914
|
},
|
|
2915
|
+
"qwen3-coder-30b-a3b-instruct": {
|
|
2916
|
+
"description": "Откритият кодов модел на Tongyi Qianwen. Най-новият qwen3-coder-30b-a3b-instruct е модел за генериране на код, базиран на Qwen3, с мощни способности като Coding Agent, умело използва инструменти и взаимодейства с околната среда, способен на автономно програмиране и отлични кодови умения, съчетани с общи способности."
|
|
2917
|
+
},
|
|
2909
2918
|
"qwen3-coder-480b-a35b-instruct": {
|
|
2910
2919
|
"description": "Отворена версия на кодовия модел Tongyi Qianwen. Най-новият qwen3-coder-480b-a35b-instruct е кодов модел, базиран на Qwen3, с мощни Coding Agent способности, умения за използване на инструменти и взаимодействие с околната среда, способен на автономно програмиране с отлични кодови и общи умения."
|
|
2911
2920
|
},
|
|
@@ -2927,11 +2936,29 @@
|
|
|
2927
2936
|
"qwen3-next-80b-a3b-thinking": {
|
|
2928
2937
|
"description": "Базирано на Qwen3, ново поколение отворен модел с мисловен режим, който подобрява спазването на инструкции и предоставя по-кратки и точни обобщения в сравнение с предишната версия (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
|
|
2929
2938
|
},
|
|
2939
|
+
"qwen3-omni-flash": {
|
|
2940
|
+
"description": "Моделът Qwen-Omni приема комбинирани входове от текст, изображения, аудио и видео, и генерира отговори под формата на текст или реч. Предлага разнообразни хуманизирани гласове, поддържа много езици и диалекти, и е приложим в сценарии като текстово творчество, визуално разпознаване и гласови асистенти."
|
|
2941
|
+
},
|
|
2930
2942
|
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
-
"description": "Qwen3 VL 235B A22B Instruct
|
|
2943
|
+
"description": "Qwen3 VL 235B A22B в non-thinking режим (Instruct), подходящ за инструкции без необходимост от дълбоко разсъждение, като същевременно запазва силни визуални разбирания."
|
|
2932
2944
|
},
|
|
2933
2945
|
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
-
"description": "Qwen3 VL 235B A22B
|
|
2946
|
+
"description": "Qwen3 VL 235B A22B в мисловен режим (отворен код), предназначен за сложни задачи с интензивно разсъждение и разбиране на дълги видеа, предоставяйки водещи способности за визуално и текстово разсъждение."
|
|
2947
|
+
},
|
|
2948
|
+
"qwen3-vl-30b-a3b-instruct": {
|
|
2949
|
+
"description": "Qwen3 VL 30B в non-thinking режим (Instruct), насочен към обичайни сценарии за следване на инструкции, като същевременно поддържа високо ниво на мултимодално разбиране и генериране."
|
|
2950
|
+
},
|
|
2951
|
+
"qwen3-vl-30b-a3b-thinking": {
|
|
2952
|
+
"description": "Qwen-VL (отворен код) предлага способности за визуално разбиране и генериране на текст, поддържа взаимодействие с интелигентни агенти, визуално кодиране, пространствено възприятие, разбиране на дълги видеа и дълбоко мислене, с подобрено разпознаване на текст и многоезична поддръжка в сложни сценарии."
|
|
2953
|
+
},
|
|
2954
|
+
"qwen3-vl-8b-instruct": {
|
|
2955
|
+
"description": "Qwen3 VL 8B в non-thinking режим (Instruct), подходящ за стандартни задачи по мултимодално генериране и разпознаване."
|
|
2956
|
+
},
|
|
2957
|
+
"qwen3-vl-8b-thinking": {
|
|
2958
|
+
"description": "Qwen3 VL 8B в мисловен режим, предназначен за леки мултимодални задачи по разсъждение и взаимодействие, като същевременно запазва способността за разбиране на дълъг контекст."
|
|
2959
|
+
},
|
|
2960
|
+
"qwen3-vl-flash": {
|
|
2961
|
+
"description": "Qwen3 VL Flash: олекотена версия за високоскоростно разсъждение, подходяща за сценарии, чувствителни към закъснение или с голям обем заявки."
|
|
2935
2962
|
},
|
|
2936
2963
|
"qwen3-vl-plus": {
|
|
2937
2964
|
"description": "Tongyi Qianwen VL е текстов генеративен модел с визуални (изображения) разбирания, който не само може да извършва OCR (разпознаване на текст в изображения), но и да обобщава и прави изводи, например извличане на атрибути от снимки на продукти или решаване на задачи по математика от изображения."
|
package/locales/de-DE/chat.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "Massenlöschung",
|
|
32
32
|
"blog": "Produkt-Blog",
|
|
33
33
|
"branching": "Unterthema erstellen",
|
|
34
|
-
"branchingDisable": "Die Funktion „
|
|
34
|
+
"branchingDisable": "Die Funktion „Unterthemen“ ist im aktuellen Modus nicht verfügbar. Bitte wechsle in den Postgres-/Pglite-DB-Modus oder nutze LobeHub Cloud, um diese Funktion zu verwenden.",
|
|
35
35
|
"branchingRequiresSavedTopic": "Das aktuelle Thema wurde nicht gespeichert. Speichern Sie es, um die Unterthemenfunktion nutzen zu können.",
|
|
36
36
|
"cancel": "Abbrechen",
|
|
37
37
|
"changelog": "Änderungsprotokoll",
|
|
@@ -767,6 +767,9 @@
|
|
|
767
767
|
"claude-3-sonnet-20240229": {
|
|
768
768
|
"description": "Claude 3 Sonnet bietet eine ideale Balance zwischen Intelligenz und Geschwindigkeit für Unternehmensarbeitslasten. Es bietet maximalen Nutzen zu einem niedrigeren Preis, ist zuverlässig und für großflächige Bereitstellungen geeignet."
|
|
769
769
|
},
|
|
770
|
+
"claude-haiku-4-5-20251001": {
|
|
771
|
+
"description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic, mit blitzschneller Geschwindigkeit und erweiterter Denkfähigkeit."
|
|
772
|
+
},
|
|
770
773
|
"claude-opus-4-1-20250805": {
|
|
771
774
|
"description": "Claude Opus 4.1 ist das neueste und leistungsstärkste Modell von Anthropic zur Bewältigung hochkomplexer Aufgaben. Es überzeugt durch herausragende Leistung, Intelligenz, Flüssigkeit und Verständnis."
|
|
772
775
|
},
|
|
@@ -1148,6 +1151,9 @@
|
|
|
1148
1151
|
"doubao-seed-1.6-flash": {
|
|
1149
1152
|
"description": "Doubao-Seed-1.6-flash ist ein multimodales Modell für tiefgehendes Denken mit extrem schneller Inferenzgeschwindigkeit, TPOT benötigt nur 10 ms; unterstützt sowohl Text- als auch visuelles Verständnis, die Textverständnisfähigkeit übertrifft die vorherige Lite-Generation, das visuelle Verständnis ist vergleichbar mit den Pro-Modellen der Konkurrenz. Unterstützt ein Kontextfenster von 256k und eine maximale Ausgabelänge von 16k Tokens."
|
|
1150
1153
|
},
|
|
1154
|
+
"doubao-seed-1.6-lite": {
|
|
1155
|
+
"description": "Doubao-Seed-1.6-lite ist ein neues multimodales Modell für tiefes Denken mit einstellbarem Denkaufwand (reasoning effort) in vier Stufen: Minimal, Low, Medium und High. Es bietet ein hervorragendes Preis-Leistungs-Verhältnis und ist die beste Wahl für gängige Aufgaben, mit einem Kontextfenster von bis zu 256k."
|
|
1156
|
+
},
|
|
1151
1157
|
"doubao-seed-1.6-thinking": {
|
|
1152
1158
|
"description": "Das Doubao-Seed-1.6-thinking Modell verfügt über stark verbesserte Denkfähigkeiten. Im Vergleich zu Doubao-1.5-thinking-pro wurden die Grundfähigkeiten in Coding, Mathematik und logischem Denken weiter verbessert und unterstützt visuelles Verständnis. Unterstützt ein Kontextfenster von 256k und eine maximale Ausgabelänge von 16k Tokens."
|
|
1153
1159
|
},
|
|
@@ -1541,9 +1547,6 @@
|
|
|
1541
1547
|
"glm-zero-preview": {
|
|
1542
1548
|
"description": "GLM-Zero-Preview verfügt über starke Fähigkeiten zur komplexen Schlussfolgerung und zeigt hervorragende Leistungen in den Bereichen logisches Denken, Mathematik und Programmierung."
|
|
1543
1549
|
},
|
|
1544
|
-
"glm4.6:355b": {
|
|
1545
|
-
"description": "Das neueste Flaggschiffmodell GLM-4.6 (355B) von Zhipu übertrifft seinen Vorgänger in den Bereichen fortgeschrittenes Codieren, Verarbeitung langer Texte, logisches Schlussfolgern und Agentenfähigkeiten deutlich. Besonders im Bereich Programmierung erreicht es das Niveau von Claude Sonnet 4 und zählt damit zu den führenden Coding-Modellen in China."
|
|
1546
|
-
},
|
|
1547
1550
|
"google/gemini-2.0-flash": {
|
|
1548
1551
|
"description": "Gemini 2.0 Flash bietet Funktionen der nächsten Generation und Verbesserungen, darunter herausragende Geschwindigkeit, integrierte Werkzeugnutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens."
|
|
1549
1552
|
},
|
|
@@ -1934,12 +1937,18 @@
|
|
|
1934
1937
|
"inception/mercury-coder-small": {
|
|
1935
1938
|
"description": "Mercury Coder Small ist ideal für Codegenerierung, Debugging und Refactoring-Aufgaben mit minimaler Latenz."
|
|
1936
1939
|
},
|
|
1940
|
+
"inclusionAI/Ling-1T": {
|
|
1941
|
+
"description": "Ling-1T ist das erste Flaggschiffmodell der „Ling 2.0“-Reihe ohne Denkfunktion (non-thinking), mit insgesamt einer Billion Parametern und etwa 50 Milliarden aktiven Parametern pro Token. Es basiert auf der Ling 2.0-Architektur und zielt darauf ab, die Grenzen effizienter Schlussfolgerung und skalierbarer Kognition zu durchbrechen. Ling-1T-base wurde mit über 20 Billionen hochwertigen, reasoning-intensiven Tokens trainiert."
|
|
1942
|
+
},
|
|
1937
1943
|
"inclusionAI/Ling-flash-2.0": {
|
|
1938
1944
|
"description": "Ling-flash-2.0 ist das dritte Modell der Ling 2.0 Architekturserie, veröffentlicht vom Ant Group Bailing Team. Es handelt sich um ein Mixture-of-Experts (MoE)-Modell mit insgesamt 100 Milliarden Parametern, wobei pro Token nur 6,1 Milliarden Parameter aktiviert werden (ohne Wortvektoren 4,8 Milliarden). Als leichtgewichtige Konfiguration zeigt Ling-flash-2.0 in mehreren renommierten Benchmarks Leistungen, die mit 40-Milliarden-Dense-Modellen und größeren MoE-Modellen vergleichbar oder überlegen sind. Das Modell zielt darauf ab, durch exzellentes Architekturdesign und Trainingsstrategien effiziente Wege zu erforschen, um die gängige Annahme „großes Modell = viele Parameter“ zu hinterfragen."
|
|
1939
1945
|
},
|
|
1940
1946
|
"inclusionAI/Ling-mini-2.0": {
|
|
1941
1947
|
"description": "Ling-mini-2.0 ist ein kleines, leistungsstarkes Sprachmodell basierend auf der MoE-Architektur. Es verfügt über 16 Milliarden Gesamtparameter, aktiviert jedoch pro Token nur 1,4 Milliarden (ohne Einbettungen 789 Millionen), was eine sehr hohe Generierungsgeschwindigkeit ermöglicht. Dank effizientem MoE-Design und großem, hochwertigem Trainingsdatensatz zeigt Ling-mini-2.0 trotz der geringen aktivierten Parameter eine Spitzenleistung, die mit dichten LLMs unter 10 Milliarden und größeren MoE-Modellen in nachgelagerten Aufgaben vergleichbar ist."
|
|
1942
1948
|
},
|
|
1949
|
+
"inclusionAI/Ring-1T": {
|
|
1950
|
+
"description": "Ring-1T ist ein Open-Source-Modell für kognitives Denken im Billionen-Parameter-Maßstab, veröffentlicht vom Bailing-Team. Es basiert auf der Ling 2.0-Architektur und dem Ling-1T-base-Modell, mit insgesamt einer Billion Parametern und 50 Milliarden aktiven Parametern. Es unterstützt ein Kontextfenster von bis zu 128K und wurde durch groß angelegtes, verifizierbares, belohnungsbasiertes Reinforcement Learning optimiert."
|
|
1951
|
+
},
|
|
1943
1952
|
"inclusionAI/Ring-flash-2.0": {
|
|
1944
1953
|
"description": "Ring-flash-2.0 ist ein hochleistungsfähiges Denkmodell, das auf Ling-flash-2.0-base tief optimiert wurde. Es verwendet eine Mixture-of-Experts (MoE)-Architektur mit insgesamt 100 Milliarden Parametern, aktiviert jedoch bei jeder Inferenz nur 6,1 Milliarden Parameter. Durch den innovativen Icepop-Algorithmus löst es die Instabilitätsprobleme großer MoE-Modelle im Reinforcement Learning (RL) Training und verbessert kontinuierlich seine komplexen Inferenzfähigkeiten über lange Trainingszyklen. Ring-flash-2.0 erzielt bedeutende Durchbrüche in anspruchsvollen Benchmarks wie Mathematikwettbewerben, Codegenerierung und logischem Schließen. Seine Leistung übertrifft nicht nur dichte Spitzenmodelle unter 40 Milliarden Parametern, sondern ist auch vergleichbar mit größeren Open-Source-MoE-Modellen und proprietären Hochleistungs-Denkmodellen. Obwohl es auf komplexe Inferenz spezialisiert ist, zeigt es auch bei kreativen Schreibaufgaben hervorragende Ergebnisse. Dank seiner effizienten Architektur bietet Ring-flash-2.0 starke Leistung bei gleichzeitig hoher Inferenzgeschwindigkeit und senkt deutlich die Bereitstellungskosten in hochparallelen Szenarien."
|
|
1945
1954
|
},
|
|
@@ -2036,9 +2045,6 @@
|
|
|
2036
2045
|
"llama-3.3-instruct": {
|
|
2037
2046
|
"description": "Das Llama 3.3 Instruct-Modell ist für Dialogszenarien optimiert und übertrifft in gängigen Branchenbenchmarks viele bestehende Open-Source-Chatmodelle."
|
|
2038
2047
|
},
|
|
2039
|
-
"llama-4-maverick-17b-128e-instruct": {
|
|
2040
|
-
"description": "Llama 4 Maverick: Ein leistungsstarkes Modell der Llama-Serie, ideal für fortgeschrittenes logisches Denken, komplexe Problemlösungen und Aufgaben mit Anweisungsbefolgung."
|
|
2041
|
-
},
|
|
2042
2048
|
"llama-4-scout-17b-16e-instruct": {
|
|
2043
2049
|
"description": "Llama 4 Scout: Ein leistungsstarkes Modell der Llama-Serie, optimiert für Szenarien mit hoher Verarbeitungsgeschwindigkeit und niedriger Latenz."
|
|
2044
2050
|
},
|
|
@@ -2906,6 +2912,9 @@
|
|
|
2906
2912
|
"qwen3-8b": {
|
|
2907
2913
|
"description": "Qwen3 ist ein neues, leistungsstarkes Modell der nächsten Generation, das in den Bereichen Inferenz, Allgemeinwissen, Agenten und Mehrsprachigkeit erhebliche Fortschritte erzielt hat und den Wechsel zwischen Denkmodi unterstützt."
|
|
2908
2914
|
},
|
|
2915
|
+
"qwen3-coder-30b-a3b-instruct": {
|
|
2916
|
+
"description": "Open-Source-Version des Qwen-Codegenerierungsmodells. Das neueste qwen3-coder-30b-a3b-instruct basiert auf Qwen3 und bietet leistungsstarke Coding-Agent-Fähigkeiten. Es ist spezialisiert auf Tool-Nutzung und Interaktion mit Umgebungen, ermöglicht autonomes Programmieren und kombiniert herausragende Programmierfähigkeiten mit allgemeinen Fähigkeiten."
|
|
2917
|
+
},
|
|
2909
2918
|
"qwen3-coder-480b-a35b-instruct": {
|
|
2910
2919
|
"description": "Open-Source-Code-Modell von Tongyi Qianwen. Das neueste qwen3-coder-480b-a35b-instruct basiert auf Qwen3, verfügt über starke Coding-Agent-Fähigkeiten, ist versiert im Werkzeugaufruf und in der Umgebungskommunikation und ermöglicht selbstständiges Programmieren mit hervorragender Codequalität und allgemeinen Fähigkeiten."
|
|
2911
2920
|
},
|
|
@@ -2927,11 +2936,29 @@
|
|
|
2927
2936
|
"qwen3-next-80b-a3b-thinking": {
|
|
2928
2937
|
"description": "Ein neues Open-Source-Modell der nächsten Generation im Denkmodus basierend auf Qwen3. Im Vergleich zur vorherigen Version (Tongyi Qianwen 3-235B-A22B-Thinking-2507) wurde die Befehlsbefolgung verbessert und die Modellantworten sind prägnanter zusammengefasst."
|
|
2929
2938
|
},
|
|
2939
|
+
"qwen3-omni-flash": {
|
|
2940
|
+
"description": "Das Qwen-Omni-Modell kann kombinierte Eingaben aus Text, Bildern, Audio und Video verarbeiten und Antworten in Text- oder Sprachform generieren. Es bietet verschiedene menschenähnliche Sprachstile, unterstützt mehrsprachige und dialektale Sprachausgabe und eignet sich für Anwendungen wie Textgenerierung, visuelle Erkennung und Sprachassistenten."
|
|
2941
|
+
},
|
|
2930
2942
|
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
-
"description": "Qwen3 VL 235B A22B
|
|
2943
|
+
"description": "Qwen3 VL 235B A22B im Non-Thinking-Modus (Instruct), geeignet für Anwendungsfälle mit einfachen Anweisungen, bei gleichzeitig starker visueller Verständnisfähigkeit."
|
|
2932
2944
|
},
|
|
2933
2945
|
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
-
"description": "Qwen3 VL 235B A22B Thinking
|
|
2946
|
+
"description": "Qwen3 VL 235B A22B im Thinking-Modus (Open-Source-Version), bietet erstklassige visuelle und textbasierte Schlussfolgerungsfähigkeiten für komplexe Aufgaben mit hoher kognitiver Anforderung und Langvideo-Verständnis."
|
|
2947
|
+
},
|
|
2948
|
+
"qwen3-vl-30b-a3b-instruct": {
|
|
2949
|
+
"description": "Qwen3 VL 30B im Non-Thinking-Modus (Instruct), konzipiert für allgemeine Anweisungsfolgeszenarien mit starker multimodaler Verständnis- und Generierungsfähigkeit."
|
|
2950
|
+
},
|
|
2951
|
+
"qwen3-vl-30b-a3b-thinking": {
|
|
2952
|
+
"description": "Qwen-VL (Open-Source-Version) bietet visuelles Verständnis und Textgenerierung, unterstützt Agenteninteraktion, visuelle Kodierung, räumliches Bewusstsein, Langvideo-Verständnis und tiefes Denken. Es verfügt über starke Texterkennungs- und Mehrsprachenfähigkeiten in komplexen Szenarien."
|
|
2953
|
+
},
|
|
2954
|
+
"qwen3-vl-8b-instruct": {
|
|
2955
|
+
"description": "Qwen3 VL 8B im Non-Thinking-Modus (Instruct), geeignet für Standardaufgaben der multimodalen Generierung und Erkennung."
|
|
2956
|
+
},
|
|
2957
|
+
"qwen3-vl-8b-thinking": {
|
|
2958
|
+
"description": "Qwen3 VL 8B im Thinking-Modus, konzipiert für leichte multimodale Schlussfolgerungs- und Interaktionsszenarien, mit erhaltener Fähigkeit zum Verständnis langer Kontexte."
|
|
2959
|
+
},
|
|
2960
|
+
"qwen3-vl-flash": {
|
|
2961
|
+
"description": "Qwen3 VL Flash: eine leichtgewichtige, hochperformante Version für schnelle Inferenz, ideal für latenzkritische oder großvolumige Anfragen."
|
|
2935
2962
|
},
|
|
2936
2963
|
"qwen3-vl-plus": {
|
|
2937
2964
|
"description": "Tongyi Qianwen VL ist ein Textgenerierungsmodell mit visuellen (Bild-)Verständnisfähigkeiten. Es kann nicht nur OCR (Texterkennung in Bildern) durchführen, sondern auch weiterführende Zusammenfassungen und Schlussfolgerungen ziehen, z. B. Attribute aus Produktfotos extrahieren oder Aufgaben anhand von Übungsbildern lösen."
|
package/locales/en-US/chat.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "Batch Delete",
|
|
32
32
|
"blog": "Product Blog",
|
|
33
33
|
"branching": "Create Subtopic",
|
|
34
|
-
"branchingDisable": "The
|
|
34
|
+
"branchingDisable": "The \"Sub-topic\" feature is unavailable in the current mode. To use this feature, please switch to Postgres/Pglite DB mode or use LobeHub Cloud.",
|
|
35
35
|
"branchingRequiresSavedTopic": "Current topic is not saved, please save it first to use subtopic feature",
|
|
36
36
|
"cancel": "Cancel",
|
|
37
37
|
"changelog": "Changelog",
|