@lobehub/lobehub 2.0.0-next.201 → 2.0.0-next.203
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +2 -0
- package/locales/ar/models.json +104 -6
- package/locales/ar/plugin.json +2 -1
- package/locales/bg-BG/chat.json +2 -0
- package/locales/bg-BG/models.json +46 -4
- package/locales/bg-BG/plugin.json +2 -1
- package/locales/de-DE/chat.json +2 -0
- package/locales/de-DE/models.json +74 -4
- package/locales/de-DE/plugin.json +2 -1
- package/locales/en-US/chat.json +2 -0
- package/locales/en-US/plugin.json +2 -1
- package/locales/es-ES/chat.json +2 -0
- package/locales/es-ES/models.json +129 -4
- package/locales/es-ES/plugin.json +2 -1
- package/locales/fa-IR/chat.json +2 -0
- package/locales/fa-IR/models.json +80 -4
- package/locales/fa-IR/plugin.json +2 -1
- package/locales/fr-FR/chat.json +2 -0
- package/locales/fr-FR/models.json +67 -7
- package/locales/fr-FR/plugin.json +2 -1
- package/locales/it-IT/chat.json +2 -0
- package/locales/it-IT/models.json +39 -6
- package/locales/it-IT/plugin.json +2 -1
- package/locales/ja-JP/chat.json +2 -0
- package/locales/ja-JP/models.json +123 -7
- package/locales/ja-JP/plugin.json +2 -1
- package/locales/ko-KR/chat.json +2 -0
- package/locales/ko-KR/models.json +104 -5
- package/locales/ko-KR/plugin.json +2 -1
- package/locales/nl-NL/chat.json +2 -0
- package/locales/nl-NL/models.json +62 -5
- package/locales/nl-NL/plugin.json +2 -1
- package/locales/pl-PL/chat.json +2 -0
- package/locales/pl-PL/models.json +110 -0
- package/locales/pl-PL/plugin.json +2 -1
- package/locales/pt-BR/chat.json +2 -0
- package/locales/pt-BR/models.json +81 -5
- package/locales/pt-BR/plugin.json +2 -1
- package/locales/ru-RU/chat.json +2 -0
- package/locales/ru-RU/models.json +33 -6
- package/locales/ru-RU/plugin.json +2 -1
- package/locales/tr-TR/chat.json +2 -0
- package/locales/tr-TR/models.json +26 -7
- package/locales/tr-TR/plugin.json +2 -1
- package/locales/vi-VN/chat.json +2 -0
- package/locales/vi-VN/models.json +59 -4
- package/locales/vi-VN/plugin.json +2 -1
- package/locales/zh-CN/chat.json +2 -0
- package/locales/zh-CN/models.json +141 -5
- package/locales/zh-CN/plugin.json +2 -1
- package/locales/zh-TW/chat.json +2 -0
- package/locales/zh-TW/models.json +96 -7
- package/locales/zh-TW/plugin.json +2 -1
- package/package.json +1 -1
- package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +30 -15
- package/packages/builtin-tool-gtd/src/manifest.ts +1 -1
- package/packages/model-runtime/src/core/ModelRuntime.test.ts +44 -86
- package/packages/types/src/aiChat.ts +0 -1
- package/packages/types/src/message/ui/chat.ts +1 -1
- package/src/app/(backend)/middleware/auth/index.ts +16 -2
- package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +30 -15
- package/src/app/(backend)/webapi/chat/[provider]/route.ts +44 -40
- package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +4 -3
- package/src/app/(backend)/webapi/models/[provider]/route.test.ts +36 -13
- package/src/app/(backend)/webapi/models/[provider]/route.ts +4 -11
- package/src/features/Conversation/Messages/AssistantGroup/Tool/Render/index.tsx +21 -23
- package/src/features/Conversation/Messages/AssistantGroup/components/ContentBlock.tsx +16 -3
- package/src/features/Conversation/Messages/Task/TaskDetailPanel/index.tsx +17 -20
- package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +16 -11
- package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +6 -20
- package/src/features/Conversation/Messages/Tasks/shared/ProcessingState.tsx +10 -20
- package/src/features/User/DataStatistics.tsx +4 -4
- package/src/hooks/useQueryParam.ts +0 -2
- package/src/libs/trpc/async/asyncAuth.ts +0 -2
- package/src/libs/trpc/async/context.ts +3 -11
- package/src/locales/default/chat.ts +2 -0
- package/src/locales/default/plugin.ts +2 -1
- package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +6 -6
- package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +3 -3
- package/src/server/modules/AgentRuntime/factory.ts +39 -20
- package/src/server/modules/ModelRuntime/index.ts +138 -1
- package/src/server/routers/async/__tests__/caller.test.ts +22 -27
- package/src/server/routers/async/caller.ts +4 -6
- package/src/server/routers/async/file.ts +10 -5
- package/src/server/routers/async/image.ts +5 -4
- package/src/server/routers/async/ragEval.ts +7 -5
- package/src/server/routers/lambda/__tests__/aiChat.test.ts +8 -37
- package/src/server/routers/lambda/aiChat.ts +5 -21
- package/src/server/routers/lambda/chunk.ts +9 -28
- package/src/server/routers/lambda/image.ts +1 -7
- package/src/server/routers/lambda/ragEval.ts +1 -1
- package/src/server/routers/lambda/userMemories/reembed.ts +4 -1
- package/src/server/routers/lambda/userMemories/search.ts +7 -7
- package/src/server/routers/lambda/userMemories/shared.ts +8 -10
- package/src/server/routers/lambda/userMemories/tools.ts +140 -118
- package/src/server/routers/lambda/userMemories.test.ts +3 -7
- package/src/server/routers/lambda/userMemories.ts +44 -29
- package/src/server/services/agentRuntime/AgentRuntimeService.test.ts +87 -0
- package/src/server/services/agentRuntime/AgentRuntimeService.ts +53 -2
- package/src/server/services/agentRuntime/__tests__/executeSync.test.ts +2 -6
- package/src/server/services/agentRuntime/__tests__/stepLifecycleCallbacks.test.ts +1 -1
- package/src/server/services/chunk/index.ts +6 -5
- package/src/server/services/toolExecution/types.ts +1 -2
- package/src/services/__tests__/_url.test.ts +0 -1
- package/src/services/_url.ts +0 -3
- package/src/services/aiChat.ts +5 -12
- package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +0 -2
- package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +0 -74
package/CHANGELOG.md
CHANGED
|
@@ -2,6 +2,56 @@
|
|
|
2
2
|
|
|
3
3
|
# Changelog
|
|
4
4
|
|
|
5
|
+
## [Version 2.0.0-next.203](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.202...v2.0.0-next.203)
|
|
6
|
+
|
|
7
|
+
<sup>Released on **2026-01-04**</sup>
|
|
8
|
+
|
|
9
|
+
#### 💄 Styles
|
|
10
|
+
|
|
11
|
+
- **misc**: Update i18n.
|
|
12
|
+
|
|
13
|
+
<br/>
|
|
14
|
+
|
|
15
|
+
<details>
|
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
17
|
+
|
|
18
|
+
#### Styles
|
|
19
|
+
|
|
20
|
+
- **misc**: Update i18n, closes [#11145](https://github.com/lobehub/lobe-chat/issues/11145) ([fdadef2](https://github.com/lobehub/lobe-chat/commit/fdadef2))
|
|
21
|
+
|
|
22
|
+
</details>
|
|
23
|
+
|
|
24
|
+
<div align="right">
|
|
25
|
+
|
|
26
|
+
[](#readme-top)
|
|
27
|
+
|
|
28
|
+
</div>
|
|
29
|
+
|
|
30
|
+
## [Version 2.0.0-next.202](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.201...v2.0.0-next.202)
|
|
31
|
+
|
|
32
|
+
<sup>Released on **2026-01-03**</sup>
|
|
33
|
+
|
|
34
|
+
#### ♻ Code Refactoring
|
|
35
|
+
|
|
36
|
+
- **misc**: Refactor and fix model runtime initialize.
|
|
37
|
+
|
|
38
|
+
<br/>
|
|
39
|
+
|
|
40
|
+
<details>
|
|
41
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
42
|
+
|
|
43
|
+
#### Code refactoring
|
|
44
|
+
|
|
45
|
+
- **misc**: Refactor and fix model runtime initialize, closes [#11134](https://github.com/lobehub/lobe-chat/issues/11134) ([8078cb9](https://github.com/lobehub/lobe-chat/commit/8078cb9))
|
|
46
|
+
|
|
47
|
+
</details>
|
|
48
|
+
|
|
49
|
+
<div align="right">
|
|
50
|
+
|
|
51
|
+
[](#readme-top)
|
|
52
|
+
|
|
53
|
+
</div>
|
|
54
|
+
|
|
5
55
|
## [Version 2.0.0-next.201](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.200...v2.0.0-next.201)
|
|
6
56
|
|
|
7
57
|
<sup>Released on **2026-01-03**</sup>
|
package/changelog/v1.json
CHANGED
|
@@ -1,4 +1,22 @@
|
|
|
1
1
|
[
|
|
2
|
+
{
|
|
3
|
+
"children": {
|
|
4
|
+
"improvements": [
|
|
5
|
+
"Update i18n."
|
|
6
|
+
]
|
|
7
|
+
},
|
|
8
|
+
"date": "2026-01-04",
|
|
9
|
+
"version": "2.0.0-next.203"
|
|
10
|
+
},
|
|
11
|
+
{
|
|
12
|
+
"children": {
|
|
13
|
+
"improvements": [
|
|
14
|
+
"Refactor and fix model runtime initialize."
|
|
15
|
+
]
|
|
16
|
+
},
|
|
17
|
+
"date": "2026-01-03",
|
|
18
|
+
"version": "2.0.0-next.202"
|
|
19
|
+
},
|
|
2
20
|
{
|
|
3
21
|
"children": {
|
|
4
22
|
"fixes": [
|
package/locales/ar/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} مهمة فرعية مجمعة",
|
|
296
296
|
"task.metrics.stepsShort": "خطوات",
|
|
297
297
|
"task.metrics.toolCallsShort": "استخدامات الأداة",
|
|
298
|
+
"task.status.cancelled": "تم إلغاء المهمة",
|
|
299
|
+
"task.status.failed": "فشلت المهمة",
|
|
298
300
|
"task.status.initializing": "جارٍ تهيئة المهمة...",
|
|
299
301
|
"task.subtask": "مهمة فرعية",
|
|
300
302
|
"thread.divider": "موضوع فرعي",
|
package/locales/ar/models.json
CHANGED
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic. مقارنةً بـ Claude 3 Haiku، يقدم تحسينات في المهارات ويتفوق على أكبر نموذج سابق Claude 3 Opus في العديد من اختبارات الذكاء.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هو أذكى نموذج من Anthropic وأول نموذج
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق. يمكنه تقديم ردود شبه فورية أو استدلال تدريجي مرئي للمستخدمين. يتميز Sonnet بقوة خاصة في البرمجة، علم البيانات، الرؤية، ومهام الوكلاء.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة البرق وقدرة استدلال موسعة.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية،
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه تقديم ردود شبه فورية أو تفكير تدريجي مرئي بخطوات واضحة.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
|
|
358
|
-
"deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة
|
|
358
|
+
"deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة نموذج البرمجة، مع تحسين التوافق مع تفضيلات المستخدم. DeepSeek-V2.5 يعزز أيضًا مهارات الكتابة واتباع التعليمات.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
@@ -414,6 +414,104 @@
|
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B هو نسخة مكررة من Qwen2.5-14B وتم تحسينه باستخدام 800 ألف عينة منسقة تم إنشاؤها بواسطة DeepSeek-R1، ويقدم استدلالًا قويًا.",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B هو نسخة مكررة من Qwen2.5-32B وتم تحسينه باستخدام 800 ألف عينة منسقة تم إنشاؤها بواسطة DeepSeek-R1، ويتفوق في الرياضيات، البرمجة، والتفكير.",
|
|
416
416
|
"devstral-2:123b.description": "Devstral 2 123B يتفوق في استخدام الأدوات لاستكشاف قواعد الشيفرة، وتحرير ملفات متعددة، ودعم وكلاء هندسة البرمجيات.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite هو نموذج خفيف الوزن جديد يتميز باستجابة فائقة السرعة وجودة عالية وأداء منخفض الكمون.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k هو ترقية شاملة لـ Doubao-1.5-Pro، يحسن الأداء العام بنسبة 10٪. يدعم نافذة سياق 256k وما يصل إلى 12k من رموز الإخراج، مما يوفر أداءً أعلى ونافذة أكبر وقيمة قوية لحالات الاستخدام الأوسع.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro هو نموذج رائد من الجيل الجديد يتميز بترقيات شاملة، ويتفوق في المعرفة والبرمجة والاستدلال.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 هو نموذج استدلال عميق جديد (الإصدار m يدعم الاستدلال متعدد الوسائط أصليًا) يتفوق في الرياضيات والبرمجة والاستدلال العلمي والمهام العامة مثل الكتابة الإبداعية. يحقق أو يقترب من نتائج رائدة في معايير مثل AIME 2024 وCodeforces وGPQA. يدعم نافذة سياق 128k وما يصل إلى 16k من رموز الإخراج.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 هو نموذج استدلال عميق جديد يتفوق في الرياضيات والبرمجة والاستدلال العلمي والمهام العامة مثل الكتابة الإبداعية. يحقق أو يقترب من نتائج رائدة في معايير مثل AIME 2024 وCodeforces وGPQA. يدعم نافذة سياق 128k وما يصل إلى 16k من رموز الإخراج.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "نموذج استدلال بصري عميق جديد يتمتع بفهم واستدلال متعدد الوسائط أقوى، ويحقق نتائج متقدمة في 37 من أصل 59 معيارًا عامًا.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS هو نموذج وكيل يركز على واجهات المستخدم الرسومية، يتفاعل بسلاسة مع الواجهات من خلال الإدراك البشري والاستدلال والعمل.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري والتعرف على المستندات وفهم التفاصيل واتباع التعليمات. يدعم نافذة سياق 128k وما يصل إلى 16k من رموز الإخراج.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري والتعرف على المستندات وفهم التفاصيل واتباع التعليمات.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري والتعرف على المستندات وفهم التفاصيل واتباع التعليمات.",
|
|
427
|
+
"doubao-lite-128k.description": "استجابة فائقة السرعة مع قيمة أفضل، يوفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق 128k.",
|
|
428
|
+
"doubao-lite-32k.description": "استجابة فائقة السرعة مع قيمة أفضل، يوفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق 32k.",
|
|
429
|
+
"doubao-lite-4k.description": "استجابة فائقة السرعة مع قيمة أفضل، يوفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق 4k.",
|
|
430
|
+
"doubao-pro-256k.description": "أفضل نموذج رائد للأداء في المهام المعقدة، يحقق نتائج قوية في الأسئلة المرجعية والتلخيص والإبداع وتصنيف النصوص والمحاكاة. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق 256k.",
|
|
431
|
+
"doubao-pro-32k.description": "أفضل نموذج رائد للأداء في المهام المعقدة، يحقق نتائج قوية في الأسئلة المرجعية والتلخيص والإبداع وتصنيف النصوص والمحاكاة. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق 32k.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash هو نموذج استدلال عميق متعدد الوسائط فائق السرعة بزمن استجابة منخفض يصل إلى 10 مللي ثانية. يدعم النصوص والرؤية، ويتفوق على النموذج الخفيف السابق في فهم النصوص، ويضاهي النماذج الاحترافية المنافسة في الرؤية. يدعم نافذة سياق 256k وما يصل إلى 16k من رموز الإخراج.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite هو نموذج استدلال عميق متعدد الوسائط جديد مع جهد استدلال قابل للتعديل (أدنى، منخفض، متوسط، مرتفع)، يوفر قيمة أفضل وخيارًا قويًا للمهام الشائعة، مع نافذة سياق تصل إلى 256k.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 يعزز الاستدلال بشكل كبير، ويحسن القدرات الأساسية في البرمجة والرياضيات والمنطق مقارنة بـ Doubao-1.5-thinking-pro، مع إضافة فهم بصري. يدعم نافذة سياق 256k وما يصل إلى 16k من رموز الإخراج.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision هو نموذج استدلال بصري يقدم فهمًا واستدلالًا متعدد الوسائط أقوى للتعليم، مراجعة الصور، الفحص/الأمن، وأسئلة وأجوبة البحث بالذكاء الاصطناعي. يدعم نافذة سياق 256k وما يصل إلى 64k من رموز الإخراج.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 هو نموذج استدلال عميق متعدد الوسائط جديد مع أوضاع تلقائية، تفكير، وغير تفكير. في وضع غير التفكير، يتفوق بشكل كبير على Doubao-1.5-pro/250115. يدعم نافذة سياق 256k وما يصل إلى 16k من رموز الإخراج.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 يتمتع بقدرات أقوى في الفهم متعدد الوسائط والقدرات الوكيلة، ويدعم إدخال النصوص/الصور/الفيديو مع تخزين السياق، مما يوفر أداءً متميزًا في المهام المعقدة.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code مُحسَّن بعمق للبرمجة الوكيلة، يدعم إدخالات متعددة الوسائط (نص/صورة/فيديو) ونافذة سياق 256k، متوافق مع واجهة Anthropic API، ومناسب للبرمجة وفهم الرؤية وسير العمل الوكيلة.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "نموذج الصور Doubao من ByteDance Seed يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يدعم تحرير الصور الموجه بالنص، مع أحجام إخراج تتراوح بين 512 و1536 على الجانب الطويل.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يولد الصور من التعليمات النصية.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يولد الصور من التعليمات النصية.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision هو نموذج متعدد الوسائط من Doubao يتمتع بفهم قوي للصور واستدلال دقيق واتباع دقيق للتعليمات. يقدم أداءً ممتازًا في استخراج النصوص من الصور ومهام الاستدلال المعتمد على الصور، مما يتيح سيناريوهات أسئلة وأجوبة بصرية أكثر تعقيدًا واتساعًا.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision هو نموذج متعدد الوسائط من Doubao يتمتع بفهم قوي للصور واستدلال دقيق واتباع دقيق للتعليمات. يقدم أداءً ممتازًا في استخراج النصوص من الصور ومهام الاستدلال المعتمد على الصور، مما يتيح سيناريوهات أسئلة وأجوبة بصرية أكثر تعقيدًا واتساعًا.",
|
|
444
|
+
"emohaa.description": "Emohaa هو نموذج للصحة النفسية يتمتع بقدرات استشارية احترافية لمساعدة المستخدمين على فهم القضايا العاطفية.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B هو نموذج مفتوح المصدر وخفيف الوزن مصمم للنشر المحلي والمخصص.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B هو نموذج مفتوح المصدر ذو عدد كبير من المعلمات يتمتع بقدرات قوية في الفهم والتوليد.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B هو نموذج MoE فائق الحجم من Baidu ERNIE يتميز بقدرات استدلال ممتازة.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview هو نموذج معاينة بسياق 8K لتقييم أداء ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "معاينة ERNIE 4.5 Turbo 128K بقدرات على مستوى الإصدار، مناسبة للتكامل والاختبار التجريبي.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K هو نموذج عام عالي الأداء مدعوم بالبحث واستدعاء الأدوات، مناسب لسيناريوهات الأسئلة والأجوبة، البرمجة، والوكلاء.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K هو إصدار متوسط الطول من حيث السياق، مخصص للأسئلة والأجوبة، استرجاع قواعد المعرفة، والحوار متعدد الأدوار.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "أحدث إصدار من ERNIE 4.5 Turbo بأداء محسن شامل، مثالي كنموذج إنتاج رئيسي.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "معاينة ERNIE 4.5 Turbo VL 32K هو نموذج متعدد الوسائط بسياق طويل لتقييم قدرات الرؤية.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K هو إصدار متعدد الوسائط متوسط الطول لفهم المستندات الطويلة والصور معًا.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "أحدث إصدار من ERNIE 4.5 Turbo VL بقدرات محسنة لفهم الصور والنصوص والاستدلال.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "معاينة ERNIE 4.5 Turbo VL هو نموذج متعدد الوسائط لفهم وتوليد الصور والنصوص، مناسب لأسئلة وأجوبة بصرية وفهم المحتوى.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL هو نموذج متعدد الوسائط ناضج لفهم الصور والنصوص في بيئات الإنتاج.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B هو نموذج مفتوح المصدر متعدد الوسائط لفهم الصور والنصوص والاستدلال.",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking هو نموذج رائد متعدد الوسائط أصلي يجمع بين النص، الصورة، الصوت، والفيديو في نموذج موحد. يوفر ترقيات شاملة للقدرات في الأسئلة المعقدة، الإبداع، وسيناريوهات الوكلاء.",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "معاينة Wenxin 5.0 Thinking هو نموذج رائد متعدد الوسائط أصلي يجمع بين النص، الصورة، الصوت، والفيديو في نموذج موحد. يوفر ترقيات شاملة للقدرات في الأسئلة المعقدة، الإبداع، وسيناريوهات الوكلاء.",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K هو نموذج حواري بشخصية مخصصة لبناء شخصيات IP والدردشة طويلة الأمد.",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "معاينة ERNIE Character Fiction 8K هو نموذج لإنشاء الشخصيات والحبكات القصصية مخصص للتقييم والاختبار.",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K هو نموذج شخصيات مخصص للروايات وإنشاء الحبكات، مناسب لتوليد القصص الطويلة.",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit هو نموذج لتحرير الصور يدعم المسح، إعادة الرسم، وتوليد النسخ المتنوعة.",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K هو نموذج عام خفيف الوزن للأسئلة اليومية الحساسة للتكلفة وتوليد المحتوى.",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K هو نموذج خفيف الوزن وعالي الأداء للسيناريوهات الحساسة للتكلفة والزمن.",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K مصمم خصيصًا للروايات الطويلة وحبكات IP متعددة الشخصيات.",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K هو نموذج بدون رسوم إدخال/إخراج لفهم النصوص الطويلة والتجارب واسعة النطاق.",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K هو نموذج مجاني وسريع للدردشة اليومية والمهام النصية الخفيفة.",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K هو نموذج عالي التوافر والقيمة للخدمات عبر الإنترنت واسعة النطاق وتطبيقات المؤسسات.",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K هو نموذج فائق الخفة للأسئلة البسيطة، التصنيف، والاستدلال منخفض التكلفة.",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
|
|
473
|
+
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع تحكم عالي الجودة في إخراج الصور. يقوم بإنشاء صور من التعليمات النصية.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل نصوصًا وصورًا مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج توليد صور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] هو نموذج توليد صور يحتوي على 12 مليار معامل، مصمم لإنتاج سريع وعالي الجودة.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "نموذج توليد صور متعدد الوسائط قوي وأصلي.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "نموذج توليد صور عالي الجودة من Google.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً، يتيح توليد وتحرير الصور من خلال المحادثة.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "نموذج تحرير صور احترافي من فريق Qwen يدعم التعديلات الدلالية والمظهرية، ويحرر النصوص الصينية والإنجليزية بدقة، ويدعم تعديلات عالية الجودة مثل نقل الأسلوب وتدوير العناصر.",
|
|
483
|
+
"fal-ai/qwen-image.description": "نموذج توليد صور قوي من فريق Qwen يتميز بعرض نصوص صينية مميز وأنماط بصرية متنوعة.",
|
|
484
|
+
"flux-1-schnell.description": "نموذج تحويل نص إلى صورة يحتوي على 12 مليار معامل من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان مخصص للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
|
|
486
|
+
"flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، يجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
|
|
487
|
+
"flux-kontext-pro.description": "توليد وتحرير صور سياقية متقدمة، يجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged يجمع بين الميزات العميقة المستكشفة في \"DEV\" مع مزايا السرعة العالية في \"Schnell\"، مما يوسع حدود الأداء ويوسع نطاق التطبيقات.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "توليد صور بدقة فائقة تصل إلى 4 ميغابكسل، ينتج صورًا واضحة في غضون 10 ثوانٍ.",
|
|
490
|
+
"flux-pro-1.1.description": "نموذج توليد صور احترافي مطور بجودة صور ممتازة واتباع دقيق للتعليمات.",
|
|
491
|
+
"flux-pro.description": "نموذج توليد صور تجاري من الدرجة الأولى بجودة صور لا مثيل لها ومخرجات متنوعة.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] هو أكثر النماذج مفتوحة المصدر تقدمًا في خطوات قليلة، يتفوق على المنافسين المماثلين وحتى على نماذج غير مقطرة قوية مثل Midjourney v6.0 وDALL-E 3 (HD). تم ضبطه بدقة للحفاظ على تنوع ما قبل التدريب، مما يحسن بشكل كبير من الجودة البصرية، واتباع التعليمات، وتنوع الحجم/النسبة، والتعامل مع الخطوط، وتنوع المخرجات.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell هو نموذج توليد صور عالي الأداء لإخراج أنماط متعددة بسرعة.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) يوفر أداءً مستقرًا وقابلًا للضبط للمهام المعقدة.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) يوفر دعمًا متعدد الوسائط قويًا للمهام المعقدة.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro هو نموذج ذكاء اصطناعي عالي الأداء من Google مصمم لتوسيع نطاق المهام.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 هو نموذج متعدد الوسائط فعال لتوسيع التطبيقات على نطاق واسع.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 هو نموذج متعدد الوسائط فعال مصمم للنشر الواسع.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 هو أحدث نموذج تجريبي يحقق مكاسب ملحوظة في استخدامات النص والمتعدد الوسائط.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B هو نموذج متعدد الوسائط فعال مصمم للنشر الواسع.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B هو نموذج متعدد الوسائط فعال لتوسيع التطبيقات على نطاق واسع.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 يقدم معالجة متعددة الوسائط محسّنة للمهام المعقدة.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من Google يتميز بسرعة المعالجة ويدعم إدخال النصوص والصور والفيديو لتوسيع المهام بكفاءة.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 هو حل ذكاء اصطناعي متعدد الوسائط قابل للتوسع للمهام المعقدة.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 هو أحدث نموذج جاهز للإنتاج بجودة إخراج أعلى، خاصة في الرياضيات والسياقات الطويلة ومهام الرؤية.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 يوفر معالجة متعددة الوسائط قوية مع مرونة أكبر لتطوير التطبيقات.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 يطبق أحدث التحسينات لمعالجة متعددة الوسائط أكثر كفاءة.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro يدعم ما يصل إلى 2 مليون رمز، وهو نموذج متعدد الوسائط متوسط الحجم مثالي للمهام المعقدة.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، استخدام الأدوات الأصلية، التوليد المتعدد الوسائط، ونافذة سياق تصل إلى مليون رمز.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "نموذج تجريبي من Gemini 2.0 Flash يدعم توليد الصور.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكاليف وتقليل زمن الاستجابة.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكاليف وتقليل زمن الاستجابة.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكاليف وتقليل زمن الاستجابة.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، استخدام الأدوات الأصلية، التوليد المتعدد الوسائط، ونافذة سياق تصل إلى مليون رمز.",
|
|
417
515
|
"meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.",
|
|
418
516
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
|
|
419
517
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
|
package/locales/ar/plugin.json
CHANGED
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "تم إنشاء الخطة: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "إنشاء مهام",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "تنفيذ المهمة",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "تم إنشاء المهمة: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "جارٍ إنشاء المهمة: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "تنفيذ المهام",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "حذف المهام",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "تحديث الخطة",
|
package/locales/bg-BG/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} групови подзадачи",
|
|
296
296
|
"task.metrics.stepsShort": "стъпки",
|
|
297
297
|
"task.metrics.toolCallsShort": "използвания на инструменти",
|
|
298
|
+
"task.status.cancelled": "Задачата е отменена",
|
|
299
|
+
"task.status.failed": "Задачата е неуспешна",
|
|
298
300
|
"task.status.initializing": "Инициализиране на задачата...",
|
|
299
301
|
"task.subtask": "Подзадача",
|
|
300
302
|
"thread.divider": "Подтема",
|
|
@@ -271,17 +271,17 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва подобрение в различни умения и надминава предишния най-голям модел Claude 3 Opus в много интелигентни бенчмаркове.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да генерира почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни,
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да генерира почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни, визуални задачи и задачи за агенти.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic,
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
|
|
287
287
|
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено поетапно мислене с видим процес.",
|
|
@@ -348,6 +348,48 @@
|
|
|
348
348
|
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 надгражда DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct, комбинирайки общи и кодови способности. Подобрява писането и следването на инструкции за по-добро съответствие с предпочитанията и показва значителни подобрения в AlpacaEval 2.0, ArenaHard, AlignBench и MT-Bench.",
|
|
349
349
|
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus е обновен модел V3.1, позициониран като хибриден агентен LLM. Отстранява докладвани от потребители проблеми и подобрява стабилността, езиковата последователност и намалява смесените китайски/английски и аномални символи. Интегрира режими на мислене и немислене с шаблони за чат за гъвкаво превключване. Подобрява и производителността на Code Agent и Search Agent за по-надеждно използване на инструменти и многоетапни задачи.",
|
|
350
350
|
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 използва хибридна архитектура за разсъждение и поддържа както мислещ, така и немислещ режим.",
|
|
351
|
+
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp е експериментална версия V3.2, която служи като мост към следващата архитектура. Добавя DeepSeek Sparse Attention (DSA) върху V3.1-Terminus за подобряване на ефективността при обучение и извеждане с дълъг контекст, с оптимизации за използване на инструменти, разбиране на дълги документи и многoетапно разсъждение. Идеален е за изследване на по-висока ефективност при разсъждение с големи контекстуални бюджети.",
|
|
352
|
+
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 е MoE модел с 671 милиарда параметъра, използващ MLA и DeepSeekMoE с балансирано натоварване без загуби за ефективно обучение и извеждане. Предварително обучен върху 14.8 трилиона висококачествени токени със SFT и RL, той превъзхожда други отворени модели и се доближава до водещите затворени модели.",
|
|
353
|
+
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) е иновативен модел, предлагащ дълбоко езиково разбиране и интеракция.",
|
|
354
|
+
"deepseek-ai/deepseek-r1.description": "Модел от ново поколение с висока ефективност, силен в разсъждение, математика и програмиране.",
|
|
355
|
+
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
|
356
|
+
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
|
357
|
+
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
|
|
358
|
+
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
|
|
359
|
+
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
|
360
|
+
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
|
361
|
+
"deepseek-ocr.description": "DeepSeek-OCR е визионно-езиков модел от DeepSeek AI, фокусиран върху OCR и „контекстуална оптична компресия“. Изследва компресиране на контекстуална информация от изображения, ефективно обработва документи и ги преобразува в структурирани текстови формати като Markdown. Прецизно разпознава текст в изображения, което го прави идеален за дигитализация на документи, извличане на текст и структурирана обработка.",
|
|
362
|
+
"deepseek-r1-0528.description": "Пълен модел с 685 милиарда параметъра, пуснат на 28.05.2025. DeepSeek-R1 използва мащабно подсилено обучение след предварителното обучение, значително подобрявайки разсъждението с минимални етикетирани данни и се представя силно в математика, програмиране и езиково разсъждение.",
|
|
363
|
+
"deepseek-r1-250528.description": "DeepSeek R1 250528 е пълният модел за разсъждение на DeepSeek-R1, предназначен за трудни математически и логически задачи.",
|
|
364
|
+
"deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B бързо издание с търсене в реално време в уеб, осигуряващо по-бързи отговори при запазване на производителността.",
|
|
365
|
+
"deepseek-r1-70b-online.description": "DeepSeek R1 70B стандартно издание с търсене в реално време в уеб, подходящо за актуални чат и текстови задачи.",
|
|
366
|
+
"deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B комбинира разсъждението на R1 с екосистемата на Llama.",
|
|
367
|
+
"deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B е дистилиран от Llama-3.1-8B с използване на изходи от DeepSeek R1.",
|
|
368
|
+
"deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama е дистилиран от DeepSeek-R1 върху Llama.",
|
|
369
|
+
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B е дистилиран модел на R1, базиран на Qianfan-70B с висока стойност.",
|
|
370
|
+
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B е дистилиран модел на R1, базиран на Qianfan-8B за малки и средни приложения.",
|
|
371
|
+
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B е дистилиран модел на R1, базиран на Llama-70B.",
|
|
372
|
+
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B е ултралек дистилиран модел за среди с много ниски ресурси.",
|
|
373
|
+
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B е среден по размер дистилиран модел за многосценарийно внедряване.",
|
|
374
|
+
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B е дистилиран модел на R1, базиран на Qwen-32B, балансиращ производителност и разходи.",
|
|
375
|
+
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B е лек дистилиран модел за edge и частни корпоративни среди.",
|
|
376
|
+
"deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen е дистилиран от DeepSeek-R1 върху Qwen.",
|
|
377
|
+
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
|
|
378
|
+
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
|
|
379
|
+
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
|
|
380
|
+
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
|
|
381
|
+
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
|
|
382
|
+
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
|
|
383
|
+
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus е оптимизиран за терминални устройства LLM от DeepSeek.",
|
|
384
|
+
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 е модел за дълбоко разсъждение, съответстващ на версията Terminus, създаден за високопроизводително разсъждение.",
|
|
385
|
+
"deepseek-v3.1.description": "DeepSeek-V3.1 е нов хибриден модел за разсъждение от DeepSeek, поддържащ както мислещ, така и немислещ режим и предлагащ по-висока ефективност на мисленето от DeepSeek-R1-0528. Оптимизациите след обучение значително подобряват използването на инструменти от агенти и изпълнението на задачи. Поддържа 128k контекстен прозорец и до 64k изходни токена.",
|
|
386
|
+
"deepseek-v3.1:671b.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с подобрени способности за сложни разсъждения и верига от мисли, подходящ за задачи, изискващи задълбочен анализ.",
|
|
387
|
+
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp въвежда разредено внимание за подобряване на ефективността при обучение и извеждане върху дълги текстове, на по-ниска цена от deepseek-v3.1.",
|
|
388
|
+
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think е пълен модел за дълбоко мислене с по-силно дълговерижно разсъждение.",
|
|
389
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 е първият хибриден модел за разсъждение от DeepSeek, който интегрира мислене в използването на инструменти. С ефективна архитектура за пестене на изчислителни ресурси, мащабно подсилено обучение за повишаване на способностите и мащабни синтетични задачи за силна обобщаемост, той постига производителност, сравнима с GPT-5-High. Дължината на изхода е значително намалена, което води до по-ниски изчислителни разходи и по-кратко време за изчакване от страна на потребителя.",
|
|
390
|
+
"deepseek-v3.description": "DeepSeek-V3 е мощен MoE модел с общо 671 милиарда параметъра и 37 милиарда активни на токен.",
|
|
391
|
+
"deepseek-vl2-small.description": "DeepSeek VL2 Small е лек мултимодален вариант за среди с ограничени ресурси и висока едновременност.",
|
|
392
|
+
"deepseek-vl2.description": "DeepSeek VL2 е мултимодален модел за разбиране на изображения и текст и прецизни визуални въпроси и отговори.",
|
|
351
393
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
|
|
352
394
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
|
|
353
395
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Създаден план: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Създаване на задачи",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Изпълнение на задача",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Задачата е създадена: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Създаване на задача: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Изпълнение на задачи",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Изтриване на задачи",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Актуализиране на план",
|
package/locales/de-DE/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} Teilaufgaben",
|
|
296
296
|
"task.metrics.stepsShort": "Schritte",
|
|
297
297
|
"task.metrics.toolCallsShort": "Tool-Nutzungen",
|
|
298
|
+
"task.status.cancelled": "Aufgabe abgebrochen",
|
|
299
|
+
"task.status.failed": "Aufgabe fehlgeschlagen",
|
|
298
300
|
"task.status.initializing": "Aufgabe wird initialisiert...",
|
|
299
301
|
"task.subtask": "Teilaufgabe",
|
|
300
302
|
"thread.divider": "Unterthema",
|
|
@@ -273,7 +273,7 @@
|
|
|
273
273
|
"claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
274
274
|
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste hybride
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste hybride Reasoning-Modell auf dem Markt. Es liefert nahezu sofortige Antworten oder schrittweise Denkprozesse, die für Nutzer sichtbar sind. Sonnet überzeugt besonders in den Bereichen Programmierung, Data Science, Bildverarbeitung und Agentenaufgaben.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
@@ -281,7 +281,7 @@
|
|
|
281
281
|
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
|
|
287
287
|
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken mit sichtbarem Denkprozess.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
|
|
358
|
-
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es
|
|
358
|
+
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es vereint den allgemeinen Dialog des Chat-Modells mit der starken Codierungsleistung des Coder-Modells und bietet eine bessere Präferenzabstimmung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "Der Denkmodus DeepSeek V3.2 gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
|
|
@@ -442,6 +442,76 @@
|
|
|
442
442
|
"doubao-vision-lite-32k.description": "Doubao-vision ist ein multimodales Modell von Doubao mit starkem Bildverständnis und logischem Denken sowie präziser Befolgung von Anweisungen. Es überzeugt bei Bild-Text-Extraktion und bildbasierten Denkaufgaben und ermöglicht komplexere und umfassendere visuelle Frage-Antwort-Szenarien.",
|
|
443
443
|
"doubao-vision-pro-32k.description": "Doubao-vision ist ein multimodales Modell von Doubao mit starkem Bildverständnis und logischem Denken sowie präziser Befolgung von Anweisungen. Es überzeugt bei Bild-Text-Extraktion und bildbasierten Denkaufgaben und ermöglicht komplexere und umfassendere visuelle Frage-Antwort-Szenarien.",
|
|
444
444
|
"emohaa.description": "Emohaa ist ein Modell für psychische Gesundheit mit professionellen Beratungsfähigkeiten, das Nutzern hilft, emotionale Probleme besser zu verstehen.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B ist ein leichtgewichtiges Open-Source-Modell für lokale und individuell angepasste Bereitstellungen.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B ist ein Open-Source-Modell mit großer Parameteranzahl und verbessertem Verständnis- und Generierungsvermögen.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B ist das ultra-große MoE-Modell von Baidu ERNIE mit herausragender logischer Denkfähigkeit.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview ist ein Vorschau-Modell mit 8K Kontextlänge zur Bewertung von ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "ERNIE 4.5 Turbo 128K Preview mit produktionsreifen Funktionen – ideal für Integration und Canary-Tests.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K ist ein leistungsstarkes Allzweckmodell mit Sucherweiterung und Werkzeugnutzung für QA, Programmierung und Agentenszenarien.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K ist eine Version mit mittlerer Kontextlänge für QA, Wissensdatenbankabfragen und mehrstufige Dialoge.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "Die neueste Version von ERNIE 4.5 Turbo mit optimierter Gesamtleistung – ideal als primäres Produktionsmodell.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview ist ein multimodales Vorschau-Modell mit 32K Kontext zur Bewertung der Langkontext-Bildverarbeitung.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K ist eine multimodale Version mit mittlerer bis langer Kontextlänge für kombinierte Text- und Bildverarbeitung.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest ist die neueste multimodale Version mit verbesserter Bild-Text-Verständnis- und Argumentationsfähigkeit.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview ist ein multimodales Vorschau-Modell für Bild-Text-Verständnis und -Generierung – geeignet für visuelle QA und Inhaltsverständnis.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL ist ein ausgereiftes multimodales Modell für die Bild-Text-Verarbeitung in Produktionsumgebungen.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B ist ein Open-Source-Multimodalmodell für Bild-Text-Verständnis und logisches Denken.",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking ist ein natives, vollmodales Flaggschiffmodell mit einheitlicher Modellierung von Text, Bild, Audio und Video. Es bietet umfassende Leistungsverbesserungen für komplexe QA-, Kreativ- und Agentenszenarien.",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview ist ein natives, vollmodales Flaggschiffmodell mit einheitlicher Modellierung von Text, Bild, Audio und Video. Es bietet umfassende Leistungsverbesserungen für komplexe QA-, Kreativ- und Agentenszenarien.",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K ist ein Dialogmodell mit Persönlichkeit für IP-Charakterentwicklung und langfristige Begleitgespräche.",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview ist ein Vorschau-Modell zur Charakter- und Plotentwicklung für Funktionsbewertung und Tests.",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K ist ein Persönlichkeitsmodell für Roman- und Plotentwicklung – ideal für die Generierung von Langformgeschichten.",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit ist ein Bildbearbeitungsmodell mit Unterstützung für Entfernen, Übermalen und Varianten-Generierung.",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K ist ein leichtgewichtiges Allzweckmodell für kostensensitive tägliche QA- und Inhaltserstellung.",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K ist ein leichtgewichtiges Hochleistungsmodell für latenz- und kostensensitive Szenarien.",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K ist für Langformromane und IP-Plots mit mehreren Charakteren konzipiert.",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K ist ein Modell ohne I/O-Gebühren für Langtextverständnis und groß angelegte Tests.",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K ist ein kostenloses, schnelles Modell für tägliche Chats und einfache Textaufgaben.",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K ist ein hochskalierbares Modell für Online-Dienste und Unternehmensanwendungen mit hoher Parallelität und Wertschöpfung.",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultraleichtes Modell für einfache QA, Klassifikation und kostengünstige Inferenz.",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Argumentation und mehrstufige Dialoge.",
|
|
473
|
+
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erstellt Bilder aus Texteingaben.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürlichere Bilder.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] ist ein Bildgenerierungsmodell mit 12 Milliarden Parametern, das für schnelle und hochwertige Ausgaben entwickelt wurde.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell, das Bildgenerierung und -bearbeitung im Dialog ermöglicht.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen unterstützt, chinesischen und englischen Text präzise editiert und hochwertige Bearbeitungen wie Stilübertragungen und Objektrotationen ermöglicht.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
|
|
484
|
+
"flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das mithilfe latenter adversarialer Diffusionsdistillation hochwertige Bilder in 1–4 Schritten erzeugt. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für private, Forschungs- und kommerzielle Nutzung verfügbar.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Anweisungsbefolgung bei effizienterer Ressourcennutzung als Standardmodelle gleicher Größe.",
|
|
486
|
+
"flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
|
|
487
|
+
"flux-kontext-pro.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged vereint die tiefen Funktionen von „DEV“ mit den Hochgeschwindigkeitsvorteilen von „Schnell“, erweitert die Leistungsgrenzen und eröffnet neue Anwendungsbereiche.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "Bildgenerierung in Ultra-HD mit 4MP-Ausgabe, erzeugt gestochen scharfe Bilder in 10 Sekunden.",
|
|
490
|
+
"flux-pro-1.1.description": "Verbessertes professionelles Bildgenerierungsmodell mit exzellenter Bildqualität und präziser Umsetzung von Eingabeaufforderungen.",
|
|
491
|
+
"flux-pro.description": "Hochwertiges kommerzielles Bildgenerierungsmodell mit unübertroffener Bildqualität und vielfältigen Ausgaben.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] ist das fortschrittlichste Open-Source-Modell mit wenigen Schritten, übertrifft vergleichbare Konkurrenten und sogar starke nicht-destillierte Modelle wie Midjourney v6.0 und DALL-E 3 (HD). Es ist fein abgestimmt, um die Vielfalt des Pretrainings zu bewahren und verbessert die visuelle Qualität, Anweisungsbefolgung, Größen-/Seitenverhältnisvariation, Schriftverarbeitung und Ausgabevielfalt erheblich.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell ist ein leistungsstarkes Bildgenerierungsmodell für schnelle Ausgaben in mehreren Stilen.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) bietet stabile, anpassbare Leistung für komplexe Aufgaben.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) bietet starke multimodale Unterstützung für komplexe Aufgaben.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro ist Googles leistungsstarkes KI-Modell für skalierbare Aufgaben.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 ist ein effizientes multimodales Modell für breit gefächerte Anwendungen.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 ist ein effizientes multimodales Modell für breite Einsatzbereiche.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 ist das neueste experimentelle Modell mit deutlichen Verbesserungen bei Text- und Multimodalanwendungen.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B ist ein effizientes multimodales Modell für breite Einsatzbereiche.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B ist ein effizientes multimodales Modell für breit gefächerte Anwendungen.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 bietet optimierte multimodale Verarbeitung für komplexe Aufgaben.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash ist Googles neuestes multimodales KI-Modell mit schneller Verarbeitung, unterstützt Text-, Bild- und Videoeingaben für effiziente Skalierung über Aufgaben hinweg.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 ist eine skalierbare multimodale KI-Lösung für komplexe Aufgaben.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 ist das neueste produktionsreife Modell mit höherer Ausgabequalität, insbesondere bei Mathematik, langen Kontexten und visuellen Aufgaben.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 bietet starke multimodale Verarbeitung mit größerer Flexibilität für App-Entwicklung.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 nutzt neueste Optimierungen für effizientere multimodale Verarbeitung.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro unterstützt bis zu 2 Millionen Tokens – ein ideales mittelgroßes multimodales Modell für komplexe Aufgaben.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Experimentelles Gemini 2.0 Flash-Modell mit Unterstützung für Bildgenerierung.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
|
|
445
515
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
|
|
446
516
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
|
|
447
517
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Plan erstellt: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "To-dos erstellen",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Aufgabe ausführen",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Aufgabe erstellt: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Aufgabe wird erstellt: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Aufgaben ausführen",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "To-dos löschen",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Plan aktualisieren",
|
package/locales/en-US/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} Batch Subtasks",
|
|
296
296
|
"task.metrics.stepsShort": "steps",
|
|
297
297
|
"task.metrics.toolCallsShort": "tool uses",
|
|
298
|
+
"task.status.cancelled": "Task Cancelled",
|
|
299
|
+
"task.status.failed": "Task Failed",
|
|
298
300
|
"task.status.initializing": "Initializing task...",
|
|
299
301
|
"task.subtask": "Subtask",
|
|
300
302
|
"thread.divider": "Subtopic",
|