@lobehub/lobehub 2.0.0-next.201 → 2.0.0-next.202

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (129) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/chat.json +2 -0
  4. package/locales/ar/models.json +64 -7
  5. package/locales/ar/plugin.json +2 -1
  6. package/locales/ar/providers.json +1 -0
  7. package/locales/bg-BG/chat.json +2 -0
  8. package/locales/bg-BG/models.json +49 -5
  9. package/locales/bg-BG/plugin.json +2 -1
  10. package/locales/bg-BG/providers.json +1 -0
  11. package/locales/de-DE/chat.json +2 -0
  12. package/locales/de-DE/models.json +36 -7
  13. package/locales/de-DE/plugin.json +2 -1
  14. package/locales/de-DE/providers.json +1 -0
  15. package/locales/en-US/chat.json +2 -0
  16. package/locales/en-US/models.json +10 -10
  17. package/locales/en-US/plugin.json +2 -1
  18. package/locales/en-US/providers.json +1 -0
  19. package/locales/es-ES/chat.json +2 -0
  20. package/locales/es-ES/models.json +106 -7
  21. package/locales/es-ES/plugin.json +2 -1
  22. package/locales/es-ES/providers.json +1 -0
  23. package/locales/fa-IR/chat.json +2 -0
  24. package/locales/fa-IR/models.json +83 -5
  25. package/locales/fa-IR/plugin.json +2 -1
  26. package/locales/fa-IR/providers.json +1 -0
  27. package/locales/fr-FR/chat.json +2 -0
  28. package/locales/fr-FR/models.json +38 -7
  29. package/locales/fr-FR/plugin.json +2 -1
  30. package/locales/fr-FR/providers.json +1 -0
  31. package/locales/it-IT/chat.json +2 -0
  32. package/locales/it-IT/models.json +40 -5
  33. package/locales/it-IT/plugin.json +2 -1
  34. package/locales/it-IT/providers.json +1 -0
  35. package/locales/ja-JP/chat.json +2 -0
  36. package/locales/ja-JP/models.json +84 -7
  37. package/locales/ja-JP/plugin.json +2 -1
  38. package/locales/ja-JP/providers.json +1 -0
  39. package/locales/ko-KR/chat.json +2 -0
  40. package/locales/ko-KR/models.json +65 -7
  41. package/locales/ko-KR/plugin.json +2 -1
  42. package/locales/ko-KR/providers.json +1 -0
  43. package/locales/nl-NL/chat.json +2 -0
  44. package/locales/nl-NL/models.json +62 -5
  45. package/locales/nl-NL/plugin.json +2 -1
  46. package/locales/nl-NL/providers.json +1 -0
  47. package/locales/pl-PL/chat.json +2 -0
  48. package/locales/pl-PL/models.json +85 -0
  49. package/locales/pl-PL/plugin.json +2 -1
  50. package/locales/pl-PL/providers.json +1 -0
  51. package/locales/pt-BR/chat.json +2 -0
  52. package/locales/pt-BR/models.json +37 -6
  53. package/locales/pt-BR/plugin.json +2 -1
  54. package/locales/pt-BR/providers.json +1 -0
  55. package/locales/ru-RU/chat.json +2 -0
  56. package/locales/ru-RU/models.json +36 -7
  57. package/locales/ru-RU/plugin.json +2 -1
  58. package/locales/ru-RU/providers.json +1 -0
  59. package/locales/tr-TR/chat.json +2 -0
  60. package/locales/tr-TR/models.json +28 -7
  61. package/locales/tr-TR/plugin.json +2 -1
  62. package/locales/tr-TR/providers.json +1 -0
  63. package/locales/vi-VN/chat.json +2 -0
  64. package/locales/vi-VN/models.json +62 -5
  65. package/locales/vi-VN/plugin.json +2 -1
  66. package/locales/vi-VN/providers.json +1 -0
  67. package/locales/zh-CN/chat.json +2 -0
  68. package/locales/zh-CN/models.json +87 -6
  69. package/locales/zh-CN/plugin.json +2 -1
  70. package/locales/zh-CN/providers.json +1 -0
  71. package/locales/zh-TW/chat.json +2 -0
  72. package/locales/zh-TW/models.json +71 -7
  73. package/locales/zh-TW/plugin.json +2 -1
  74. package/locales/zh-TW/providers.json +1 -0
  75. package/package.json +1 -1
  76. package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +30 -15
  77. package/packages/builtin-tool-gtd/src/manifest.ts +1 -1
  78. package/packages/model-runtime/src/core/ModelRuntime.test.ts +44 -86
  79. package/packages/types/src/aiChat.ts +0 -1
  80. package/packages/types/src/message/ui/chat.ts +1 -1
  81. package/src/app/(backend)/middleware/auth/index.ts +16 -2
  82. package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +30 -15
  83. package/src/app/(backend)/webapi/chat/[provider]/route.ts +44 -40
  84. package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +4 -3
  85. package/src/app/(backend)/webapi/models/[provider]/route.test.ts +36 -13
  86. package/src/app/(backend)/webapi/models/[provider]/route.ts +4 -11
  87. package/src/features/Conversation/Messages/AssistantGroup/Tool/Render/index.tsx +21 -23
  88. package/src/features/Conversation/Messages/AssistantGroup/components/ContentBlock.tsx +16 -3
  89. package/src/features/Conversation/Messages/Task/TaskDetailPanel/index.tsx +17 -20
  90. package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +16 -11
  91. package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +6 -20
  92. package/src/features/Conversation/Messages/Tasks/shared/ProcessingState.tsx +10 -20
  93. package/src/features/User/DataStatistics.tsx +4 -4
  94. package/src/hooks/useQueryParam.ts +0 -2
  95. package/src/libs/trpc/async/asyncAuth.ts +0 -2
  96. package/src/libs/trpc/async/context.ts +3 -11
  97. package/src/locales/default/chat.ts +2 -0
  98. package/src/locales/default/plugin.ts +2 -1
  99. package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +6 -6
  100. package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +3 -3
  101. package/src/server/modules/AgentRuntime/factory.ts +39 -20
  102. package/src/server/modules/ModelRuntime/index.ts +138 -1
  103. package/src/server/routers/async/__tests__/caller.test.ts +22 -27
  104. package/src/server/routers/async/caller.ts +4 -6
  105. package/src/server/routers/async/file.ts +10 -5
  106. package/src/server/routers/async/image.ts +5 -4
  107. package/src/server/routers/async/ragEval.ts +7 -5
  108. package/src/server/routers/lambda/__tests__/aiChat.test.ts +8 -37
  109. package/src/server/routers/lambda/aiChat.ts +5 -21
  110. package/src/server/routers/lambda/chunk.ts +9 -28
  111. package/src/server/routers/lambda/image.ts +1 -7
  112. package/src/server/routers/lambda/ragEval.ts +1 -1
  113. package/src/server/routers/lambda/userMemories/reembed.ts +4 -1
  114. package/src/server/routers/lambda/userMemories/search.ts +7 -7
  115. package/src/server/routers/lambda/userMemories/shared.ts +8 -10
  116. package/src/server/routers/lambda/userMemories/tools.ts +140 -118
  117. package/src/server/routers/lambda/userMemories.test.ts +3 -7
  118. package/src/server/routers/lambda/userMemories.ts +44 -29
  119. package/src/server/services/agentRuntime/AgentRuntimeService.test.ts +87 -0
  120. package/src/server/services/agentRuntime/AgentRuntimeService.ts +53 -2
  121. package/src/server/services/agentRuntime/__tests__/executeSync.test.ts +2 -6
  122. package/src/server/services/agentRuntime/__tests__/stepLifecycleCallbacks.test.ts +1 -1
  123. package/src/server/services/chunk/index.ts +6 -5
  124. package/src/server/services/toolExecution/types.ts +1 -2
  125. package/src/services/__tests__/_url.test.ts +0 -1
  126. package/src/services/_url.ts +0 -3
  127. package/src/services/aiChat.ts +5 -12
  128. package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +0 -2
  129. package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +0 -74
package/CHANGELOG.md CHANGED
@@ -2,6 +2,31 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ## [Version 2.0.0-next.202](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.201...v2.0.0-next.202)
6
+
7
+ <sup>Released on **2026-01-03**</sup>
8
+
9
+ #### ♻ Code Refactoring
10
+
11
+ - **misc**: Refactor and fix model runtime initialize.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Code refactoring
19
+
20
+ - **misc**: Refactor and fix model runtime initialize, closes [#11134](https://github.com/lobehub/lobe-chat/issues/11134) ([8078cb9](https://github.com/lobehub/lobe-chat/commit/8078cb9))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
5
30
  ## [Version 2.0.0-next.201](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.200...v2.0.0-next.201)
6
31
 
7
32
  <sup>Released on **2026-01-03**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Refactor and fix model runtime initialize."
6
+ ]
7
+ },
8
+ "date": "2026-01-03",
9
+ "version": "2.0.0-next.202"
10
+ },
2
11
  {
3
12
  "children": {
4
13
  "fixes": [
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} مهمة فرعية مجمعة",
296
296
  "task.metrics.stepsShort": "خطوات",
297
297
  "task.metrics.toolCallsShort": "استخدامات الأداة",
298
+ "task.status.cancelled": "تم إلغاء المهمة",
299
+ "task.status.failed": "فشلت المهمة",
298
300
  "task.status.initializing": "جارٍ تهيئة المهمة...",
299
301
  "task.subtask": "مهمة فرعية",
300
302
  "thread.divider": "موضوع فرعي",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
272
272
  "claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
273
273
  "claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل الجديد لشركة Anthropic. مقارنةً بـ Claude 3 Haiku، فإنه يقدم تحسينات شاملة في المهارات ويتفوق على النموذج الأكبر السابق Claude 3 Opus في العديد من اختبارات الذكاء.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic، يتميز بتحسينات في المهارات ويتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من المعايير.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هو أذكى نموذج من Anthropic وأول نموذج استدلال هجين في السوق. يمكنه تقديم ردود شبه فورية أو استدلال تدريجي خطوة بخطوة يمكن للمستخدمين متابعته. يتميز Sonnet بقوة خاصة في البرمجة، علم البيانات، الرؤية، ومهام الوكلاء.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق، يدعم الاستجابات الفورية أو التفكير المطول مع تحكم دقيق.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة فائقة وقدرة استدلال موسعة.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأكثر نماذج Haiku ذكاءً من Anthropic، يتميز بسرعة فائقة وقدرة على التفكير المطول.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، ويتفوق في الأداء، الذكاء، الطلاقة، والفهم.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بأداء فائق وذكاء وطلاقة وفهم عميق.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 قادر على تقديم ردود شبه فورية أو تفكير تدريجي خطوة بخطوة مع عرض واضح للعملية.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو أذكى نموذج من Anthropic حتى الآن، يوفر استجابات شبه فورية أو تفكير متسلسل خطوة بخطوة مع تحكم دقيق لمستخدمي واجهة البرمجة.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
289
289
  "codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
358
- "deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة البرمجة في نموذج المبرمج، مع تحسين توافق التفضيلات. كما يعزز DeepSeek-V2.5 قدرات الكتابة واتباع التعليمات.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 يوازن بين الاستدلال وطول المخرجات لمهام الأسئلة والأجوبة اليومية والمهام الوكيلة. يحقق نتائج تضاهي GPT-5 في المعايير العامة، وهو أول من يدمج التفكير في استخدام الأدوات، مما يجعله رائدًا في تقييمات النماذج مفتوحة المصدر.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
379
379
  "deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
380
380
  "deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
381
- "deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج استدلال عميق يولد سلسلة من الأفكار قبل المخرجات لتحقيق دقة أعلى، ويحقق نتائج تنافسية عالية واستدلالًا يقارن بـ Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
@@ -414,6 +414,63 @@
414
414
  "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B هو نسخة مكررة من Qwen2.5-14B وتم تحسينه باستخدام 800 ألف عينة منسقة تم إنشاؤها بواسطة DeepSeek-R1، ويقدم استدلالًا قويًا.",
415
415
  "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B هو نسخة مكررة من Qwen2.5-32B وتم تحسينه باستخدام 800 ألف عينة منسقة تم إنشاؤها بواسطة DeepSeek-R1، ويتفوق في الرياضيات، البرمجة، والتفكير.",
416
416
  "devstral-2:123b.description": "Devstral 2 123B يتفوق في استخدام الأدوات لاستكشاف قواعد الشيفرة، وتحرير ملفات متعددة، ودعم وكلاء هندسة البرمجيات.",
417
+ "doubao-1.5-lite-32k.description": "Doubao-1.5-lite هو نموذج خفيف الوزن جديد يتميز باستجابة فائقة السرعة وجودة عالية وأداء منخفض الكمون.",
418
+ "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k هو ترقية شاملة لـ Doubao-1.5-Pro، يحسن الأداء العام بنسبة 10٪. يدعم نافذة سياق 256k وما يصل إلى 12k من رموز الإخراج، مما يوفر أداءً أعلى ونافذة أكبر وقيمة قوية لحالات الاستخدام الأوسع.",
419
+ "doubao-1.5-pro-32k.description": "Doubao-1.5-pro هو نموذج رائد من الجيل الجديد يتميز بترقيات شاملة، ويتفوق في المعرفة والبرمجة والاستدلال.",
420
+ "doubao-1.5-thinking-pro-m.description": "Doubao-1.5 هو نموذج استدلال عميق جديد (الإصدار m يدعم الاستدلال متعدد الوسائط أصليًا) يتفوق في الرياضيات والبرمجة والاستدلال العلمي والمهام العامة مثل الكتابة الإبداعية. يحقق أو يقترب من نتائج رائدة في معايير مثل AIME 2024 وCodeforces وGPQA. يدعم نافذة سياق 128k وما يصل إلى 16k من رموز الإخراج.",
421
+ "doubao-1.5-thinking-pro.description": "Doubao-1.5 هو نموذج استدلال عميق جديد يتفوق في الرياضيات والبرمجة والاستدلال العلمي والمهام العامة مثل الكتابة الإبداعية. يحقق أو يقترب من نتائج رائدة في معايير مثل AIME 2024 وCodeforces وGPQA. يدعم نافذة سياق 128k وما يصل إلى 16k من رموز الإخراج.",
422
+ "doubao-1.5-thinking-vision-pro.description": "نموذج استدلال بصري عميق جديد يتمتع بفهم واستدلال متعدد الوسائط أقوى، ويحقق نتائج متقدمة في 37 من أصل 59 معيارًا عامًا.",
423
+ "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS هو نموذج وكيل يركز على واجهات المستخدم الرسومية، يتفاعل بسلاسة مع الواجهات من خلال الإدراك البشري والاستدلال والعمل.",
424
+ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري والتعرف على المستندات وفهم التفاصيل واتباع التعليمات. يدعم نافذة سياق 128k وما يصل إلى 16k من رموز الإخراج.",
425
+ "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري والتعرف على المستندات وفهم التفاصيل واتباع التعليمات.",
426
+ "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري والتعرف على المستندات وفهم التفاصيل واتباع التعليمات.",
427
+ "doubao-lite-128k.description": "استجابة فائقة السرعة مع قيمة أفضل، يوفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق 128k.",
428
+ "doubao-lite-32k.description": "استجابة فائقة السرعة مع قيمة أفضل، يوفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق 32k.",
429
+ "doubao-lite-4k.description": "استجابة فائقة السرعة مع قيمة أفضل، يوفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق 4k.",
430
+ "doubao-pro-256k.description": "أفضل نموذج رائد للأداء في المهام المعقدة، يحقق نتائج قوية في الأسئلة المرجعية والتلخيص والإبداع وتصنيف النصوص والمحاكاة. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق 256k.",
431
+ "doubao-pro-32k.description": "أفضل نموذج رائد للأداء في المهام المعقدة، يحقق نتائج قوية في الأسئلة المرجعية والتلخيص والإبداع وتصنيف النصوص والمحاكاة. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق 32k.",
432
+ "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash هو نموذج استدلال عميق متعدد الوسائط فائق السرعة بزمن استجابة منخفض يصل إلى 10 مللي ثانية. يدعم النصوص والرؤية، ويتفوق على النموذج الخفيف السابق في فهم النصوص، ويضاهي النماذج الاحترافية المنافسة في الرؤية. يدعم نافذة سياق 256k وما يصل إلى 16k من رموز الإخراج.",
433
+ "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite هو نموذج استدلال عميق متعدد الوسائط جديد مع جهد استدلال قابل للتعديل (أدنى، منخفض، متوسط، مرتفع)، يوفر قيمة أفضل وخيارًا قويًا للمهام الشائعة، مع نافذة سياق تصل إلى 256k.",
434
+ "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 يعزز الاستدلال بشكل كبير، ويحسن القدرات الأساسية في البرمجة والرياضيات والمنطق مقارنة بـ Doubao-1.5-thinking-pro، مع إضافة فهم بصري. يدعم نافذة سياق 256k وما يصل إلى 16k من رموز الإخراج.",
435
+ "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision هو نموذج استدلال بصري يقدم فهمًا واستدلالًا متعدد الوسائط أقوى للتعليم، مراجعة الصور، الفحص/الأمن، وأسئلة وأجوبة البحث بالذكاء الاصطناعي. يدعم نافذة سياق 256k وما يصل إلى 64k من رموز الإخراج.",
436
+ "doubao-seed-1.6.description": "Doubao-Seed-1.6 هو نموذج استدلال عميق متعدد الوسائط جديد مع أوضاع تلقائية، تفكير، وغير تفكير. في وضع غير التفكير، يتفوق بشكل كبير على Doubao-1.5-pro/250115. يدعم نافذة سياق 256k وما يصل إلى 16k من رموز الإخراج.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 يتمتع بقدرات أقوى في الفهم متعدد الوسائط والقدرات الوكيلة، ويدعم إدخال النصوص/الصور/الفيديو مع تخزين السياق، مما يوفر أداءً متميزًا في المهام المعقدة.",
438
+ "doubao-seed-code.description": "Doubao-Seed-Code مُحسَّن بعمق للبرمجة الوكيلة، يدعم إدخالات متعددة الوسائط (نص/صورة/فيديو) ونافذة سياق 256k، متوافق مع واجهة Anthropic API، ومناسب للبرمجة وفهم الرؤية وسير العمل الوكيلة.",
439
+ "doubao-seededit-3-0-i2i-250628.description": "نموذج الصور Doubao من ByteDance Seed يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يدعم تحرير الصور الموجه بالنص، مع أحجام إخراج تتراوح بين 512 و1536 على الجانب الطويل.",
440
+ "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يولد الصور من التعليمات النصية.",
441
+ "doubao-seedream-4-0-250828.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يولد الصور من التعليمات النصية.",
442
+ "doubao-vision-lite-32k.description": "Doubao-vision هو نموذج متعدد الوسائط من Doubao يتمتع بفهم قوي للصور واستدلال دقيق واتباع دقيق للتعليمات. يقدم أداءً ممتازًا في استخراج النصوص من الصور ومهام الاستدلال المعتمد على الصور، مما يتيح سيناريوهات أسئلة وأجوبة بصرية أكثر تعقيدًا واتساعًا.",
443
+ "doubao-vision-pro-32k.description": "Doubao-vision هو نموذج متعدد الوسائط من Doubao يتمتع بفهم قوي للصور واستدلال دقيق واتباع دقيق للتعليمات. يقدم أداءً ممتازًا في استخراج النصوص من الصور ومهام الاستدلال المعتمد على الصور، مما يتيح سيناريوهات أسئلة وأجوبة بصرية أكثر تعقيدًا واتساعًا.",
444
+ "emohaa.description": "Emohaa هو نموذج للصحة النفسية يتمتع بقدرات استشارية احترافية لمساعدة المستخدمين على فهم القضايا العاطفية.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B هو نموذج مفتوح المصدر وخفيف الوزن مصمم للنشر المحلي والمخصص.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B هو نموذج مفتوح المصدر ذو عدد كبير من المعلمات يتمتع بقدرات قوية في الفهم والتوليد.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B هو نموذج MoE فائق الحجم من Baidu ERNIE يتميز بقدرات استدلال ممتازة.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview هو نموذج معاينة بسياق 8K لتقييم أداء ERNIE 4.5.",
449
+ "ernie-4.5-turbo-128k-preview.description": "معاينة ERNIE 4.5 Turbo 128K بقدرات على مستوى الإصدار، مناسبة للتكامل والاختبار التجريبي.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K هو نموذج عام عالي الأداء مدعوم بالبحث واستدعاء الأدوات، مناسب لسيناريوهات الأسئلة والأجوبة، البرمجة، والوكلاء.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K هو إصدار متوسط الطول من حيث السياق، مخصص للأسئلة والأجوبة، استرجاع قواعد المعرفة، والحوار متعدد الأدوار.",
452
+ "ernie-4.5-turbo-latest.description": "أحدث إصدار من ERNIE 4.5 Turbo بأداء محسن شامل، مثالي كنموذج إنتاج رئيسي.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "معاينة ERNIE 4.5 Turbo VL 32K هو نموذج متعدد الوسائط بسياق طويل لتقييم قدرات الرؤية.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K هو إصدار متعدد الوسائط متوسط الطول لفهم المستندات الطويلة والصور معًا.",
455
+ "ernie-4.5-turbo-vl-latest.description": "أحدث إصدار من ERNIE 4.5 Turbo VL بقدرات محسنة لفهم الصور والنصوص والاستدلال.",
456
+ "ernie-4.5-turbo-vl-preview.description": "معاينة ERNIE 4.5 Turbo VL هو نموذج متعدد الوسائط لفهم وتوليد الصور والنصوص، مناسب لأسئلة وأجوبة بصرية وفهم المحتوى.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL هو نموذج متعدد الوسائط ناضج لفهم الصور والنصوص في بيئات الإنتاج.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B هو نموذج مفتوح المصدر متعدد الوسائط لفهم الصور والنصوص والاستدلال.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking هو نموذج رائد متعدد الوسائط أصلي يجمع بين النص، الصورة، الصوت، والفيديو في نموذج موحد. يوفر ترقيات شاملة للقدرات في الأسئلة المعقدة، الإبداع، وسيناريوهات الوكلاء.",
460
+ "ernie-5.0-thinking-preview.description": "معاينة Wenxin 5.0 Thinking هو نموذج رائد متعدد الوسائط أصلي يجمع بين النص، الصورة، الصوت، والفيديو في نموذج موحد. يوفر ترقيات شاملة للقدرات في الأسئلة المعقدة، الإبداع، وسيناريوهات الوكلاء.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K هو نموذج حواري بشخصية مخصصة لبناء شخصيات IP والدردشة طويلة الأمد.",
462
+ "ernie-char-fiction-8k-preview.description": "معاينة ERNIE Character Fiction 8K هو نموذج لإنشاء الشخصيات والحبكات القصصية مخصص للتقييم والاختبار.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K هو نموذج شخصيات مخصص للروايات وإنشاء الحبكات، مناسب لتوليد القصص الطويلة.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit هو نموذج لتحرير الصور يدعم المسح، إعادة الرسم، وتوليد النسخ المتنوعة.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K هو نموذج عام خفيف الوزن للأسئلة اليومية الحساسة للتكلفة وتوليد المحتوى.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K هو نموذج خفيف الوزن وعالي الأداء للسيناريوهات الحساسة للتكلفة والزمن.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K مصمم خصيصًا للروايات الطويلة وحبكات IP متعددة الشخصيات.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K هو نموذج بدون رسوم إدخال/إخراج لفهم النصوص الطويلة والتجارب واسعة النطاق.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K هو نموذج مجاني وسريع للدردشة اليومية والمهام النصية الخفيفة.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K هو نموذج عالي التوافر والقيمة للخدمات عبر الإنترنت واسعة النطاق وتطبيقات المؤسسات.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K هو نموذج فائق الخفة للأسئلة البسيطة، التصنيف، والاستدلال منخفض التكلفة.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
473
+ "ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
417
474
  "meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.",
418
475
  "meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
419
476
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "تم إنشاء الخطة: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "إنشاء مهام",
65
65
  "builtins.lobe-gtd.apiName.execTask": "تنفيذ المهمة",
66
- "builtins.lobe-gtd.apiName.execTask.result": "تم التنفيذ: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "تم إنشاء المهمة: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "جارٍ إنشاء المهمة: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "تنفيذ المهام",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "حذف المهام",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "تحديث الخطة",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.",
30
30
  "jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
31
31
  "lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
32
+ "lobehub.description": "تستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، وتقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.",
32
33
  "minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
33
34
  "mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.",
34
35
  "modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} групови подзадачи",
296
296
  "task.metrics.stepsShort": "стъпки",
297
297
  "task.metrics.toolCallsShort": "използвания на инструменти",
298
+ "task.status.cancelled": "Задачата е отменена",
299
+ "task.status.failed": "Задачата е неуспешна",
298
300
  "task.status.initializing": "Инициализиране на задачата...",
299
301
  "task.subtask": "Подзадача",
300
302
  "thread.divider": "Подтема",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
272
272
  "claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
273
273
  "claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва подобрения във всички умения и надминава предишния най-голям модел Claude 3 Opus в множество тестове за интелигентност.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic, който подобрява уменията си и надминава предишния водещ модел Claude 3 Opus в много бенчмаркове.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да генерира почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни, компютърно зрение и задачи за агенти.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара, който поддържа почти мигновени отговори или разширено мислене с прецизен контрол.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, отличаващ се със светкавична скорост и разширено разсъждение.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, отличаващ се със светкавична скорост и разширено мислене.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително сложни задачи, превъзхождащ в производителност, интелигентност, плавност и разбиране.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, превъзхождащ в производителност, интелигентност, плавност и разбиране.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено поетапно мислене с видим процес.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic до момента, предлагащ почти мигновени отговори или разширено поетапно мислене с прецизен контрол за потребителите на API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
289
289
  "codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
@@ -348,6 +348,50 @@
348
348
  "deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 надгражда DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct, комбинирайки общи и кодови способности. Подобрява писането и следването на инструкции за по-добро съответствие с предпочитанията и показва значителни подобрения в AlpacaEval 2.0, ArenaHard, AlignBench и MT-Bench.",
349
349
  "deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus е обновен модел V3.1, позициониран като хибриден агентен LLM. Отстранява докладвани от потребители проблеми и подобрява стабилността, езиковата последователност и намалява смесените китайски/английски и аномални символи. Интегрира режими на мислене и немислене с шаблони за чат за гъвкаво превключване. Подобрява и производителността на Code Agent и Search Agent за по-надеждно използване на инструменти и многоетапни задачи.",
350
350
  "deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 използва хибридна архитектура за разсъждение и поддържа както мислещ, така и немислещ режим.",
351
+ "deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp е експериментална версия V3.2, която служи като мост към следващата архитектура. Добавя DeepSeek Sparse Attention (DSA) върху V3.1-Terminus за подобряване на ефективността при обучение и извеждане с дълъг контекст, с оптимизации за използване на инструменти, разбиране на дълги документи и многoетапно разсъждение. Идеален е за изследване на по-висока ефективност при разсъждение с големи контекстуални бюджети.",
352
+ "deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 е MoE модел с 671 милиарда параметъра, използващ MLA и DeepSeekMoE с балансирано натоварване без загуби за ефективно обучение и извеждане. Предварително обучен върху 14.8 трилиона висококачествени токени със SFT и RL, той превъзхожда други отворени модели и се доближава до водещите затворени модели.",
353
+ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) е иновативен модел, предлагащ дълбоко езиково разбиране и интеракция.",
354
+ "deepseek-ai/deepseek-r1.description": "Модел от ново поколение с висока ефективност, силен в разсъждение, математика и програмиране.",
355
+ "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
356
+ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
357
+ "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 балансира разсъждение и дължина на изхода за ежедневни въпроси и задачи на агенти. Публичните бенчмаркове достигат нивата на GPT-5, като това е първият модел, който интегрира мислене в използването на инструменти, водещ в оценките на отворените агенти.",
359
+ "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
360
+ "deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
361
+ "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
362
+ "deepseek-ocr.description": "DeepSeek-OCR е визионно-езиков модел от DeepSeek AI, фокусиран върху OCR и „контекстуална оптична компресия“. Изследва компресиране на контекстуална информация от изображения, ефективно обработва документи и ги преобразува в структурирани текстови формати като Markdown. Прецизно разпознава текст в изображения, което го прави идеален за дигитализация на документи, извличане на текст и структурирана обработка.",
363
+ "deepseek-r1-0528.description": "Пълен модел с 685 милиарда параметъра, пуснат на 28.05.2025. DeepSeek-R1 използва мащабно подсилено обучение след предварителното обучение, значително подобрявайки разсъждението с минимални етикетирани данни и се представя силно в математика, програмиране и езиково разсъждение.",
364
+ "deepseek-r1-250528.description": "DeepSeek R1 250528 е пълният модел за разсъждение на DeepSeek-R1, предназначен за трудни математически и логически задачи.",
365
+ "deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B бързо издание с търсене в реално време в уеб, осигуряващо по-бързи отговори при запазване на производителността.",
366
+ "deepseek-r1-70b-online.description": "DeepSeek R1 70B стандартно издание с търсене в реално време в уеб, подходящо за актуални чат и текстови задачи.",
367
+ "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B комбинира разсъждението на R1 с екосистемата на Llama.",
368
+ "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B е дистилиран от Llama-3.1-8B с използване на изходи от DeepSeek R1.",
369
+ "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama е дистилиран от DeepSeek-R1 върху Llama.",
370
+ "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B е дистилиран модел на R1, базиран на Qianfan-70B с висока стойност.",
371
+ "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B е дистилиран модел на R1, базиран на Qianfan-8B за малки и средни приложения.",
372
+ "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B е дистилиран модел на R1, базиран на Llama-70B.",
373
+ "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B е ултралек дистилиран модел за среди с много ниски ресурси.",
374
+ "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B е среден по размер дистилиран модел за многосценарийно внедряване.",
375
+ "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B е дистилиран модел на R1, базиран на Qwen-32B, балансиращ производителност и разходи.",
376
+ "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B е лек дистилиран модел за edge и частни корпоративни среди.",
377
+ "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen е дистилиран от DeepSeek-R1 върху Qwen.",
378
+ "deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
379
+ "deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
380
+ "deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking е дълбок модел за разсъждение, който генерира верига от мисли преди отговорите за по-висока точност, с водещи резултати в състезания и разсъждение, сравнимо с Gemini-3.0-Pro.",
382
+ "deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
383
+ "deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
384
+ "deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
385
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus е оптимизиран за терминални устройства LLM от DeepSeek.",
386
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 е модел за дълбоко разсъждение, съответстващ на версията Terminus, създаден за високопроизводително разсъждение.",
387
+ "deepseek-v3.1.description": "DeepSeek-V3.1 е нов хибриден модел за разсъждение от DeepSeek, поддържащ както мислещ, така и немислещ режим и предлагащ по-висока ефективност на мисленето от DeepSeek-R1-0528. Оптимизациите след обучение значително подобряват използването на инструменти от агенти и изпълнението на задачи. Поддържа 128k контекстен прозорец и до 64k изходни токена.",
388
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с подобрени способности за сложни разсъждения и верига от мисли, подходящ за задачи, изискващи задълбочен анализ.",
389
+ "deepseek-v3.2-exp.description": "deepseek-v3.2-exp въвежда разредено внимание за подобряване на ефективността при обучение и извеждане върху дълги текстове, на по-ниска цена от deepseek-v3.1.",
390
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think е пълен модел за дълбоко мислене с по-силно дълговерижно разсъждение.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 е първият хибриден модел за разсъждение от DeepSeek, който интегрира мислене в използването на инструменти. С ефективна архитектура за пестене на изчислителни ресурси, мащабно подсилено обучение за повишаване на способностите и мащабни синтетични задачи за силна обобщаемост, той постига производителност, сравнима с GPT-5-High. Дължината на изхода е значително намалена, което води до по-ниски изчислителни разходи и по-кратко време за изчакване от страна на потребителя.",
392
+ "deepseek-v3.description": "DeepSeek-V3 е мощен MoE модел с общо 671 милиарда параметъра и 37 милиарда активни на токен.",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small е лек мултимодален вариант за среди с ограничени ресурси и висока едновременност.",
394
+ "deepseek-vl2.description": "DeepSeek VL2 е мултимодален модел за разбиране на изображения и текст и прецизни визуални въпроси и отговори.",
351
395
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
352
396
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
353
397
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "Създаден план: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "Създаване на задачи",
65
65
  "builtins.lobe-gtd.apiName.execTask": "Изпълнение на задача",
66
- "builtins.lobe-gtd.apiName.execTask.result": "Изпълнение: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "Задачата е създадена: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "Създаване на задача: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "Изпълнение на задачи",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "Изтриване на задачи",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "Актуализиране на план",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
30
30
  "jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
31
31
  "lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
32
+ "lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
32
33
  "minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
33
34
  "mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
34
35
  "modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} Teilaufgaben",
296
296
  "task.metrics.stepsShort": "Schritte",
297
297
  "task.metrics.toolCallsShort": "Tool-Nutzungen",
298
+ "task.status.cancelled": "Aufgabe abgebrochen",
299
+ "task.status.failed": "Aufgabe fehlgeschlagen",
298
300
  "task.status.initializing": "Aufgabe wird initialisiert...",
299
301
  "task.subtask": "Teilaufgabe",
300
302
  "thread.divider": "Unterthema",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
272
272
  "claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
273
273
  "claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic und übertrifft in vielen Benchmarks das bisherige Flaggschiff Claude 3 Opus mit verbesserten Fähigkeiten.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste hybride Denkmodell auf dem Markt. Es liefert nahezu sofortige Antworten oder schrittweise Denkprozesse, die für Nutzer sichtbar sind. Besonders stark ist Sonnet in den Bereichen Programmierung, Datenwissenschaft, Bildverarbeitung und Agentenaufgaben.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es ermöglicht nahezu sofortige Antworten oder tiefgreifendes Denken mit präziser Steuerung.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – blitzschnell und mit erweitertem Denkvermögen.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben herausragend in Leistung, Intelligenz, Sprachfluss und Verständnis.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken mit sichtbarem Denkprozess.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic. Es bietet nahezu sofortige Antworten oder schrittweises Denken mit feiner Steuerung für API-Nutzer.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
289
289
  "codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
358
- "deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es bewahrt die Dialogfähigkeit des Chatmodells und die starke Programmierleistung des Codermodells mit besserer Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 bietet ein ausgewogenes Verhältnis zwischen logischem Denken und Ausgabelänge für tägliche Frage-Antwort- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau, und es ist das erste Modell, das Denkprozesse in die Werkzeugnutzung integriert – führend in Open-Source-Agentenbewertungen.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Denkmodus gibt eine Chain-of-Thought vor der finalen Antwort aus, um die Genauigkeit zu verbessern.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein Modell für tiefes logisches Denken, das vor der Ausgabe eine Gedankenkette generiert, um die Genauigkeit zu erhöhen. Es erzielt Spitzenwerte in Wettbewerben und bietet eine Argumentationsleistung vergleichbar mit Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
@@ -442,6 +442,35 @@
442
442
  "doubao-vision-lite-32k.description": "Doubao-vision ist ein multimodales Modell von Doubao mit starkem Bildverständnis und logischem Denken sowie präziser Befolgung von Anweisungen. Es überzeugt bei Bild-Text-Extraktion und bildbasierten Denkaufgaben und ermöglicht komplexere und umfassendere visuelle Frage-Antwort-Szenarien.",
443
443
  "doubao-vision-pro-32k.description": "Doubao-vision ist ein multimodales Modell von Doubao mit starkem Bildverständnis und logischem Denken sowie präziser Befolgung von Anweisungen. Es überzeugt bei Bild-Text-Extraktion und bildbasierten Denkaufgaben und ermöglicht komplexere und umfassendere visuelle Frage-Antwort-Szenarien.",
444
444
  "emohaa.description": "Emohaa ist ein Modell für psychische Gesundheit mit professionellen Beratungsfähigkeiten, das Nutzern hilft, emotionale Probleme besser zu verstehen.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B ist ein leichtgewichtiges Open-Source-Modell für lokale und individuell angepasste Bereitstellungen.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B ist ein Open-Source-Modell mit großer Parameteranzahl und verbessertem Verständnis- und Generierungsvermögen.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B ist das ultra-große MoE-Modell von Baidu ERNIE mit herausragender logischer Denkfähigkeit.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview ist ein Vorschau-Modell mit 8K Kontextlänge zur Bewertung von ERNIE 4.5.",
449
+ "ernie-4.5-turbo-128k-preview.description": "ERNIE 4.5 Turbo 128K Preview mit produktionsreifen Funktionen – ideal für Integration und Canary-Tests.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K ist ein leistungsstarkes Allzweckmodell mit Sucherweiterung und Werkzeugnutzung für QA, Programmierung und Agentenszenarien.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K ist eine Version mit mittlerer Kontextlänge für QA, Wissensdatenbankabfragen und mehrstufige Dialoge.",
452
+ "ernie-4.5-turbo-latest.description": "Die neueste Version von ERNIE 4.5 Turbo mit optimierter Gesamtleistung – ideal als primäres Produktionsmodell.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview ist ein multimodales Vorschau-Modell mit 32K Kontext zur Bewertung der Langkontext-Bildverarbeitung.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K ist eine multimodale Version mit mittlerer bis langer Kontextlänge für kombinierte Text- und Bildverarbeitung.",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest ist die neueste multimodale Version mit verbesserter Bild-Text-Verständnis- und Argumentationsfähigkeit.",
456
+ "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview ist ein multimodales Vorschau-Modell für Bild-Text-Verständnis und -Generierung – geeignet für visuelle QA und Inhaltsverständnis.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL ist ein ausgereiftes multimodales Modell für die Bild-Text-Verarbeitung in Produktionsumgebungen.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B ist ein Open-Source-Multimodalmodell für Bild-Text-Verständnis und logisches Denken.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking ist ein natives, vollmodales Flaggschiffmodell mit einheitlicher Modellierung von Text, Bild, Audio und Video. Es bietet umfassende Leistungsverbesserungen für komplexe QA-, Kreativ- und Agentenszenarien.",
460
+ "ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview ist ein natives, vollmodales Flaggschiffmodell mit einheitlicher Modellierung von Text, Bild, Audio und Video. Es bietet umfassende Leistungsverbesserungen für komplexe QA-, Kreativ- und Agentenszenarien.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K ist ein Dialogmodell mit Persönlichkeit für IP-Charakterentwicklung und langfristige Begleitgespräche.",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview ist ein Vorschau-Modell zur Charakter- und Plotentwicklung für Funktionsbewertung und Tests.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K ist ein Persönlichkeitsmodell für Roman- und Plotentwicklung – ideal für die Generierung von Langformgeschichten.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit ist ein Bildbearbeitungsmodell mit Unterstützung für Entfernen, Übermalen und Varianten-Generierung.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K ist ein leichtgewichtiges Allzweckmodell für kostensensitive tägliche QA- und Inhaltserstellung.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K ist ein leichtgewichtiges Hochleistungsmodell für latenz- und kostensensitive Szenarien.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K ist für Langformromane und IP-Plots mit mehreren Charakteren konzipiert.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K ist ein Modell ohne I/O-Gebühren für Langtextverständnis und groß angelegte Tests.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K ist ein kostenloses, schnelles Modell für tägliche Chats und einfache Textaufgaben.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K ist ein hochskalierbares Modell für Online-Dienste und Unternehmensanwendungen mit hoher Parallelität und Wertschöpfung.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultraleichtes Modell für einfache QA, Klassifikation und kostengünstige Inferenz.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Argumentation und mehrstufige Dialoge.",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
445
474
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
446
475
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
447
476
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "Plan erstellt: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "To-dos erstellen",
65
65
  "builtins.lobe-gtd.apiName.execTask": "Aufgabe ausführen",
66
- "builtins.lobe-gtd.apiName.execTask.result": "Ausführen: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "Aufgabe erstellt: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "Aufgabe wird erstellt: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "Aufgaben ausführen",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "To-dos löschen",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "Plan aktualisieren",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
30
30
  "jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
31
31
  "lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
32
+ "lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
32
33
  "minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
33
34
  "mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.",
34
35
  "modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} Batch Subtasks",
296
296
  "task.metrics.stepsShort": "steps",
297
297
  "task.metrics.toolCallsShort": "tool uses",
298
+ "task.status.cancelled": "Task Cancelled",
299
+ "task.status.failed": "Task Failed",
298
300
  "task.status.initializing": "Initializing task...",
299
301
  "task.subtask": "Subtask",
300
302
  "thread.divider": "Subtopic",