@lobehub/lobehub 2.0.0-next.367 → 2.0.0-next.369

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (107) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/auth.json +2 -1
  4. package/locales/ar/models.json +6 -14
  5. package/locales/ar/providers.json +1 -0
  6. package/locales/ar/setting.json +1 -0
  7. package/locales/bg-BG/auth.json +2 -1
  8. package/locales/bg-BG/models.json +33 -7
  9. package/locales/bg-BG/providers.json +1 -0
  10. package/locales/bg-BG/setting.json +1 -0
  11. package/locales/de-DE/auth.json +2 -1
  12. package/locales/de-DE/models.json +32 -14
  13. package/locales/de-DE/providers.json +1 -0
  14. package/locales/de-DE/setting.json +1 -0
  15. package/locales/en-US/auth.json +1 -1
  16. package/locales/en-US/models.json +16 -15
  17. package/locales/en-US/providers.json +1 -0
  18. package/locales/en-US/setting.json +1 -0
  19. package/locales/es-ES/auth.json +2 -1
  20. package/locales/es-ES/models.json +5 -13
  21. package/locales/es-ES/providers.json +1 -0
  22. package/locales/es-ES/setting.json +1 -0
  23. package/locales/fa-IR/auth.json +2 -1
  24. package/locales/fa-IR/models.json +38 -12
  25. package/locales/fa-IR/providers.json +1 -0
  26. package/locales/fa-IR/setting.json +1 -0
  27. package/locales/fr-FR/auth.json +2 -1
  28. package/locales/fr-FR/models.json +43 -15
  29. package/locales/fr-FR/providers.json +1 -0
  30. package/locales/fr-FR/setting.json +1 -0
  31. package/locales/it-IT/auth.json +2 -1
  32. package/locales/it-IT/models.json +51 -10
  33. package/locales/it-IT/providers.json +1 -0
  34. package/locales/it-IT/setting.json +1 -0
  35. package/locales/ja-JP/auth.json +2 -1
  36. package/locales/ja-JP/models.json +33 -15
  37. package/locales/ja-JP/providers.json +1 -0
  38. package/locales/ja-JP/setting.json +1 -0
  39. package/locales/ko-KR/auth.json +2 -1
  40. package/locales/ko-KR/models.json +47 -8
  41. package/locales/ko-KR/providers.json +1 -0
  42. package/locales/ko-KR/setting.json +1 -0
  43. package/locales/nl-NL/auth.json +2 -1
  44. package/locales/nl-NL/models.json +5 -13
  45. package/locales/nl-NL/providers.json +1 -0
  46. package/locales/nl-NL/setting.json +1 -0
  47. package/locales/pl-PL/auth.json +2 -1
  48. package/locales/pl-PL/models.json +35 -13
  49. package/locales/pl-PL/providers.json +1 -0
  50. package/locales/pl-PL/setting.json +1 -0
  51. package/locales/pt-BR/auth.json +2 -1
  52. package/locales/pt-BR/models.json +50 -13
  53. package/locales/pt-BR/providers.json +1 -0
  54. package/locales/pt-BR/setting.json +1 -0
  55. package/locales/ru-RU/auth.json +2 -1
  56. package/locales/ru-RU/models.json +6 -9
  57. package/locales/ru-RU/providers.json +1 -0
  58. package/locales/ru-RU/setting.json +1 -0
  59. package/locales/tr-TR/auth.json +2 -1
  60. package/locales/tr-TR/models.json +49 -15
  61. package/locales/tr-TR/providers.json +1 -0
  62. package/locales/tr-TR/setting.json +1 -0
  63. package/locales/vi-VN/auth.json +2 -1
  64. package/locales/vi-VN/models.json +34 -7
  65. package/locales/vi-VN/providers.json +1 -0
  66. package/locales/vi-VN/setting.json +1 -0
  67. package/locales/zh-CN/auth.json +1 -1
  68. package/locales/zh-CN/models.json +48 -12
  69. package/locales/zh-CN/providers.json +1 -0
  70. package/locales/zh-CN/setting.json +1 -0
  71. package/locales/zh-TW/auth.json +2 -1
  72. package/locales/zh-TW/models.json +31 -14
  73. package/locales/zh-TW/providers.json +1 -0
  74. package/locales/zh-TW/setting.json +1 -0
  75. package/package.json +1 -1
  76. package/packages/types/src/agentGroup/index.ts +4 -0
  77. package/src/app/[variants]/(main)/agent/profile/features/Header/AgentForkTag.tsx +86 -0
  78. package/src/app/[variants]/(main)/agent/profile/features/Header/AgentStatusTag.tsx +82 -0
  79. package/src/app/[variants]/(main)/agent/profile/features/ProfileEditor/AgentHeader.tsx +27 -15
  80. package/src/app/[variants]/(main)/community/(detail)/group_agent/features/Sidebar/ActionButton/ForkGroupAndChat.tsx +1 -0
  81. package/src/app/[variants]/(main)/group/profile/features/GroupProfile/GroupForkTag.tsx +80 -0
  82. package/src/app/[variants]/(main)/group/profile/features/GroupProfile/GroupHeader.tsx +27 -15
  83. package/src/app/[variants]/(main)/group/profile/features/GroupProfile/GroupStatusTag.tsx +83 -0
  84. package/src/app/[variants]/(main)/settings/skill/features/Actions.tsx +0 -3
  85. package/src/app/[variants]/(main)/settings/skill/features/McpSkillItem.tsx +9 -3
  86. package/src/app/[variants]/(main)/settings/skill/features/SkillList.tsx +35 -1
  87. package/src/components/Plugins/PluginTag.tsx +36 -23
  88. package/src/features/ChatInput/ActionBar/Tools/PopoverContent.tsx +3 -3
  89. package/src/features/ChatInput/ActionBar/Tools/useControls.tsx +96 -78
  90. package/src/features/PluginDetailModal/index.tsx +1 -0
  91. package/src/features/ProfileEditor/AgentTool.tsx +141 -126
  92. package/src/features/ProfileEditor/Empty.tsx +22 -0
  93. package/src/features/ProfileEditor/PluginTag.tsx +33 -7
  94. package/src/features/ProfileEditor/PopoverContent.tsx +142 -0
  95. package/src/features/SkillStore/CommunityList/Item.tsx +5 -2
  96. package/src/features/SkillStore/CustomList/Item.tsx +149 -0
  97. package/src/features/SkillStore/CustomList/index.tsx +71 -0
  98. package/src/features/SkillStore/Empty.tsx +3 -0
  99. package/src/features/SkillStore/Search/index.tsx +5 -0
  100. package/src/features/SkillStore/SkillStoreContent.tsx +10 -2
  101. package/src/features/SkillStore/index.tsx +8 -1
  102. package/src/libs/trpc/lambda/middleware/marketUserInfo.ts +13 -1
  103. package/src/locales/default/setting.ts +1 -0
  104. package/src/services/marketApi.ts +1 -1
  105. package/src/store/agentGroup/selectors/byId.ts +1 -0
  106. package/src/store/tool/slices/customPlugin/initialState.ts +2 -0
  107. package/src/store/tool/slices/mcpStore/action.ts +1 -0
package/CHANGELOG.md CHANGED
@@ -2,6 +2,56 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ## [Version 2.0.0-next.369](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.368...v2.0.0-next.369)
6
+
7
+ <sup>Released on **2026-01-24**</sup>
8
+
9
+ #### ✨ Features
10
+
11
+ - **misc**: Add the agent/group profiles page the states and forked by tag.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### What's improved
19
+
20
+ - **misc**: Add the agent/group profiles page the states and forked by tag, closes [#11784](https://github.com/lobehub/lobe-chat/issues/11784) ([1458100](https://github.com/lobehub/lobe-chat/commit/1458100))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
30
+ ## [Version 2.0.0-next.368](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.367...v2.0.0-next.368)
31
+
32
+ <sup>Released on **2026-01-24**</sup>
33
+
34
+ #### ✨ Features
35
+
36
+ - **misc**: Optimize profile editor.
37
+
38
+ <br/>
39
+
40
+ <details>
41
+ <summary><kbd>Improvements and Fixes</kbd></summary>
42
+
43
+ #### What's improved
44
+
45
+ - **misc**: Optimize profile editor, closes [#11783](https://github.com/lobehub/lobe-chat/issues/11783) ([da95ad5](https://github.com/lobehub/lobe-chat/commit/da95ad5))
46
+
47
+ </details>
48
+
49
+ <div align="right">
50
+
51
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
52
+
53
+ </div>
54
+
5
55
  ## [Version 2.0.0-next.367](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.366...v2.0.0-next.367)
6
56
 
7
57
  <sup>Released on **2026-01-24**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,22 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "features": [
5
+ "Add the agent/group profiles page the states and forked by tag."
6
+ ]
7
+ },
8
+ "date": "2026-01-24",
9
+ "version": "2.0.0-next.369"
10
+ },
11
+ {
12
+ "children": {
13
+ "features": [
14
+ "Optimize profile editor."
15
+ ]
16
+ },
17
+ "date": "2026-01-24",
18
+ "version": "2.0.0-next.368"
19
+ },
2
20
  {
3
21
  "children": {
4
22
  "fixes": [
@@ -94,9 +94,10 @@
94
94
  "betterAuth.signin.orContinueWith": "أو",
95
95
  "betterAuth.signin.passwordPlaceholder": "أدخل كلمة المرور",
96
96
  "betterAuth.signin.passwordStep.subtitle": "أدخل كلمة المرور للمتابعة",
97
+ "betterAuth.signin.setPassword": "قم بتعيين كلمة مرور",
97
98
  "betterAuth.signin.signupLink": "سجّل الآن",
98
99
  "betterAuth.signin.socialError": "فشل تسجيل الدخول الاجتماعي، يرجى المحاولة مرة أخرى",
99
- "betterAuth.signin.socialOnlyHint": "تم تسجيل هذا البريد الإلكتروني باستخدام حساب اجتماعي. يرجى تسجيل الدخول باستخدام مزود الخدمة المناسب.",
100
+ "betterAuth.signin.socialOnlyHint": "تم تسجيل هذا البريد الإلكتروني عبر حساب اجتماعي تابع لطرف ثالث. سجّل الدخول باستخدام ذلك المزود، أو",
100
101
  "betterAuth.signin.submit": "تسجيل الدخول",
101
102
  "betterAuth.signup.confirmPasswordPlaceholder": "تأكيد كلمة المرور",
102
103
  "betterAuth.signup.emailPlaceholder": "أدخل عنوان بريدك الإلكتروني",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
272
272
  "claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
273
273
  "claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic. مقارنةً بـ Claude 3 Haiku، يقدم تحسينات في المهارات ويتفوق على أكبر نموذج سابق Claude 3 Opus في العديد من اختبارات الذكاء.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل الجديد من Anthropic، مع تحسينات في المهارات وتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من المعايير.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق. يمكنه تقديم ردود شبه فورية أو استدلال تدريجي مرئي للمستخدمين. يتميز Sonnet بقوة خاصة في البرمجة، علم البيانات، الرؤية، ومهام الوكلاء.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق، يدعم الاستجابات الفورية أو التفكير المطول مع تحكم دقيق.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة فائقة وقدرة استدلال موسعة.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأكثر نماذج Haiku ذكاءً من Anthropic، يتميز بسرعة فائقة وقدرة على التفكير المطول.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
283
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
283
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي والذكاء والطلاقة والفهم العميق.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي والذكاء والطلاقة والفهم العميق.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه تقديم ردود شبه فورية أو تفكير تدريجي بخطوات مرئية.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو أذكى نموذج من Anthropic حتى الآن، يوفر استجابات شبه فورية أو تفكيرًا متسلسلًا مع تحكم دقيق لمستخدمي واجهة البرمجة.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
289
289
  "codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
@@ -355,7 +355,6 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
358
- "deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة نموذج البرمجة، مع تحسين التوافق مع تفضيلات المستخدم. DeepSeek-V2.5 يعزز أيضًا مهارات الكتابة واتباع التعليمات.",
359
358
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
360
359
  "deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
361
360
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
@@ -378,7 +377,6 @@
378
377
  "deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
379
378
  "deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
380
379
  "deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
381
- "deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
382
380
  "deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
383
381
  "deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
384
382
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
@@ -472,7 +470,6 @@
472
470
  "ernie-tiny-8k.description": "ERNIE Tiny 8K هو نموذج فائق الخفة للأسئلة البسيطة، والتصنيف، والاستدلال منخفض التكلفة.",
473
471
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
474
472
  "ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
475
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع تحكم عالي الجودة في إخراج الصور. يقوم بإنشاء صور من التعليمات النصية.",
476
473
  "fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
477
474
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
478
475
  "fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
@@ -480,8 +477,6 @@
480
477
  "fal-ai/hunyuan-image/v3.description": "نموذج قوي لتوليد الصور متعدد الوسائط أصلي.",
481
478
  "fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.",
482
479
  "fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.",
483
- "fal-ai/qwen-image-edit.description": "نموذج تحرير صور احترافي من فريق Qwen يدعم التعديلات الدلالية والمظهرية، ويحرر النصوص الصينية والإنجليزية بدقة، ويدعم تعديلات عالية الجودة مثل نقل الأسلوب وتدوير العناصر.",
484
- "fal-ai/qwen-image.description": "نموذج توليد صور قوي من فريق Qwen يتميز بعرض مميز للنصوص الصينية وأنماط بصرية متنوعة.",
485
480
  "flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
486
481
  "flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
487
482
  "flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
@@ -513,8 +508,6 @@
513
508
  "gemini-2.0-flash-lite-001.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.",
514
509
  "gemini-2.0-flash-lite.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.",
515
510
  "gemini-2.0-flash.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، واستخدام الأدوات الأصلية، والتوليد متعدد الوسائط، وسياق يصل إلى مليون رمز.",
516
- "gemini-2.5-flash-image-preview.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
517
- "gemini-2.5-flash-image-preview:image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
518
511
  "gemini-2.5-flash-image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
519
512
  "gemini-2.5-flash-image:image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
520
513
  "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview هو أصغر نموذج من Google وأفضلها من حيث القيمة، مصمم للاستخدام واسع النطاق.",
@@ -529,7 +522,6 @@
529
522
  "gemini-2.5-pro.description": "Gemini 2.5 Pro هو النموذج الرائد من Google في مجال الاستدلال، يدعم السياق الطويل للمهام المعقدة.",
530
523
  "gemini-3-flash-preview.description": "Gemini 3 Flash هو أذكى نموذج تم تصميمه للسرعة، يجمع بين الذكاء المتقدم وأساس بحث ممتاز.",
531
524
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.",
532
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.",
533
525
  "gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.",
534
526
  "gemini-flash-latest.description": "أحدث إصدار من Gemini Flash",
535
527
  "gemini-flash-lite-latest.description": "أحدث إصدار من Gemini Flash-Lite",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.",
30
30
  "jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
31
31
  "lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
32
+ "lobehub.description": "تستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، وتقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.",
32
33
  "minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
33
34
  "mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.",
34
35
  "modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.",
@@ -495,6 +495,7 @@
495
495
  "skillStore.networkError": "خطأ في الشبكة، يرجى المحاولة مرة أخرى",
496
496
  "skillStore.search": "ابحث عن المهارات بالاسم أو الكلمة المفتاحية، اضغط Enter للبحث…",
497
497
  "skillStore.tabs.community": "المجتمع",
498
+ "skillStore.tabs.custom": "مخصص",
498
499
  "skillStore.tabs.lobehub": "LobeHub",
499
500
  "skillStore.title": "متجر المهارات",
500
501
  "startConversation": "ابدأ المحادثة",
@@ -94,9 +94,10 @@
94
94
  "betterAuth.signin.orContinueWith": "ИЛИ",
95
95
  "betterAuth.signin.passwordPlaceholder": "Въведете паролата си",
96
96
  "betterAuth.signin.passwordStep.subtitle": "Въведете паролата си, за да продължите",
97
+ "betterAuth.signin.setPassword": "създайте парола",
97
98
  "betterAuth.signin.signupLink": "Регистрирайте се сега",
98
99
  "betterAuth.signin.socialError": "Неуспешен вход чрез социална мрежа, опитайте отново",
99
- "betterAuth.signin.socialOnlyHint": "Този имейл е регистриран чрез социален акаунт. Моля, влезте чрез съответния доставчик.",
100
+ "betterAuth.signin.socialOnlyHint": "Този имейл е регистриран чрез акаунт в социална мрежа. Влезте чрез този доставчик или",
100
101
  "betterAuth.signin.submit": "Вход",
101
102
  "betterAuth.signup.confirmPasswordPlaceholder": "Потвърдете паролата си",
102
103
  "betterAuth.signup.emailPlaceholder": "Въведете имейл адрес",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
272
272
  "claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
273
273
  "claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва подобрение в различни умения и надминава предишния най-голям модел Claude 3 Opus в много интелигентностни тестове.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic, с подобрени умения и превъзхождащ предишния водещ модел Claude 3 Opus в множество тестове.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да генерира почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни, визуални задачи и агентни приложения.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара, предлагащ почти мигновени отговори или задълбочено мислене с прецизен контрол.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено мислене.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
283
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
283
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за изключително сложни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително сложни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено поетапно мислене с видим процес.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено поетапно мислене с прецизен контрол за потребителите на API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
289
289
  "codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
@@ -355,6 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 балансира разсъждение и дължина на изхода за ежедневни въпроси и задачи на агенти. Публичните тестове достигат нивата на GPT-5 и това е първият модел, който интегрира мислене в използването на инструменти, водещ в оценките на отворените агенти.",
358
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
359
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
360
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
@@ -377,6 +378,7 @@
377
378
  "deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
378
379
  "deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
379
380
  "deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking е дълбок разсъждаващ модел, който генерира верига от мисли преди отговорите за по-висока точност, с водещи резултати в състезания и разсъждение, сравнимо с Gemini-3.0-Pro.",
380
382
  "deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
381
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
382
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
@@ -470,6 +472,8 @@
470
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K е ултралек модел за прости QA, класификация и нискоразходно извеждане.",
471
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
472
474
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
475
+ "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, създаден от екипа Seed на ByteDance, поддържа редактиране и композиране на множество изображения. Отличава се с подобрена последователност на обектите, точно следване на инструкции, разбиране на пространствена логика, естетическо изразяване, оформление на плакати и дизайн на лога с високопрецизно рендиране на текст и изображения.",
476
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, създаден от ByteDance Seed, поддържа вход от текст и изображения за висококачествено и контролируемо генериране на изображения от подсказки.",
473
477
  "fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
474
478
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
475
479
  "fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
@@ -477,6 +481,8 @@
477
481
  "fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
478
482
  "fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
479
483
  "fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
484
+ "fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа Qwen, поддържащ семантични и визуални редакции, прецизно редактиране на текст на китайски/английски, трансфер на стил, завъртане и други.",
485
+ "fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа Qwen с отлично рендиране на китайски текст и разнообразни визуални стилове.",
480
486
  "flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 1–4 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
481
487
  "flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
482
488
  "flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
@@ -524,7 +530,7 @@
524
530
  "gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
525
531
  "gemini-3-flash-preview.description": "Gemini 3 Flash е най-интелигентният модел, създаден за скорост, съчетаващ авангардна интелигентност с отлично търсене и обоснованост.",
526
532
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)е модел на Google за генериране на изображения, който също така поддържа мултимодален диалог.",
527
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения, който също така поддържа мултимодален чат.",
533
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е моделът на Google за генериране на изображения, който също поддържа мултимодален чат.",
528
534
  "gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.",
529
535
  "gemini-flash-latest.description": "Най-новата версия на Gemini Flash",
530
536
  "gemini-flash-lite-latest.description": "Най-новата версия на Gemini Flash-Lite",
@@ -638,6 +644,26 @@
638
644
  "gpt-4o-search-preview.description": "GPT-4o Search Preview е обучен да разбира и изпълнява заявки за уеб търсене чрез Chat Completions API. Уеб търсенето се таксува на извикване на инструмент в допълнение към разходите за токени.",
639
645
  "gpt-4o-transcribe.description": "GPT-4o Transcribe е модел за преобразуване на реч в текст, който транскрибира аудио с помощта на GPT-4o, подобрявайки точността на думите, идентификацията на езика и прецизността спрямо оригиналния модел Whisper.",
640
646
  "gpt-4o.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, който съчетава силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
647
+ "gpt-5-chat-latest.description": "Моделът GPT-5, използван в ChatGPT, съчетава силно разбиране и генериране за разговорни приложения.",
648
+ "gpt-5-chat.description": "GPT-5 Chat е предварителен модел, оптимизиран за разговорни сценарии. Поддържа вход от текст и изображения, изход само текст, подходящ за чатботове и разговорен ИИ.",
649
+ "gpt-5-codex.description": "GPT-5 Codex е вариант на GPT-5, оптимизиран за агентски задачи по програмиране в среди, подобни на Codex.",
650
+ "gpt-5-mini.description": "По-бърз и по-икономичен вариант на GPT-5 за добре дефинирани задачи, осигуряващ по-бързи отговори при запазено качество.",
651
+ "gpt-5-nano.description": "Най-бързият и най-рентабилен вариант на GPT-5, идеален за приложения, чувствителни към закъснение и разходи.",
652
+ "gpt-5-pro.description": "GPT-5 Pro използва повече изчислителна мощ за по-дълбоко мислене и последователно предоставя по-добри отговори.",
653
+ "gpt-5.1-chat-latest.description": "GPT-5.1 Chat: вариантът на GPT-5.1 за ChatGPT, създаден за чат сценарии.",
654
+ "gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: по-малък и по-евтин вариант на Codex, оптимизиран за агентски задачи по програмиране.",
655
+ "gpt-5.1-codex.description": "GPT-5.1 Codex: вариант на GPT-5.1, оптимизиран за агентски задачи по програмиране, за сложни кодови/агентски работни потоци в Responses API.",
656
+ "gpt-5.1.description": "GPT-5.1 — водещ модел, оптимизиран за програмиране и агентски задачи с конфигурируемо усилие за разсъждение и по-дълъг контекст.",
657
+ "gpt-5.2-chat-latest.description": "GPT-5.2 Chat е вариантът на ChatGPT (chat-latest) за изпробване на най-новите подобрения в разговорите.",
658
+ "gpt-5.2-pro.description": "GPT-5.2 Pro: по-интелигентен и прецизен вариант на GPT-5.2 (само за Responses API), подходящ за трудни проблеми и дълги многоходови разсъждения.",
659
+ "gpt-5.2.description": "GPT-5.2 е водещ модел за програмиране и агентски работни потоци с по-силно разсъждение и производителност при дълъг контекст.",
660
+ "gpt-5.description": "Най-добрият модел за междудисциплинарно програмиране и агентски задачи. GPT-5 прави скок в точността, скоростта, разсъждението, осъзнаването на контекста, структурираното мислене и решаването на проблеми.",
661
+ "gpt-audio.description": "GPT Audio е универсален чат модел за вход/изход на аудио, поддържан в Chat Completions API.",
662
+ "gpt-image-1-mini.description": "По-евтин вариант на GPT Image 1 с роден вход от текст и изображения и изход на изображения.",
663
+ "gpt-image-1.5.description": "Подобрен модел GPT Image 1 с 4× по-бързо генериране, по-прецизно редактиране и подобрено рендиране на текст.",
664
+ "gpt-image-1.description": "Роден мултимодален модел за генериране на изображения в ChatGPT.",
665
+ "gpt-oss-120b.description": "Изисква кандидатстване за достъп. GPT-OSS-120B е отворен голям езиков модел от OpenAI със силни възможности за генериране на текст.",
666
+ "gpt-oss-20b.description": "Изисква кандидатстване за достъп. GPT-OSS-20B е отворен езиков модел със среден размер от OpenAI с ефективно генериране на текст.",
641
667
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
642
668
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
643
669
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
30
30
  "jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
31
31
  "lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
32
+ "lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
32
33
  "minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
33
34
  "mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
34
35
  "modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",
@@ -495,6 +495,7 @@
495
495
  "skillStore.networkError": "Грешка в мрежата, моля опитайте отново",
496
496
  "skillStore.search": "Търсете умения по име или ключова дума, натиснете Enter за търсене…",
497
497
  "skillStore.tabs.community": "Общност",
498
+ "skillStore.tabs.custom": "Персонализирано",
498
499
  "skillStore.tabs.lobehub": "LobeHub",
499
500
  "skillStore.title": "Магазин за умения",
500
501
  "startConversation": "Започни разговор",
@@ -94,9 +94,10 @@
94
94
  "betterAuth.signin.orContinueWith": "ODER",
95
95
  "betterAuth.signin.passwordPlaceholder": "Passwort eingeben",
96
96
  "betterAuth.signin.passwordStep.subtitle": "Geben Sie Ihr Passwort ein, um fortzufahren",
97
+ "betterAuth.signin.setPassword": "Passwort festlegen",
97
98
  "betterAuth.signin.signupLink": "Jetzt registrieren",
98
99
  "betterAuth.signin.socialError": "Soziale Anmeldung fehlgeschlagen, bitte versuchen Sie es erneut",
99
- "betterAuth.signin.socialOnlyHint": "Diese E-Mail wurde mit einem sozialen Konto registriert. Bitte melden Sie sich mit dem entsprechenden Anbieter an.",
100
+ "betterAuth.signin.socialOnlyHint": "Diese E-Mail wurde über ein Drittanbieter-Konto registriert. Melden Sie sich mit diesem Anbieter an oder",
100
101
  "betterAuth.signin.submit": "Anmelden",
101
102
  "betterAuth.signup.confirmPasswordPlaceholder": "Passwort bestätigen",
102
103
  "betterAuth.signup.emailPlaceholder": "E-Mail-Adresse eingeben",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
272
272
  "claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
273
273
  "claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic und verbessert sich in zahlreichen Fähigkeiten. Es übertrifft das bisherige Flaggschiff Claude 3 Opus in vielen Benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es liefert nahezu sofortige Antworten oder schrittweise Denkprozesse, die für Nutzer sichtbar sind. Sonnet ist besonders stark in den Bereichen Programmierung, Data Science, Bildverarbeitung und Agentenaufgaben.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es ermöglicht nahezu sofortige Antworten oder tiefgreifendes Denken mit präziser Steuerung.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – blitzschnell und mit erweitertem Denkvermögen.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
283
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
283
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und zeichnet sich durch exzellente Leistung, Intelligenz, Sprachgewandtheit und Verständnis aus.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken mit sichtbarem Prozess.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic. Es bietet nahezu sofortige Antworten oder schrittweises Denken mit feingranularer Steuerung für API-Nutzer.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
289
289
  "codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
358
- "deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es vereint die Dialogstärke des Chat-Modells mit der Programmierleistung des Coder-Modells und bietet eine bessere Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 balanciert logisches Denken und Ausgabelänge für tägliche QA- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau. Es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führt Open-Source-Agentenbewertungen an.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
381
- "deepseek-reasoner.description": "Der Denkmodus DeepSeek V3.2 gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein Modell für tiefes logisches Denken, das vor der Ausgabe eine Gedankenkette generiert, um die Genauigkeit zu erhöhen. Es erzielt Spitzenwerte im Wettbewerb und bietet logisches Denken auf dem Niveau von Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
@@ -472,7 +472,8 @@
472
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultra-leichtgewichtiges Modell für einfache Frage-Antwort-Aufgaben, Klassifikation und kostengünstige Inferenz.",
473
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
474
474
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
475
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erstellt Bilder aus Texteingaben.",
475
+ "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, entwickelt vom Seed-Team von ByteDance, unterstützt Multi-Bild-Bearbeitung und -Komposition. Es bietet verbesserte Subjektkonsistenz, präzise Befolgung von Anweisungen, räumliches Logikverständnis, ästhetischen Ausdruck, Poster-Layout und Logo-Design mit hochpräziser Text-Bild-Darstellung.",
476
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für hochqualitative, kontrollierbare Bildgenerierung aus Prompts.",
476
477
  "fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
477
478
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
478
479
  "fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
@@ -480,8 +481,8 @@
480
481
  "fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
481
482
  "fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
482
483
  "fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
483
- "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen unterstützt, chinesischen und englischen Text präzise editiert und hochwertige Bearbeitungen wie Stilübertragungen und Objektrotationen ermöglicht.",
484
- "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
484
+ "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen, präzise Textbearbeitung in Chinesisch/Englisch, Stilübertragungen, Drehungen und mehr unterstützt.",
485
+ "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit starker chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
485
486
  "flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 1–4 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
486
487
  "flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
487
488
  "flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
@@ -513,8 +514,8 @@
513
514
  "gemini-2.0-flash-lite-001.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
514
515
  "gemini-2.0-flash-lite.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
515
516
  "gemini-2.0-flash.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
516
- "gemini-2.5-flash-image-preview.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
517
- "gemini-2.5-flash-image-preview:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
517
+ "gemini-2.5-flash-image-preview.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google und ermöglicht dialogbasierte Bildgenerierung und -bearbeitung.",
518
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google und ermöglicht dialogbasierte Bildgenerierung und -bearbeitung.",
518
519
  "gemini-2.5-flash-image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
519
520
  "gemini-2.5-flash-image:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
520
521
  "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview ist Googles kleinstes und kosteneffizientestes Modell für großflächige Nutzung.",
@@ -529,7 +530,7 @@
529
530
  "gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
530
531
  "gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das auf Geschwindigkeit ausgelegt ist – es vereint modernste Intelligenz mit exzellenter Suchverankerung.",
531
532
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Dialoge.",
532
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodale Chats.",
533
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist das Bildgenerierungsmodell von Google und unterstützt auch multimodale Chats.",
533
534
  "gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
534
535
  "gemini-flash-latest.description": "Neueste Version von Gemini Flash",
535
536
  "gemini-flash-lite-latest.description": "Neueste Version von Gemini Flash-Lite",
@@ -726,6 +727,23 @@
726
727
  "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 ist das dritte Modell der Ling 2.0-Architektur vom Bailing-Team der Ant Group. Es handelt sich um ein MoE-Modell mit insgesamt 100 Milliarden Parametern, von denen nur 6,1 Milliarden pro Token aktiv sind (4,8 Milliarden ohne Einbettung). Trotz der schlanken Konfiguration erreicht es die Leistung von 40B-dichten Modellen und übertrifft sogar größere MoE-Modelle in mehreren Benchmarks – ein Beweis für hohe Effizienz durch Architektur und Trainingsstrategie.",
727
728
  "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 ist ein kleines, leistungsstarkes MoE-LLM mit 16 Milliarden Gesamtparametern und nur 1,4 Milliarden aktiven Parametern pro Token (789 Millionen ohne Einbettung), das eine sehr schnelle Generierung ermöglicht. Dank effizientem MoE-Design und großen, hochwertigen Trainingsdaten erreicht es eine Spitzenleistung, vergleichbar mit dichten Modellen unter 10B und größeren MoE-Modellen.",
728
729
  "inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 ist ein leistungsstarkes Denkmodell, das auf Ling-flash-2.0-base basiert. Es verwendet eine MoE-Architektur mit 100 Milliarden Gesamtparametern und nur 6,1 Milliarden aktiven Parametern pro Inferenz. Der Icepop-Algorithmus stabilisiert das RL-Training für MoE-Modelle und ermöglicht kontinuierliche Fortschritte im komplexen Denken. Es erzielt große Durchbrüche bei schwierigen Benchmarks (Mathematikwettbewerbe, Codegenerierung, logisches Denken), übertrifft führende dichte Modelle unter 40B und konkurriert mit größeren offenen und geschlossenen Reasoning-Modellen. Auch im kreativen Schreiben überzeugt es, und seine effiziente Architektur ermöglicht schnelle Inferenz bei niedrigen Betriebskosten für hohe Parallelität.",
730
+ "inclusionai/ling-1t.description": "Ling-1T ist das 1T-MoE-Modell von inclusionAI, optimiert für hochintensive Denkaufgaben und große Kontexte.",
731
+ "inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 ist ein MoE-Modell von inclusionAI, das auf Effizienz und Denkleistung optimiert ist – ideal für mittelgroße bis große Aufgaben.",
732
+ "inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 ist das leichtgewichtige MoE-Modell von inclusionAI, das die Kosten deutlich senkt und dennoch Denkfähigkeit beibehält.",
733
+ "inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview ist das multimodale Modell von inclusionAI mit Unterstützung für Sprache, Bild und Video. Es bietet verbesserte Bilddarstellung und Spracherkennung.",
734
+ "inclusionai/ring-1t.description": "Ring-1T ist das Billionen-Parameter-MoE-Modell von inclusionAI für groß angelegte Denk- und Forschungsaufgaben.",
735
+ "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 ist eine Variante des Ring-Modells von inclusionAI für Szenarien mit hohem Durchsatz, mit Fokus auf Geschwindigkeit und Kosteneffizienz.",
736
+ "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 ist das leichtgewichtige Hochdurchsatz-MoE-Modell von inclusionAI, entwickelt für gleichzeitige Verarbeitung.",
737
+ "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat ist ein Open-Source-Chatmodell basierend auf der InternLM2-Architektur. Das 7B-Modell konzentriert sich auf Dialoggenerierung mit Unterstützung für Chinesisch und Englisch und nutzt modernes Training für flüssige, intelligente Konversationen. Es eignet sich für viele Chat-Szenarien wie Kundensupport und persönliche Assistenten.",
738
+ "internlm2.5-latest.description": "Legacy-Modelle, die weiterhin gepflegt werden und nach vielen Iterationen eine hervorragende, stabile Leistung bieten. Verfügbar in 7B- und 20B-Größen, mit Unterstützung für 1M-Kontext und verbesserter Befolgung von Anweisungen sowie Werkzeugnutzung. Standardmäßig wird die neueste InternLM2.5-Serie verwendet (derzeit internlm2.5-20b-chat).",
739
+ "internlm3-latest.description": "Unsere neueste Modellreihe mit exzellenter Denkleistung, führend unter offenen Modellen ihrer Größenklasse. Standardmäßig wird die neueste InternLM3-Serie verwendet (derzeit internlm3-8b-instruct).",
740
+ "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO ist ein multimodales vortrainiertes Modell für komplexes Bild-Text-Denken.",
741
+ "internvl2.5-latest.description": "InternVL2.5 wird weiterhin gepflegt und bietet starke, stabile Leistung. Standardmäßig wird die neueste InternVL2.5-Serie verwendet (derzeit internvl2.5-78b).",
742
+ "internvl3-14b.description": "InternVL3 14B ist ein mittelgroßes multimodales Modell mit ausgewogenem Verhältnis von Leistung und Kosten.",
743
+ "internvl3-1b.description": "InternVL3 1B ist ein leichtgewichtiges multimodales Modell für ressourcenbeschränkte Einsätze.",
744
+ "internvl3-38b.description": "InternVL3 38B ist ein großes Open-Source-Multimodalmodell für hochpräzises Bild-Text-Verständnis.",
745
+ "internvl3-latest.description": "Unser neuestes multimodales Modell mit verbessertem Bild-Text-Verständnis und Langsequenz-Bildverarbeitung, vergleichbar mit führenden geschlossenen Modellen. Standardmäßig wird die neueste InternVL-Serie verwendet (derzeit internvl3-78b).",
746
+ "irag-1.0.description": "ERNIE iRAG ist ein Modell zur bildgestützten Generierung mit Bildsuche, Bild-Text-Retrieval und Inhaltserstellung.",
729
747
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
730
748
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
731
749
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
30
30
  "jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
31
31
  "lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
32
+ "lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
32
33
  "minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
33
34
  "mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.",
34
35
  "modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",
@@ -495,6 +495,7 @@
495
495
  "skillStore.networkError": "Netzwerkfehler, bitte versuchen Sie es erneut",
496
496
  "skillStore.search": "Skills nach Name oder Stichwort suchen, drücken Sie Enter zum Suchen…",
497
497
  "skillStore.tabs.community": "Community",
498
+ "skillStore.tabs.custom": "Benutzerdefiniert",
498
499
  "skillStore.tabs.lobehub": "LobeHub",
499
500
  "skillStore.title": "Skill-Store",
500
501
  "startConversation": "Konversation starten",
@@ -97,7 +97,7 @@
97
97
  "betterAuth.signin.setPassword": "set a password",
98
98
  "betterAuth.signin.signupLink": "Sign up now",
99
99
  "betterAuth.signin.socialError": "Social sign in failed, please try again",
100
- "betterAuth.signin.socialOnlyHint": "This email was registered via social login. Sign in with that provider, or",
100
+ "betterAuth.signin.socialOnlyHint": "This email was registered via a third-party social account. Sign in with that provider, or",
101
101
  "betterAuth.signin.submit": "Sign In",
102
102
  "betterAuth.signup.confirmPasswordPlaceholder": "Confirm your password",
103
103
  "betterAuth.signup.emailPlaceholder": "Enter your email address",