@lobehub/lobehub 2.0.0-next.252 → 2.0.0-next.254
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/apps/desktop/build/entitlements.mac.plist +9 -0
- package/apps/desktop/resources/locales/zh-CN/dialog.json +5 -1
- package/apps/desktop/resources/locales/zh-CN/menu.json +7 -0
- package/apps/desktop/src/main/controllers/SystemCtr.ts +186 -94
- package/apps/desktop/src/main/controllers/__tests__/SystemCtr.test.ts +200 -31
- package/apps/desktop/src/main/core/browser/Browser.ts +9 -0
- package/apps/desktop/src/main/locales/default/dialog.ts +7 -2
- package/apps/desktop/src/main/locales/default/menu.ts +7 -0
- package/apps/desktop/src/main/menus/impls/macOS.ts +44 -1
- package/apps/desktop/src/main/utils/fullDiskAccess.ts +121 -0
- package/changelog/v1.json +14 -0
- package/locales/ar/discover.json +3 -0
- package/locales/ar/file.json +2 -0
- package/locales/ar/models.json +38 -10
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +42 -0
- package/locales/bg-BG/discover.json +3 -0
- package/locales/bg-BG/file.json +2 -0
- package/locales/bg-BG/models.json +36 -7
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +43 -1
- package/locales/de-DE/discover.json +3 -0
- package/locales/de-DE/file.json +2 -0
- package/locales/de-DE/models.json +45 -10
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +43 -1
- package/locales/en-US/discover.json +3 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +0 -1
- package/locales/en-US/setting.json +43 -1
- package/locales/es-ES/discover.json +3 -0
- package/locales/es-ES/file.json +2 -0
- package/locales/es-ES/models.json +49 -10
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +43 -1
- package/locales/fa-IR/discover.json +3 -0
- package/locales/fa-IR/file.json +2 -0
- package/locales/fa-IR/models.json +39 -10
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +43 -1
- package/locales/fr-FR/discover.json +3 -0
- package/locales/fr-FR/file.json +2 -0
- package/locales/fr-FR/models.json +36 -7
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +42 -0
- package/locales/it-IT/discover.json +3 -0
- package/locales/it-IT/file.json +2 -0
- package/locales/it-IT/models.json +45 -10
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +42 -0
- package/locales/ja-JP/discover.json +3 -0
- package/locales/ja-JP/file.json +2 -0
- package/locales/ja-JP/models.json +42 -7
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +42 -0
- package/locales/ko-KR/discover.json +3 -0
- package/locales/ko-KR/file.json +2 -0
- package/locales/ko-KR/models.json +48 -7
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +42 -0
- package/locales/nl-NL/discover.json +3 -0
- package/locales/nl-NL/file.json +2 -0
- package/locales/nl-NL/models.json +4 -6
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +42 -0
- package/locales/pl-PL/discover.json +3 -0
- package/locales/pl-PL/file.json +2 -0
- package/locales/pl-PL/models.json +36 -7
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +43 -1
- package/locales/pt-BR/discover.json +3 -0
- package/locales/pt-BR/file.json +2 -0
- package/locales/pt-BR/models.json +47 -6
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +42 -0
- package/locales/ru-RU/discover.json +3 -0
- package/locales/ru-RU/file.json +2 -0
- package/locales/ru-RU/models.json +36 -7
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +42 -0
- package/locales/tr-TR/discover.json +3 -0
- package/locales/tr-TR/file.json +2 -0
- package/locales/tr-TR/models.json +36 -5
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +43 -1
- package/locales/vi-VN/discover.json +3 -0
- package/locales/vi-VN/file.json +2 -0
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +42 -0
- package/locales/zh-CN/discover.json +3 -3
- package/locales/zh-CN/models.json +38 -9
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-CN/setting.json +42 -0
- package/locales/zh-TW/discover.json +3 -0
- package/locales/zh-TW/file.json +2 -0
- package/locales/zh-TW/models.json +54 -10
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +42 -0
- package/package.json +1 -1
- package/packages/electron-client-ipc/src/events/system.ts +1 -0
- package/src/app/[variants]/(desktop)/desktop-onboarding/features/PermissionsStep.tsx +16 -30
- package/src/app/[variants]/(desktop)/desktop-onboarding/index.tsx +19 -9
- package/src/app/[variants]/(desktop)/desktop-onboarding/storage.ts +49 -0
- package/src/features/ChatInput/ActionBar/Params/Controls.tsx +7 -6
- package/apps/desktop/src/main/controllers/scripts/full-disk-access.applescript +0 -85
package/locales/ar/models.json
CHANGED
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic،
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic. مقارنةً بـ Claude 3 Haiku، فإنه يُظهر تحسنًا في المهارات ويتفوق على أكبر نموذج سابق Claude 3 Opus في العديد من اختبارات الذكاء.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق. يمكنه تقديم ردود شبه فورية أو استدلال تدريجي خطوة بخطوة يمكن للمستخدمين متابعته. يتميز Sonnet بقوة خاصة في البرمجة، وعلوم البيانات، والرؤية الحاسوبية، ومهام الوكلاء.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يجمع بين السرعة الخاطفة والاستدلال المتقدم.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية،
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، والذكاء، والطلاقة، والفهم العميق.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه تقديم ردود شبه فورية أو تفكير تدريجي خطوة بخطوة مع عرض واضح للعملية.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة نموذج البرمجة، مع تحسين التوافق مع تفضيلات المستخدم. DeepSeek-V2.5 يعزز أيضًا مهارات الكتابة واتباع التعليمات.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
|
|
379
379
|
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
|
|
380
380
|
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 يُنتج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K هو نموذج فائق الخفة للأسئلة البسيطة، والتصنيف، والاستدلال منخفض التكلفة.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
|
|
473
473
|
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع تحكم عالي الجودة في إخراج الصور. يُولّد صورًا من التعليمات النصية.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "نموذج قوي لتوليد الصور متعدد الوسائط أصلي.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "نموذج
|
|
483
|
-
"fal-ai/qwen-image.description": "نموذج
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "نموذج تحرير صور احترافي من فريق Qwen يدعم التعديلات الدلالية والمظهرية، ويحرر النصوص الصينية والإنجليزية بدقة، ويتيح تعديلات عالية الجودة مثل نقل الأسلوب وتدوير العناصر.",
|
|
483
|
+
"fal-ai/qwen-image.description": "نموذج توليد صور قوي من فريق Qwen يتميز بعرض مميز للنصوص الصينية وأنماط بصرية متنوعة.",
|
|
484
484
|
"flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
|
|
486
486
|
"flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
|
|
@@ -512,6 +512,34 @@
|
|
|
512
512
|
"gemini-2.0-flash-lite-001.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.",
|
|
513
513
|
"gemini-2.0-flash-lite.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.",
|
|
514
514
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، واستخدام الأدوات الأصلية، والتوليد متعدد الوسائط، وسياق يصل إلى مليون رمز.",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview هو أصغر نموذج من Google وأفضلها من حيث القيمة، مصمم للاستخدام واسع النطاق.",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "إصدار معاينة (25 سبتمبر 2025) من Gemini 2.5 Flash-Lite",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite هو أصغر نموذج من Google وأفضلها من حيث القيمة، مصمم للاستخدام واسع النطاق.",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview هو أفضل نموذج من Google من حيث القيمة مع قدرات كاملة.",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "إصدار معاينة (25 سبتمبر 2025) من Gemini 2.5 Flash",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash هو أفضل نموذج من Google من حيث القيمة مع قدرات كاملة.",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview هو أكثر نماذج Google تقدمًا في الاستدلال، قادر على تحليل الشيفرات والرياضيات ومشاكل العلوم، وتحليل مجموعات البيانات الكبيرة وقواعد الشيفرة والمستندات ضمن سياق طويل.",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview هو أكثر نماذج Google تقدمًا في الاستدلال، قادر على تحليل الشيفرات والرياضيات ومشاكل العلوم، وتحليل مجموعات البيانات الكبيرة وقواعد الشيفرة والمستندات ضمن سياق طويل.",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview هو أكثر نماذج Google تقدمًا في الاستدلال، قادر على تحليل الشيفرات والرياضيات ومشاكل العلوم، وتحليل مجموعات البيانات الكبيرة وقواعد الشيفرة والمستندات ضمن سياق طويل.",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro هو النموذج الرائد من Google في مجال الاستدلال، يدعم السياق الطويل للمهام المعقدة.",
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash هو النموذج الأذكى المصمم للسرعة، يجمع بين الذكاء المتقدم والبحث الفائق.",
|
|
530
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.",
|
|
531
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.",
|
|
532
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.",
|
|
533
|
+
"gemini-flash-latest.description": "أحدث إصدار من Gemini Flash",
|
|
534
|
+
"gemini-flash-lite-latest.description": "أحدث إصدار من Gemini Flash-Lite",
|
|
535
|
+
"gemini-pro-latest.description": "أحدث إصدار من Gemini Pro",
|
|
536
|
+
"gemma-7b-it.description": "Gemma 7B فعال من حيث التكلفة للمهام الصغيرة والمتوسطة.",
|
|
537
|
+
"gemma2-9b-it.description": "Gemma 2 9B مُحسّن للمهام المحددة وتكامل الأدوات.",
|
|
538
|
+
"gemma2.description": "Gemma 2 هو نموذج فعال من Google يغطي حالات الاستخدام من التطبيقات الصغيرة إلى معالجة البيانات المعقدة.",
|
|
539
|
+
"gemma2:27b.description": "Gemma 2 هو نموذج فعال من Google يغطي حالات الاستخدام من التطبيقات الصغيرة إلى معالجة البيانات المعقدة.",
|
|
540
|
+
"gemma2:2b.description": "Gemma 2 هو نموذج فعال من Google يغطي حالات الاستخدام من التطبيقات الصغيرة إلى معالجة البيانات المعقدة.",
|
|
541
|
+
"generalv3.5.description": "Spark Max هو الإصدار الأكثر تكاملًا، يدعم البحث عبر الإنترنت والعديد من الإضافات المدمجة. قدراته الأساسية المحسّنة، وأدوار النظام، واستدعاء الوظائف توفر أداءً ممتازًا في سيناريوهات التطبيقات المعقدة.",
|
|
542
|
+
"generalv3.description": "Spark Pro هو نموذج لغوي عالي الأداء مُحسّن للمجالات المهنية، يركز على الرياضيات، والبرمجة، والرعاية الصحية، والتعليم، مع دعم البحث عبر الإنترنت والإضافات المدمجة مثل الطقس والتاريخ. يقدم أداءً قويًا وكفاءة في أسئلة المعرفة المعقدة، وفهم اللغة، وإنشاء النصوص المتقدمة، مما يجعله خيارًا مثاليًا للاستخدام المهني.",
|
|
515
543
|
"meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.",
|
|
516
544
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
|
|
517
545
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.",
|
|
30
30
|
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
|
|
31
31
|
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
|
|
32
|
-
"lobehub.description": "تستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، وتقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.",
|
|
33
32
|
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
|
|
34
33
|
"mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.",
|
|
35
34
|
"modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.",
|
package/locales/ar/setting.json
CHANGED
|
@@ -2,6 +2,48 @@
|
|
|
2
2
|
"_cloud.officialProvider": "خدمة النماذج الرسمية من {{name}}",
|
|
3
3
|
"about.title": "حول",
|
|
4
4
|
"advancedSettings": "الإعدادات المتقدمة",
|
|
5
|
+
"agentCronJobs.addJob": "إضافة مهمة مجدولة",
|
|
6
|
+
"agentCronJobs.confirmDelete": "هل أنت متأكد أنك تريد حذف هذه المهمة المجدولة؟",
|
|
7
|
+
"agentCronJobs.content": "محتوى المهمة",
|
|
8
|
+
"agentCronJobs.create": "إنشاء",
|
|
9
|
+
"agentCronJobs.createSuccess": "تم إنشاء المهمة المجدولة بنجاح",
|
|
10
|
+
"agentCronJobs.deleteJob": "حذف المهمة",
|
|
11
|
+
"agentCronJobs.deleteSuccess": "تم حذف المهمة المجدولة بنجاح",
|
|
12
|
+
"agentCronJobs.description": "قم بأتمتة وكيلك من خلال تنفيذات مجدولة",
|
|
13
|
+
"agentCronJobs.disable": "تعطيل",
|
|
14
|
+
"agentCronJobs.editJob": "تعديل المهمة المجدولة",
|
|
15
|
+
"agentCronJobs.empty.description": "أنشئ أول مهمة مجدولة لأتمتة وكيلك",
|
|
16
|
+
"agentCronJobs.empty.title": "لا توجد مهام مجدولة بعد",
|
|
17
|
+
"agentCronJobs.enable": "تمكين",
|
|
18
|
+
"agentCronJobs.form.content.placeholder": "أدخل التعليمات أو الأمر للوكيل",
|
|
19
|
+
"agentCronJobs.form.maxExecutions.placeholder": "اتركه فارغًا لعدد غير محدود",
|
|
20
|
+
"agentCronJobs.form.name.placeholder": "أدخل اسم المهمة",
|
|
21
|
+
"agentCronJobs.form.timeRange.end": "وقت الانتهاء",
|
|
22
|
+
"agentCronJobs.form.timeRange.start": "وقت البدء",
|
|
23
|
+
"agentCronJobs.form.validation.contentRequired": "محتوى المهمة مطلوب",
|
|
24
|
+
"agentCronJobs.form.validation.invalidTimeRange": "يجب أن يكون وقت البدء قبل وقت الانتهاء",
|
|
25
|
+
"agentCronJobs.form.validation.nameRequired": "اسم المهمة مطلوب",
|
|
26
|
+
"agentCronJobs.interval.12hours": "كل 12 ساعة",
|
|
27
|
+
"agentCronJobs.interval.1hour": "كل ساعة",
|
|
28
|
+
"agentCronJobs.interval.30min": "كل 30 دقيقة",
|
|
29
|
+
"agentCronJobs.interval.6hours": "كل 6 ساعات",
|
|
30
|
+
"agentCronJobs.interval.daily": "يوميًا",
|
|
31
|
+
"agentCronJobs.interval.weekly": "أسبوعيًا",
|
|
32
|
+
"agentCronJobs.lastExecuted": "آخر تنفيذ",
|
|
33
|
+
"agentCronJobs.maxExecutions": "الحد الأقصى للتنفيذ",
|
|
34
|
+
"agentCronJobs.name": "اسم المهمة",
|
|
35
|
+
"agentCronJobs.never": "أبدًا",
|
|
36
|
+
"agentCronJobs.remainingExecutions": "المتبقي: {{count}}",
|
|
37
|
+
"agentCronJobs.save": "حفظ",
|
|
38
|
+
"agentCronJobs.schedule": "الجدولة",
|
|
39
|
+
"agentCronJobs.status.depleted": "منتهية",
|
|
40
|
+
"agentCronJobs.status.disabled": "معطلة",
|
|
41
|
+
"agentCronJobs.status.enabled": "مفعلة",
|
|
42
|
+
"agentCronJobs.timeRange": "نطاق الوقت",
|
|
43
|
+
"agentCronJobs.title": "المهام المجدولة",
|
|
44
|
+
"agentCronJobs.unlimited": "غير محدود",
|
|
45
|
+
"agentCronJobs.updateSuccess": "تم تحديث المهمة المجدولة بنجاح",
|
|
46
|
+
"agentCronJobs.weekdays": "أيام الأسبوع",
|
|
5
47
|
"agentInfoDescription.basic.avatar": "الصورة الرمزية",
|
|
6
48
|
"agentInfoDescription.basic.description": "الوصف",
|
|
7
49
|
"agentInfoDescription.basic.name": "الاسم",
|
|
@@ -156,6 +156,8 @@
|
|
|
156
156
|
"mcp.categories.business.name": "Бизнес услуги",
|
|
157
157
|
"mcp.categories.developer.description": "Инструменти и услуги за разработчици",
|
|
158
158
|
"mcp.categories.developer.name": "Инструменти за разработчици",
|
|
159
|
+
"mcp.categories.discover.description": "Препоръчани и популярни MCP сървъри",
|
|
160
|
+
"mcp.categories.discover.name": "Открий",
|
|
159
161
|
"mcp.categories.gaming-entertainment.description": "Игри, забавления и свободно време",
|
|
160
162
|
"mcp.categories.gaming-entertainment.name": "Игри и забавления",
|
|
161
163
|
"mcp.categories.health-wellness.description": "Здраве, фитнес и благосъстояние",
|
|
@@ -343,6 +345,7 @@
|
|
|
343
345
|
"mcp.sorts.isValidated": "Проверени умения",
|
|
344
346
|
"mcp.sorts.promptsCount": "Брой подкани",
|
|
345
347
|
"mcp.sorts.ratingCount": "Брой оценки",
|
|
348
|
+
"mcp.sorts.recommended": "Препоръчани",
|
|
346
349
|
"mcp.sorts.resourcesCount": "Брой ресурси",
|
|
347
350
|
"mcp.sorts.toolsCount": "Брой инструменти",
|
|
348
351
|
"mcp.sorts.updatedAt": "Наскоро актуализирани",
|
package/locales/bg-BG/file.json
CHANGED
|
@@ -18,6 +18,8 @@
|
|
|
18
18
|
"empty": "Все още няма качени файлове или папки.",
|
|
19
19
|
"header.actions.builtInBlockList.filtered": "{{ignored}} файла филтрирани (от общо {{total}})",
|
|
20
20
|
"header.actions.connect": "Свържи се...",
|
|
21
|
+
"header.actions.createFolderError": "Неуспешно създаване на папка",
|
|
22
|
+
"header.actions.creatingFolder": "Създаване на папка...",
|
|
21
23
|
"header.actions.gitignore.apply": "Приложи правилата",
|
|
22
24
|
"header.actions.gitignore.cancel": "Игнорирай правилата",
|
|
23
25
|
"header.actions.gitignore.content": "Открит е файл .gitignore (общо {{count}} файла). Искате ли да приложите правилата за игнориране?",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва подобрение в различни умения и надминава предишния най-голям модел Claude 3 Opus в много интелигентни бенчмаркове.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да генерира почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни, визуални задачи и задачи за агенти.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic,
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено поетапно мислене с видим процес.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Нов модел с отворен код, комбиниращ общи и програмни способности. Съхранява общия диалогов стил на чат модела и силното програмиране на кодовия модел, с по-добро съответствие на предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
|
|
379
379
|
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "Режимът на мислене DeepSeek V3.2 извежда верига от мисли преди крайния отговор за повишена точност.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
|
|
@@ -442,6 +442,35 @@
|
|
|
442
442
|
"doubao-vision-lite-32k.description": "Doubao-vision е мултимодален модел от Doubao със силно разбиране и разсъждение върху изображения, както и точно следване на инструкции. Представя се добре при извличане на текст от изображения и задачи за разсъждение, базирани на изображения, позволявайки по-сложни и широки визуални сценарии с въпроси и отговори.",
|
|
443
443
|
"doubao-vision-pro-32k.description": "Doubao-vision е мултимодален модел от Doubao със силно разбиране и разсъждение върху изображения, както и точно следване на инструкции. Представя се добре при извличане на текст от изображения и задачи за разсъждение, базирани на изображения, позволявайки по-сложни и широки визуални сценарии с въпроси и отговори.",
|
|
444
444
|
"emohaa.description": "Emohaa е модел за психично здраве с професионални консултантски способности, който помага на потребителите да разберат емоционални проблеми.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B е лек модел с отворен код за локално и персонализирано внедряване.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B е модел с отворен код с голям брой параметри и по-силни способности за разбиране и генериране.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B е ултра-голям MoE модел на Baidu ERNIE с отлични способности за разсъждение.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview е модел за предварителен преглед с 8K контекст за оценка на ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "Предварителен преглед на ERNIE 4.5 Turbo 128K с възможности на ниво издание, подходящ за интеграция и тестване.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K е високопроизводителен общ модел с търсачна поддръжка и извикване на инструменти за QA, програмиране и агентски сценарии.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K е версия със средна дължина на контекста за QA, извличане от бази знания и многозавойни диалози.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "Най-новият ERNIE 4.5 Turbo с оптимизирана цялостна производителност, идеален за основен продукционен модел.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview е мултимодален предварителен модел с 32K контекст за оценка на способността за разбиране на дълъг визуален контекст.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K е мултимодална версия със средно-дълъг контекст за комбинирано разбиране на дълги документи и изображения.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest е най-новата мултимодална версия с подобрено разбиране и разсъждение върху изображения и текст.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview е мултимодален предварителен модел за разбиране и генериране на изображения и текст, подходящ за визуални QA и разбиране на съдържание.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL е зрял мултимодален модел за продукционно разбиране и разпознаване на изображения и текст.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B е мултимодален модел с отворен код за разбиране и разсъждение върху изображения и текст.",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking е флагмански модел с пълна модалност, обединяващ текст, изображение, аудио и видео. Осигурява значителни подобрения за сложни QA, творчество и агентски сценарии.",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview е флагмански модел с пълна модалност, обединяващ текст, изображение, аудио и видео. Осигурява значителни подобрения за сложни QA, творчество и агентски сценарии.",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K е модел за диалог с персонажи, предназначен за изграждане на IP персонажи и дългосрочен разговорен спътник.",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview е предварителен модел за създаване на персонажи и сюжет, предназначен за оценка и тестване на функции.",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K е модел за персонажи, предназначен за романи и създаване на сюжет, подходящ за генериране на дълги истории.",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit е модел за редактиране на изображения, поддържащ изтриване, прерисуване и генериране на варианти.",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K е лек общ модел за чувствителни към разходите ежедневни QA и генериране на съдържание.",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K е лек високопроизводителен модел за сценарии, чувствителни към латентност и разходи.",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K е създаден за дълги романи и IP сюжети с многоперсонажни наративи.",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K е модел без такси за I/O, предназначен за разбиране на дълги текстове и мащабни тестове.",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K е безплатен, бърз модел за ежедневен чат и леки текстови задачи.",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K е модел с висока едновременност и висока стойност за мащабни онлайн услуги и корпоративни приложения.",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K е ултралек модел за прости QA, класификация и нискоразходно извеждане.",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
|
|
473
|
+
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
|
|
445
474
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
|
|
446
475
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
|
|
447
476
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
|
|
30
30
|
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
|
|
31
31
|
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
|
|
33
32
|
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
|
|
35
34
|
"modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",
|
|
@@ -2,6 +2,48 @@
|
|
|
2
2
|
"_cloud.officialProvider": "Официална услуга за модели на {{name}}",
|
|
3
3
|
"about.title": "Относно",
|
|
4
4
|
"advancedSettings": "Разширени настройки",
|
|
5
|
+
"agentCronJobs.addJob": "Добавяне на планирана задача",
|
|
6
|
+
"agentCronJobs.confirmDelete": "Сигурни ли сте, че искате да изтриете тази планирана задача?",
|
|
7
|
+
"agentCronJobs.content": "Съдържание на задачата",
|
|
8
|
+
"agentCronJobs.create": "Създай",
|
|
9
|
+
"agentCronJobs.createSuccess": "Планираната задача беше създадена успешно",
|
|
10
|
+
"agentCronJobs.deleteJob": "Изтриване на задача",
|
|
11
|
+
"agentCronJobs.deleteSuccess": "Планираната задача беше изтрита успешно",
|
|
12
|
+
"agentCronJobs.description": "Автоматизирайте вашия агент с планирани изпълнения",
|
|
13
|
+
"agentCronJobs.disable": "Деактивирай",
|
|
14
|
+
"agentCronJobs.editJob": "Редактиране на планирана задача",
|
|
15
|
+
"agentCronJobs.empty.description": "Създайте първата си планирана задача, за да автоматизирате вашия агент",
|
|
16
|
+
"agentCronJobs.empty.title": "Все още няма планирани задачи",
|
|
17
|
+
"agentCronJobs.enable": "Активирай",
|
|
18
|
+
"agentCronJobs.form.content.placeholder": "Въведете подкана или инструкция за агента",
|
|
19
|
+
"agentCronJobs.form.maxExecutions.placeholder": "Оставете празно за неограничено",
|
|
20
|
+
"agentCronJobs.form.name.placeholder": "Въведете име на задачата",
|
|
21
|
+
"agentCronJobs.form.timeRange.end": "Крайно време",
|
|
22
|
+
"agentCronJobs.form.timeRange.start": "Начално време",
|
|
23
|
+
"agentCronJobs.form.validation.contentRequired": "Съдържанието на задачата е задължително",
|
|
24
|
+
"agentCronJobs.form.validation.invalidTimeRange": "Началното време трябва да е преди крайното",
|
|
25
|
+
"agentCronJobs.form.validation.nameRequired": "Името на задачата е задължително",
|
|
26
|
+
"agentCronJobs.interval.12hours": "На всеки 12 часа",
|
|
27
|
+
"agentCronJobs.interval.1hour": "На всеки час",
|
|
28
|
+
"agentCronJobs.interval.30min": "На всеки 30 минути",
|
|
29
|
+
"agentCronJobs.interval.6hours": "На всеки 6 часа",
|
|
30
|
+
"agentCronJobs.interval.daily": "Ежедневно",
|
|
31
|
+
"agentCronJobs.interval.weekly": "Ежеседмично",
|
|
32
|
+
"agentCronJobs.lastExecuted": "Последно изпълнение",
|
|
33
|
+
"agentCronJobs.maxExecutions": "Максимален брой изпълнения",
|
|
34
|
+
"agentCronJobs.name": "Име на задачата",
|
|
35
|
+
"agentCronJobs.never": "Никога",
|
|
36
|
+
"agentCronJobs.remainingExecutions": "Оставащи: {{count}}",
|
|
37
|
+
"agentCronJobs.save": "Запази",
|
|
38
|
+
"agentCronJobs.schedule": "График",
|
|
39
|
+
"agentCronJobs.status.depleted": "Изчерпано",
|
|
40
|
+
"agentCronJobs.status.disabled": "Деактивирано",
|
|
41
|
+
"agentCronJobs.status.enabled": "Активирано",
|
|
42
|
+
"agentCronJobs.timeRange": "Времеви интервал",
|
|
43
|
+
"agentCronJobs.title": "Планирани задачи",
|
|
44
|
+
"agentCronJobs.unlimited": "Неограничено",
|
|
45
|
+
"agentCronJobs.updateSuccess": "Планираната задача беше обновена успешно",
|
|
46
|
+
"agentCronJobs.weekdays": "Дни от седмицата",
|
|
5
47
|
"agentInfoDescription.basic.avatar": "Аватар",
|
|
6
48
|
"agentInfoDescription.basic.description": "Описание",
|
|
7
49
|
"agentInfoDescription.basic.name": "Име",
|
|
@@ -46,7 +88,7 @@
|
|
|
46
88
|
"danger.reset.action": "Нулирай сега",
|
|
47
89
|
"danger.reset.confirm": "Да се нулират ли всички настройки?",
|
|
48
90
|
"danger.reset.currentVersion": "Текуща версия",
|
|
49
|
-
"danger.reset.desc": "
|
|
91
|
+
"danger.reset.desc": "Възстановете всички настройки по подразбиране. Данните ви няма да бъдат изтрити.",
|
|
50
92
|
"danger.reset.success": "Всички настройки са нулирани",
|
|
51
93
|
"danger.reset.title": "Нулиране на всички настройки",
|
|
52
94
|
"defaultAgent.model.desc": "Модел по подразбиране при създаване на нов агент",
|
|
@@ -156,6 +156,8 @@
|
|
|
156
156
|
"mcp.categories.business.name": "Geschäftsdienste",
|
|
157
157
|
"mcp.categories.developer.description": "Entwicklerbezogene Tools und Dienste",
|
|
158
158
|
"mcp.categories.developer.name": "Entwicklertools",
|
|
159
|
+
"mcp.categories.discover.description": "Empfohlene und angesagte MCP-Server",
|
|
160
|
+
"mcp.categories.discover.name": "Entdecken",
|
|
159
161
|
"mcp.categories.gaming-entertainment.description": "Spiele, Unterhaltung und Freizeitaktivitäten",
|
|
160
162
|
"mcp.categories.gaming-entertainment.name": "Spiele & Unterhaltung",
|
|
161
163
|
"mcp.categories.health-wellness.description": "Gesundheit, Fitness und Wohlbefinden",
|
|
@@ -343,6 +345,7 @@
|
|
|
343
345
|
"mcp.sorts.isValidated": "Validierte Skills",
|
|
344
346
|
"mcp.sorts.promptsCount": "Anzahl der Prompts",
|
|
345
347
|
"mcp.sorts.ratingCount": "Anzahl der Bewertungen",
|
|
348
|
+
"mcp.sorts.recommended": "Empfohlen",
|
|
346
349
|
"mcp.sorts.resourcesCount": "Anzahl der Ressourcen",
|
|
347
350
|
"mcp.sorts.toolsCount": "Anzahl der Tools",
|
|
348
351
|
"mcp.sorts.updatedAt": "Kürzlich aktualisiert",
|
package/locales/de-DE/file.json
CHANGED
|
@@ -18,6 +18,8 @@
|
|
|
18
18
|
"empty": "Es wurden noch keine Dateien oder Ordner hochgeladen.",
|
|
19
19
|
"header.actions.builtInBlockList.filtered": "{{ignored}} Dateien gefiltert (von insgesamt {{total}})",
|
|
20
20
|
"header.actions.connect": "Verbinden...",
|
|
21
|
+
"header.actions.createFolderError": "Ordner konnte nicht erstellt werden",
|
|
22
|
+
"header.actions.creatingFolder": "Ordner wird erstellt...",
|
|
21
23
|
"header.actions.gitignore.apply": "Regeln anwenden",
|
|
22
24
|
"header.actions.gitignore.cancel": "Regeln ignorieren",
|
|
23
25
|
"header.actions.gitignore.content": ".gitignore-Datei erkannt (insgesamt {{count}} Dateien). Möchten Sie die Ignorierregeln anwenden?",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste hybride Reasoning-Modell auf dem Markt. Es liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken. Sonnet überzeugt besonders in den Bereichen Programmierung, Data Science, Bildverarbeitung und Agentenaufgaben.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic –
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch exzellente Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken mit sichtbarem Denkprozess.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es vereint den Dialogfluss eines Chatmodells mit der starken Codierungsleistung eines Coder-Modells und bietet eine bessere Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "Der Denkmodus von DeepSeek V3.2 gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultra-leichtgewichtiges Modell für einfache Frage-Antwort-Aufgaben, Klassifikation und kostengünstige Inferenz.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Texteingaben und Bildinputs unterstützt und eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erstellt Bilder aus Texteingaben.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen, präzise
|
|
483
|
-
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen unterstützt, chinesischen und englischen Text präzise editiert und hochwertige Bearbeitungen wie Stilübertragungen und Objektrotationen ermöglicht.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
|
|
484
484
|
"flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 1–4 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
|
|
486
486
|
"flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
|
|
@@ -491,6 +491,41 @@
|
|
|
491
491
|
"flux-pro.description": "Hochwertiges kommerzielles Bildgenerierungsmodell mit unübertroffener Bildqualität und vielfältigen Ausgaben.",
|
|
492
492
|
"flux-schnell.description": "FLUX.1 [schnell] ist das fortschrittlichste Open-Source-Modell mit wenigen Schritten, übertrifft vergleichbare Konkurrenten und sogar starke nicht-destillierte Modelle wie Midjourney v6.0 und DALL-E 3 (HD). Feinabgestimmt zur Erhaltung der Vielfalt aus dem Pretraining, verbessert es visuelle Qualität, Anweisungsbefolgung, Größen-/Seitenverhältnisvariation, Schriftverarbeitung und Ausgabediversität erheblich.",
|
|
493
493
|
"flux.1-schnell.description": "FLUX.1-schnell ist ein leistungsstarkes Bildgenerierungsmodell für schnelle Ausgaben in mehreren Stilen.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) bietet stabile, anpassbare Leistung für komplexe Aufgaben.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) bietet starke multimodale Unterstützung für komplexe Aufgaben.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro ist Googles leistungsstarkes KI-Modell für skalierbare Aufgabenlösungen.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 ist ein effizientes multimodales Modell für breit gefächerte Anwendungen.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 ist ein effizientes multimodales Modell für großflächige Einsätze.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 ist das neueste experimentelle Modell mit deutlichen Fortschritten in Text- und Multimodalanwendungen.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B ist ein effizientes multimodales Modell für großflächige Einsätze.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B ist ein effizientes multimodales Modell für breit gefächerte Anwendungen.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 bietet optimierte multimodale Verarbeitung für komplexe Aufgaben.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash ist Googles neuestes multimodales KI-Modell mit schneller Verarbeitung und Unterstützung für Text-, Bild- und Videoeingaben zur effizienten Skalierung über verschiedene Aufgaben hinweg.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 ist eine skalierbare multimodale KI-Lösung für komplexe Aufgaben.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 ist das neueste produktionsreife Modell mit höherer Ausgabequalität, insbesondere bei Mathematik, langen Kontexten und visuellen Aufgaben.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 bietet starke multimodale Verarbeitung mit größerer Flexibilität für App-Entwicklung.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 nutzt neueste Optimierungen für effizientere multimodale Verarbeitung.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro unterstützt bis zu 2 Millionen Tokens – ein ideales mittelgroßes multimodales Modell für komplexe Aufgaben.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Experimentelles Gemini 2.0 Flash-Modell mit Unterstützung für Bildgenerierung.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview ist Googles kleinstes und kosteneffizientestes Modell für großflächige Nutzung.",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "Vorschauversion (25. September 2025) von Gemini 2.5 Flash-Lite",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite ist Googles kleinstes und kosteneffizientestes Modell für großflächige Nutzung.",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview ist Googles kosteneffizientestes Modell mit vollem Funktionsumfang.",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "Vorschauversion (25. September 2025) von Gemini 2.5 Flash",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash ist Googles kosteneffizientestes Modell mit vollem Funktionsumfang.",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
|
|
494
529
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
|
|
495
530
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
|
|
496
531
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
|
|
30
30
|
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
|
|
31
31
|
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
|
|
33
32
|
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.",
|
|
35
34
|
"modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",
|