@lobehub/lobehub 2.0.0-next.339 → 2.0.0-next.340
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/docs/self-hosting/advanced/auth/clerk-to-betterauth.mdx +366 -0
- package/docs/self-hosting/advanced/auth/clerk-to-betterauth.zh-CN.mdx +360 -0
- package/docs/self-hosting/advanced/auth/legacy.mdx +4 -0
- package/docs/self-hosting/advanced/auth/legacy.zh-CN.mdx +4 -0
- package/docs/self-hosting/advanced/auth.mdx +55 -30
- package/docs/self-hosting/advanced/auth.zh-CN.mdx +55 -30
- package/locales/ar/auth.json +1 -1
- package/locales/ar/desktop-onboarding.json +1 -0
- package/locales/ar/metadata.json +2 -2
- package/locales/ar/models.json +23 -5
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +19 -0
- package/locales/bg-BG/auth.json +1 -1
- package/locales/bg-BG/desktop-onboarding.json +1 -0
- package/locales/bg-BG/metadata.json +2 -2
- package/locales/bg-BG/models.json +5 -5
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +19 -0
- package/locales/de-DE/auth.json +1 -1
- package/locales/de-DE/desktop-onboarding.json +1 -0
- package/locales/de-DE/metadata.json +2 -2
- package/locales/de-DE/models.json +31 -10
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +19 -0
- package/locales/en-US/auth.json +3 -2
- package/locales/en-US/metadata.json +2 -2
- package/locales/en-US/models.json +10 -11
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/auth.json +1 -1
- package/locales/es-ES/desktop-onboarding.json +1 -0
- package/locales/es-ES/metadata.json +2 -2
- package/locales/es-ES/models.json +32 -5
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +19 -0
- package/locales/fa-IR/auth.json +1 -1
- package/locales/fa-IR/desktop-onboarding.json +1 -0
- package/locales/fa-IR/metadata.json +2 -2
- package/locales/fa-IR/models.json +35 -5
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +19 -0
- package/locales/fr-FR/auth.json +1 -1
- package/locales/fr-FR/desktop-onboarding.json +1 -0
- package/locales/fr-FR/metadata.json +2 -2
- package/locales/fr-FR/models.json +33 -5
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +19 -0
- package/locales/it-IT/auth.json +1 -1
- package/locales/it-IT/desktop-onboarding.json +1 -0
- package/locales/it-IT/metadata.json +2 -2
- package/locales/it-IT/models.json +3 -8
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +19 -0
- package/locales/ja-JP/auth.json +1 -1
- package/locales/ja-JP/desktop-onboarding.json +1 -0
- package/locales/ja-JP/metadata.json +2 -2
- package/locales/ja-JP/models.json +32 -5
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +19 -0
- package/locales/ko-KR/auth.json +1 -1
- package/locales/ko-KR/desktop-onboarding.json +1 -0
- package/locales/ko-KR/metadata.json +2 -2
- package/locales/ko-KR/models.json +3 -8
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +19 -0
- package/locales/nl-NL/auth.json +1 -1
- package/locales/nl-NL/desktop-onboarding.json +1 -0
- package/locales/nl-NL/metadata.json +2 -2
- package/locales/nl-NL/models.json +45 -4
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +19 -0
- package/locales/pl-PL/auth.json +1 -1
- package/locales/pl-PL/desktop-onboarding.json +1 -0
- package/locales/pl-PL/metadata.json +2 -2
- package/locales/pl-PL/models.json +37 -5
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +19 -0
- package/locales/pt-BR/auth.json +1 -1
- package/locales/pt-BR/desktop-onboarding.json +1 -0
- package/locales/pt-BR/metadata.json +2 -2
- package/locales/pt-BR/models.json +28 -4
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +19 -0
- package/locales/ru-RU/auth.json +1 -1
- package/locales/ru-RU/desktop-onboarding.json +1 -0
- package/locales/ru-RU/metadata.json +2 -2
- package/locales/ru-RU/models.json +3 -8
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +19 -0
- package/locales/tr-TR/auth.json +1 -1
- package/locales/tr-TR/desktop-onboarding.json +1 -0
- package/locales/tr-TR/metadata.json +2 -2
- package/locales/tr-TR/models.json +26 -7
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +19 -0
- package/locales/vi-VN/auth.json +1 -1
- package/locales/vi-VN/desktop-onboarding.json +1 -0
- package/locales/vi-VN/metadata.json +2 -2
- package/locales/vi-VN/models.json +3 -5
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +19 -0
- package/locales/zh-CN/auth.json +3 -3
- package/locales/zh-CN/metadata.json +2 -2
- package/locales/zh-CN/models.json +46 -6
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/auth.json +1 -1
- package/locales/zh-TW/desktop-onboarding.json +1 -0
- package/locales/zh-TW/metadata.json +2 -2
- package/locales/zh-TW/models.json +39 -6
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +19 -0
- package/package.json +1 -1
- package/packages/const/src/url.ts +1 -1
- package/public/og/agent-og.webp +0 -0
- package/public/og/mcp-og.webp +0 -0
- package/public/og/og.webp +0 -0
- package/scripts/clerk-to-betterauth/__tests__/parseCsvLine.test.ts +21 -0
- package/scripts/clerk-to-betterauth/_internal/config.ts +55 -0
- package/scripts/clerk-to-betterauth/_internal/db.ts +32 -0
- package/scripts/clerk-to-betterauth/_internal/env.ts +6 -0
- package/scripts/clerk-to-betterauth/_internal/load-data-from-files.ts +74 -0
- package/scripts/clerk-to-betterauth/_internal/types.ts +45 -0
- package/scripts/clerk-to-betterauth/_internal/utils.ts +36 -0
- package/scripts/clerk-to-betterauth/export-clerk-users-with-api.ts +211 -0
- package/scripts/clerk-to-betterauth/index.ts +314 -0
- package/scripts/clerk-to-betterauth/prod/put_clerk_exported_users_csv_here.txt +0 -0
- package/scripts/clerk-to-betterauth/test/put_clerk_exported_users_csv_here.txt +0 -0
- package/scripts/clerk-to-betterauth/verify.ts +275 -0
- package/src/app/[variants]/(auth)/signin/SignInEmailStep.tsx +30 -2
- package/src/app/[variants]/(auth)/signin/SignInPasswordStep.tsx +1 -1
- package/src/app/[variants]/(auth)/signin/page.tsx +3 -0
- package/src/app/[variants]/(auth)/signin/useSignIn.ts +6 -2
- package/src/app/[variants]/(main)/home/features/RecentResource/Item.tsx +2 -2
- package/src/app/[variants]/(main)/home/features/index.tsx +1 -2
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/skill/features/Actions.tsx +8 -7
- package/src/app/[variants]/(main)/settings/skill/features/McpSkillItem.tsx +9 -11
- package/src/app/manifest.ts +4 -4
- package/src/features/AuthCard/index.tsx +1 -1
- package/src/features/SkillStore/CommunityList/Item.tsx +3 -2
- package/src/features/SkillStore/Search/index.tsx +0 -1
- package/src/locales/default/auth.ts +3 -2
- package/src/locales/default/metadata.ts +2 -2
- package/src/server/ld.ts +4 -3
- package/src/styles/global.ts +0 -6
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/apple.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/apple.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/auth0.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/auth0.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authelia.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authelia.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authentik.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authentik.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/casdoor.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/casdoor.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cloudflare-zero-trust.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cloudflare-zero-trust.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cognito.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cognito.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/feishu.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/feishu.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/generic-oidc.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/generic-oidc.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/github.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/github.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/google.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/google.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/keycloak.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/keycloak.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/logto.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/logto.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/microsoft.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/microsoft.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/okta.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/okta.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/wechat.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/wechat.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/zitadel.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/zitadel.zh-CN.mdx +0 -0
package/locales/ar/metadata.json
CHANGED
|
@@ -1,8 +1,8 @@
|
|
|
1
1
|
{
|
|
2
2
|
"changelog.description": "ابقَ على اطلاع بأحدث الميزات والتحسينات في {{appName}}",
|
|
3
3
|
"changelog.title": "سجل التغييرات",
|
|
4
|
-
"chat.description": "{{appName}}
|
|
5
|
-
"chat.title": "{{appName}} ·
|
|
4
|
+
"chat.description": "{{appName}} هو مساحة للعمل ونمط الحياة للعثور على فرق الوكلاء، وبنائها، والتعاون معها لتنمو معك.",
|
|
5
|
+
"chat.title": "{{appName}} · فرق وكلاء تنمو معك",
|
|
6
6
|
"discover.assistants.description": "محتوى، أسئلة وأجوبة، صور، فيديو، صوت، سير عمل—تصفح وأضف وكلاء من المجتمع.",
|
|
7
7
|
"discover.assistants.title": "مجتمع الوكلاء",
|
|
8
8
|
"discover.description": "استكشف الوكلاء، المهارات، المزودين، النماذج، وخوادم MCP.",
|
package/locales/ar/models.json
CHANGED
|
@@ -278,13 +278,13 @@
|
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة فائقة وقدرة استدلال موسعة.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه تقديم ردود شبه فورية أو تفكير تدريجي
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه تقديم ردود شبه فورية أو تفكير تدريجي بخطوات مرئية.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
|
|
358
|
-
"deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة
|
|
358
|
+
"deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة نموذج البرمجة، مع تحسين التوافق مع تفضيلات المستخدم. DeepSeek-V2.5 يعزز أيضًا مهارات الكتابة واتباع التعليمات.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
@@ -472,7 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K هو نموذج فائق الخفة للأسئلة البسيطة، والتصنيف، والاستدلال منخفض التكلفة.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
|
|
474
474
|
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع تحكم عالي الجودة في إخراج الصور. يقوم بإنشاء صور من التعليمات النصية.",
|
|
476
476
|
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
|
|
477
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
|
|
478
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
|
|
@@ -481,7 +481,7 @@
|
|
|
481
481
|
"fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.",
|
|
482
482
|
"fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.",
|
|
483
483
|
"fal-ai/qwen-image-edit.description": "نموذج تحرير صور احترافي من فريق Qwen يدعم التعديلات الدلالية والمظهرية، ويحرر النصوص الصينية والإنجليزية بدقة، ويدعم تعديلات عالية الجودة مثل نقل الأسلوب وتدوير العناصر.",
|
|
484
|
-
"fal-ai/qwen-image.description": "نموذج توليد صور قوي من فريق Qwen يتميز بعرض
|
|
484
|
+
"fal-ai/qwen-image.description": "نموذج توليد صور قوي من فريق Qwen يتميز بعرض مميز للنصوص الصينية وأنماط بصرية متنوعة.",
|
|
485
485
|
"flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
|
|
486
486
|
"flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
|
|
487
487
|
"flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
|
|
@@ -715,6 +715,24 @@
|
|
|
715
715
|
"hunyuan-turbos-vision.description": "نموذج رائد من الجيل التالي للرؤية واللغة مبني على أحدث إصدار من TurboS، يركز على مهام فهم الصور والنصوص مثل التعرف على الكيانات، الأسئلة المعرفية، كتابة النصوص، وحل المشكلات المصورة.",
|
|
716
716
|
"hunyuan-vision-1.5-instruct.description": "نموذج تفكير سريع لتحويل الصور إلى نصوص مبني على قاعدة TurboS النصية، مع تحسينات ملحوظة مقارنة بالإصدار السابق في التعرف الأساسي على الصور والتحليل البصري المنطقي.",
|
|
717
717
|
"hunyuan-vision.description": "أحدث نموذج متعدد الوسائط يدعم إدخال الصور + النصوص لتوليد نصوص.",
|
|
718
|
+
"image-01-live.description": "نموذج توليد صور بتفاصيل دقيقة، يدعم التحويل من نص إلى صورة وأنماط قابلة للتحكم.",
|
|
719
|
+
"image-01.description": "نموذج توليد صور جديد بتفاصيل دقيقة، يدعم التحويل من نص إلى صورة ومن صورة إلى صورة.",
|
|
720
|
+
"imagen-4.0-fast-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة - النسخة السريعة",
|
|
721
|
+
"imagen-4.0-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة",
|
|
722
|
+
"imagen-4.0-generate-preview-06-06.description": "عائلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة.",
|
|
723
|
+
"imagen-4.0-ultra-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة - النسخة الفائقة",
|
|
724
|
+
"imagen-4.0-ultra-generate-preview-06-06.description": "متغير Ultra من الجيل الرابع لعائلة نماذج Imagen لتحويل النص إلى صورة.",
|
|
725
|
+
"inception/mercury-coder-small.description": "Mercury Coder Small مثالي لتوليد الشيفرة، تصحيح الأخطاء، وإعادة الهيكلة بزمن استجابة منخفض.",
|
|
726
|
+
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 هو النموذج الثالث من معمارية Ling 2.0 من فريق Bailing في Ant Group. هو نموذج MoE يحتوي على 100 مليار معلمة إجمالية و6.1 مليار نشطة لكل رمز (4.8 مليار بدون تضمين). رغم تكوينه الخفيف، يتفوق أو يضاهي نماذج كثيفة بحجم 40 مليار وحتى نماذج MoE أكبر في العديد من الاختبارات، مستكشفًا الكفاءة العالية من خلال المعمارية واستراتيجية التدريب.",
|
|
727
|
+
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 هو نموذج MoE صغير عالي الأداء يحتوي على 16 مليار معلمة إجمالية و1.4 مليار نشطة لكل رمز (789 مليون بدون تضمين)، ويقدم توليدًا سريعًا جدًا. بفضل تصميم MoE الفعال وبيانات التدريب عالية الجودة، يحقق أداءً من الدرجة الأولى مماثلًا للنماذج الكثيفة تحت 10 مليار ونماذج MoE الأكبر.",
|
|
728
|
+
"inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 هو نموذج تفكير عالي الأداء محسّن من Ling-flash-2.0-base. يستخدم معمارية MoE بـ 100 مليار معلمة إجمالية و6.1 مليار نشطة لكل استدلال. يعمل خوارزم Icepop على استقرار تدريب التعلم المعزز لنماذج MoE، مما يتيح تحقيق مكاسب مستمرة في الاستدلال المعقد. يحقق إنجازات كبيرة في اختبارات صعبة (مسابقات رياضيات، توليد الشيفرة، الاستدلال المنطقي)، متفوقًا على النماذج الكثيفة الرائدة تحت 40 مليار ومنافسًا لنماذج MoE المفتوحة والمغلقة الأكبر. كما يتميز في الكتابة الإبداعية، وتوفر معماريته الفعالة استدلالًا سريعًا بتكلفة نشر منخفضة في حالات التزامن العالي.",
|
|
729
|
+
"inclusionai/ling-1t.description": "Ling-1T هو نموذج MoE من inclusionAI يحتوي على تريليون معلمة، محسّن لمهام الاستدلال المكثفة وأحمال العمل ذات السياق الكبير.",
|
|
730
|
+
"inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 هو نموذج MoE من inclusionAI محسّن للكفاءة وأداء الاستدلال، مناسب للمهام المتوسطة إلى الكبيرة.",
|
|
731
|
+
"inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 هو نموذج MoE خفيف الوزن من inclusionAI، يقلل التكاليف بشكل كبير مع الحفاظ على قدرات الاستدلال.",
|
|
732
|
+
"inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview هو نموذج متعدد الوسائط من inclusionAI، يدعم إدخال الصوت، الصورة، والفيديو، مع تحسينات في عرض الصور والتعرف على الكلام.",
|
|
733
|
+
"inclusionai/ring-1t.description": "Ring-1T هو نموذج MoE للاستدلال من inclusionAI يحتوي على تريليون معلمة، مناسب لمهام الاستدلال واسعة النطاق والبحث.",
|
|
734
|
+
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 هو متغير من نموذج Ring من inclusionAI مخصص لسيناريوهات الإنتاجية العالية، يركز على السرعة وكفاءة التكلفة.",
|
|
735
|
+
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 هو نموذج MoE خفيف الوزن عالي الإنتاجية من inclusionAI، مصمم للتزامن العالي.",
|
|
718
736
|
"meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.",
|
|
719
737
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
|
|
720
738
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.",
|
|
30
30
|
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
|
|
31
31
|
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
|
|
32
|
-
"lobehub.description": "يستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، ويقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.",
|
|
33
32
|
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
|
|
34
33
|
"mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.",
|
|
35
34
|
"modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.",
|
package/locales/ar/setting.json
CHANGED
|
@@ -36,7 +36,11 @@
|
|
|
36
36
|
"agentCronJobs.noExecutionResults": "لا توجد نتائج تنفيذ",
|
|
37
37
|
"agentCronJobs.remainingExecutions": "المتبقي: {{count}}",
|
|
38
38
|
"agentCronJobs.save": "حفظ",
|
|
39
|
+
"agentCronJobs.saveAsNew": "حفظ كجديد",
|
|
39
40
|
"agentCronJobs.schedule": "الجدولة",
|
|
41
|
+
"agentCronJobs.scheduleType.daily": "يومي",
|
|
42
|
+
"agentCronJobs.scheduleType.hourly": "كل ساعة",
|
|
43
|
+
"agentCronJobs.scheduleType.weekly": "أسبوعي",
|
|
40
44
|
"agentCronJobs.status.depleted": "منتهية",
|
|
41
45
|
"agentCronJobs.status.disabled": "معطلة",
|
|
42
46
|
"agentCronJobs.status.enabled": "مفعلة",
|
|
@@ -45,6 +49,20 @@
|
|
|
45
49
|
"agentCronJobs.unlimited": "غير محدود",
|
|
46
50
|
"agentCronJobs.unnamedTask": "مهمة غير مسماة",
|
|
47
51
|
"agentCronJobs.updateSuccess": "تم تحديث المهمة المجدولة بنجاح",
|
|
52
|
+
"agentCronJobs.weekday.friday": "الجمعة",
|
|
53
|
+
"agentCronJobs.weekday.monday": "الاثنين",
|
|
54
|
+
"agentCronJobs.weekday.saturday": "السبت",
|
|
55
|
+
"agentCronJobs.weekday.short.friday": "جم",
|
|
56
|
+
"agentCronJobs.weekday.short.monday": "اثن",
|
|
57
|
+
"agentCronJobs.weekday.short.saturday": "سبت",
|
|
58
|
+
"agentCronJobs.weekday.short.sunday": "أحد",
|
|
59
|
+
"agentCronJobs.weekday.short.thursday": "خمي",
|
|
60
|
+
"agentCronJobs.weekday.short.tuesday": "ثلث",
|
|
61
|
+
"agentCronJobs.weekday.short.wednesday": "أرب",
|
|
62
|
+
"agentCronJobs.weekday.sunday": "الأحد",
|
|
63
|
+
"agentCronJobs.weekday.thursday": "الخميس",
|
|
64
|
+
"agentCronJobs.weekday.tuesday": "الثلاثاء",
|
|
65
|
+
"agentCronJobs.weekday.wednesday": "الأربعاء",
|
|
48
66
|
"agentCronJobs.weekdays": "أيام الأسبوع",
|
|
49
67
|
"agentInfoDescription.basic.avatar": "الصورة الرمزية",
|
|
50
68
|
"agentInfoDescription.basic.description": "الوصف",
|
|
@@ -553,6 +571,7 @@
|
|
|
553
571
|
"tab.about": "حول",
|
|
554
572
|
"tab.addCustomSkill": "إضافة مهارة مخصصة",
|
|
555
573
|
"tab.agent": "خدمة الوكيل",
|
|
574
|
+
"tab.all": "الكل",
|
|
556
575
|
"tab.apikey": "إدارة مفاتيح API",
|
|
557
576
|
"tab.chatAppearance": "مظهر المحادثة",
|
|
558
577
|
"tab.common": "المظهر",
|
package/locales/bg-BG/auth.json
CHANGED
|
@@ -191,7 +191,7 @@
|
|
|
191
191
|
"profile.usernameRule": "Потребителското име може да съдържа само букви, цифри или долни черти",
|
|
192
192
|
"profile.usernameUpdateFailed": "Неуспешна актуализация на потребителското име, моля опитайте отново по-късно",
|
|
193
193
|
"signin.subtitle": "Регистрирайте се или влезте в акаунта си в {{appName}}",
|
|
194
|
-
"signin.title": "
|
|
194
|
+
"signin.title": "Агентски екипи, които растат заедно с вас",
|
|
195
195
|
"signout": "Изход",
|
|
196
196
|
"signup": "Регистрация",
|
|
197
197
|
"stats.aiheatmaps": "Индекс на активност",
|
|
@@ -73,6 +73,7 @@
|
|
|
73
73
|
"screen5.badge": "Вход",
|
|
74
74
|
"screen5.description": "Влез, за да синхронизираш Агенти, Групи, настройки и Контекст на всички устройства.",
|
|
75
75
|
"screen5.errors.desktopOnlyOidc": "OIDC удостоверяване е налично само в десктоп версията на приложението.",
|
|
76
|
+
"screen5.legacyLocalDb.link": "Мигрирай остаряла локална база данни",
|
|
76
77
|
"screen5.methods.cloud.description": "Влез с твоя LobeHub Cloud акаунт за безпроблемна синхронизация",
|
|
77
78
|
"screen5.methods.cloud.name": "LobeHub Cloud",
|
|
78
79
|
"screen5.methods.selfhost.description": "Свържи се със собствена инстанция на LobeHub сървър",
|
|
@@ -1,8 +1,8 @@
|
|
|
1
1
|
{
|
|
2
2
|
"changelog.description": "Бъдете в течение с новите функции и подобрения на {{appName}}",
|
|
3
3
|
"changelog.title": "Дневник на промените",
|
|
4
|
-
"chat.description": "{{appName}}
|
|
5
|
-
"chat.title": "{{appName}} ·
|
|
4
|
+
"chat.description": "{{appName}} е пространство за работа и начин на живот, където можете да откриете, изградите и си сътрудничите с екипи от агенти, които растат заедно с вас.",
|
|
5
|
+
"chat.title": "{{appName}} · Екипи от агенти, които растат заедно с вас",
|
|
6
6
|
"discover.assistants.description": "Съдържание, въпроси и отговори, изображения, видео, глас, работни потоци — разглеждайте и добавяйте агенти от Общността.",
|
|
7
7
|
"discover.assistants.title": "Общност на агентите",
|
|
8
8
|
"discover.description": "Открийте агенти, умения, доставчици, модели и MCP сървъри.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва подобрение в различни умения и надминава предишния най-голям модел Claude 3 Opus в много интелигентностни тестове.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да генерира почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни, визуални задачи и агентни приложения.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено поетапно мислене с видим процес.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
|
|
30
30
|
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
|
|
31
31
|
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, свързани с токени на модела.",
|
|
33
32
|
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
|
|
35
34
|
"modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",
|
|
@@ -36,7 +36,11 @@
|
|
|
36
36
|
"agentCronJobs.noExecutionResults": "Няма резултати от изпълнението",
|
|
37
37
|
"agentCronJobs.remainingExecutions": "Оставащи: {{count}}",
|
|
38
38
|
"agentCronJobs.save": "Запази",
|
|
39
|
+
"agentCronJobs.saveAsNew": "Запази като ново",
|
|
39
40
|
"agentCronJobs.schedule": "График",
|
|
41
|
+
"agentCronJobs.scheduleType.daily": "Ежедневно",
|
|
42
|
+
"agentCronJobs.scheduleType.hourly": "На всеки час",
|
|
43
|
+
"agentCronJobs.scheduleType.weekly": "Еженеделно",
|
|
40
44
|
"agentCronJobs.status.depleted": "Изчерпано",
|
|
41
45
|
"agentCronJobs.status.disabled": "Деактивирано",
|
|
42
46
|
"agentCronJobs.status.enabled": "Активирано",
|
|
@@ -45,6 +49,20 @@
|
|
|
45
49
|
"agentCronJobs.unlimited": "Неограничено",
|
|
46
50
|
"agentCronJobs.unnamedTask": "Безименна задача",
|
|
47
51
|
"agentCronJobs.updateSuccess": "Планираната задача беше обновена успешно",
|
|
52
|
+
"agentCronJobs.weekday.friday": "Петък",
|
|
53
|
+
"agentCronJobs.weekday.monday": "Понеделник",
|
|
54
|
+
"agentCronJobs.weekday.saturday": "Събота",
|
|
55
|
+
"agentCronJobs.weekday.short.friday": "Пет",
|
|
56
|
+
"agentCronJobs.weekday.short.monday": "Пон",
|
|
57
|
+
"agentCronJobs.weekday.short.saturday": "Съб",
|
|
58
|
+
"agentCronJobs.weekday.short.sunday": "Нед",
|
|
59
|
+
"agentCronJobs.weekday.short.thursday": "Чет",
|
|
60
|
+
"agentCronJobs.weekday.short.tuesday": "Вто",
|
|
61
|
+
"agentCronJobs.weekday.short.wednesday": "Сря",
|
|
62
|
+
"agentCronJobs.weekday.sunday": "Неделя",
|
|
63
|
+
"agentCronJobs.weekday.thursday": "Четвъртък",
|
|
64
|
+
"agentCronJobs.weekday.tuesday": "Вторник",
|
|
65
|
+
"agentCronJobs.weekday.wednesday": "Сряда",
|
|
48
66
|
"agentCronJobs.weekdays": "Дни от седмицата",
|
|
49
67
|
"agentInfoDescription.basic.avatar": "Аватар",
|
|
50
68
|
"agentInfoDescription.basic.description": "Описание",
|
|
@@ -553,6 +571,7 @@
|
|
|
553
571
|
"tab.about": "Относно",
|
|
554
572
|
"tab.addCustomSkill": "Добавяне на персонализирано умение",
|
|
555
573
|
"tab.agent": "Услуга за агент",
|
|
574
|
+
"tab.all": "Всички",
|
|
556
575
|
"tab.apikey": "Управление на API ключове",
|
|
557
576
|
"tab.chatAppearance": "Външен вид на чата",
|
|
558
577
|
"tab.common": "Външен вид",
|
package/locales/de-DE/auth.json
CHANGED
|
@@ -191,7 +191,7 @@
|
|
|
191
191
|
"profile.usernameRule": "Benutzername darf nur Buchstaben, Zahlen oder Unterstriche enthalten",
|
|
192
192
|
"profile.usernameUpdateFailed": "Benutzername konnte nicht aktualisiert werden, bitte versuchen Sie es später erneut",
|
|
193
193
|
"signin.subtitle": "Registrieren oder anmelden bei Ihrem {{appName}}-Konto",
|
|
194
|
-
"signin.title": "
|
|
194
|
+
"signin.title": "Agententeams, die mit Ihnen wachsen",
|
|
195
195
|
"signout": "Abmelden",
|
|
196
196
|
"signup": "Registrieren",
|
|
197
197
|
"stats.aiheatmaps": "Aktivitätsindex",
|
|
@@ -73,6 +73,7 @@
|
|
|
73
73
|
"screen5.badge": "Anmeldung",
|
|
74
74
|
"screen5.description": "Melden Sie sich an, um Agenten, Gruppen, Einstellungen und Kontexte auf allen Geräten zu synchronisieren.",
|
|
75
75
|
"screen5.errors.desktopOnlyOidc": "OIDC-Autorisierung ist nur in der Desktop-App verfügbar.",
|
|
76
|
+
"screen5.legacyLocalDb.link": "Alte lokale Datenbank migrieren",
|
|
76
77
|
"screen5.methods.cloud.description": "Melden Sie sich mit Ihrem LobeHub Cloud-Konto an, um alles nahtlos zu synchronisieren",
|
|
77
78
|
"screen5.methods.cloud.name": "LobeHub Cloud",
|
|
78
79
|
"screen5.methods.selfhost.description": "Verbinden Sie sich mit Ihrer eigenen LobeHub-Serverinstanz",
|
|
@@ -1,8 +1,8 @@
|
|
|
1
1
|
{
|
|
2
2
|
"changelog.description": "Bleiben Sie über neue Funktionen und Verbesserungen von {{appName}} auf dem Laufenden",
|
|
3
3
|
"changelog.title": "Änderungsprotokoll",
|
|
4
|
-
"chat.description": "{{appName}}
|
|
5
|
-
"chat.title": "{{appName}} ·
|
|
4
|
+
"chat.description": "{{appName}} ist ein Arbeits- und Lifestyle-Raum, in dem du Agententeams finden, aufbauen und mit ihnen zusammenarbeiten kannst – Teams, die mit dir wachsen.",
|
|
5
|
+
"chat.title": "{{appName}} · Agententeams, die mit dir wachsen",
|
|
6
6
|
"discover.assistants.description": "Inhalte, Fragen & Antworten, Bilder, Videos, Sprache, Workflows – durchstöbern und fügen Sie Agenten aus der Community hinzu.",
|
|
7
7
|
"discover.assistants.title": "Agenten-Community",
|
|
8
8
|
"discover.description": "Entdecken Sie Agenten, Skills, Anbieter, Modelle und MCP-Server.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es liefert nahezu sofortige Antworten oder schrittweise Denkprozesse, die für Nutzer sichtbar sind. Sonnet ist besonders stark in den Bereichen Programmierung, Data Science, Bildverarbeitung und Agentenaufgaben.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic –
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken mit sichtbarem Prozess.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es vereint die Dialogstärke des Chat-Modells mit der Programmierleistung des Coder-Modells und bietet eine bessere Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "Der Denkmodus DeepSeek V3.2 gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultra-leichtgewichtiges Modell für einfache Frage-Antwort-Aufgaben, Klassifikation und kostengünstige Inferenz.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für eine hochgradig kontrollierbare, qualitativ hochwertige Bildgenerierung aus Prompts.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erstellt Bilder aus Texteingaben.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen, präzise
|
|
485
|
-
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen unterstützt, chinesischen und englischen Text präzise editiert und hochwertige Bearbeitungen wie Stilübertragungen und Objektrotationen ermöglicht.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
|
|
486
485
|
"flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 1–4 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
|
|
488
487
|
"flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
|
|
@@ -705,6 +704,28 @@
|
|
|
705
704
|
"hunyuan-turbo-latest.description": "Allgemeine Verbesserungen in NLP-Verständnis, Schreiben, Chat, QA, Übersetzung und Fachgebieten; menschlichere Antworten, bessere Klärung bei unklarer Absicht, verbessertes Wortverständnis, höhere kreative Qualität und Interaktivität sowie stärkere Mehrfachdialoge.",
|
|
706
705
|
"hunyuan-turbo-vision.description": "Flaggschiff der nächsten Generation im Bereich Vision-Language mit neuer MoE-Architektur, umfassenden Verbesserungen in Erkennung, Inhaltserstellung, Wissens-QA und analytischem Denken.",
|
|
707
706
|
"hunyuan-turbo.description": "Vorschau auf Hunyuan’s LLM der nächsten Generation mit neuer MoE-Architektur, liefert schnelleres Denken und bessere Ergebnisse als hunyuan-pro.",
|
|
707
|
+
"hunyuan-turbos-20250313.description": "Vereinheitlicht den Stil mathematischer Lösungen und verbessert mehrstufige Mathematik-Fragen. Der Schreibstil wurde verfeinert, um den KI-typischen Ton zu reduzieren und die Ausdrucksweise zu verbessern.",
|
|
708
|
+
"hunyuan-turbos-20250416.description": "Verbesserte Pretraining-Basis zur besseren Verständnis und Befolgung von Anweisungen; Ausrichtung verbessert Mathematik, Programmierung, Logik und Naturwissenschaften; verbessert Schreibqualität, Textverständnis, Übersetzungsgenauigkeit und Wissensfragen; stärkt Agentenfähigkeiten, insbesondere bei mehrstufigem Verständnis.",
|
|
709
|
+
"hunyuan-turbos-20250604.description": "Verbesserte Pretraining-Basis mit besserem Schreiben und Leseverständnis, deutlichen Fortschritten in Programmierung und MINT-Fächern sowie besserem Umgang mit komplexen Anweisungen.",
|
|
710
|
+
"hunyuan-turbos-20250926.description": "Verbesserte Qualität der Pretraining-Daten und Post-Training-Strategie, wodurch Agenten, Englisch/niedrig-resourcige Sprachen, Anweisungsbefolgung, Programmierung und MINT-Fähigkeiten verbessert werden.",
|
|
711
|
+
"hunyuan-turbos-latest.description": "Das neueste Hunyuan TurboS-Flaggschiffmodell mit stärkerem logischen Denken und insgesamt besserer Nutzererfahrung.",
|
|
712
|
+
"hunyuan-turbos-longtext-128k-20250325.description": "Hervorragend bei Aufgaben mit langen Dokumenten wie Zusammenfassungen und Fragenbeantwortung, beherrscht aber auch allgemeine Textgenerierung. Besonders stark bei Analyse und Erstellung komplexer, detaillierter Langtexte.",
|
|
713
|
+
"hunyuan-turbos-role-plus.description": "Neuestes Rollenspielmodell, offiziell auf Rollenspieldatensätzen feinabgestimmt, mit verbesserter Basisleistung für Rollenspielszenarien.",
|
|
714
|
+
"hunyuan-turbos-vision-20250619.description": "Neuestes TurboS Vision-Language-Flaggschiff mit großen Fortschritten bei Bild-Text-Aufgaben wie Objekterkennung, Wissensfragen, Werbetexten und bildbasiertem Problemlösen.",
|
|
715
|
+
"hunyuan-turbos-vision.description": "Ein Next-Gen Vision-Language-Flaggschiff basierend auf dem neuesten TurboS, spezialisiert auf Bild-Text-Verständnisaufgaben wie Objekterkennung, Wissensfragen, Werbetexte und bildbasiertes Problemlösen.",
|
|
716
|
+
"hunyuan-vision-1.5-instruct.description": "Ein schnelles Bild-zu-Text-Modell basierend auf dem Text-TurboS-Modell, mit deutlichen Verbesserungen gegenüber der Vorgängerversion in den Bereichen Bildgrundlagen-Erkennung und Bildanalyse-Logik.",
|
|
717
|
+
"hunyuan-vision.description": "Neuestes multimodales Modell mit Unterstützung für Bild- und Texteingaben zur Textgenerierung.",
|
|
718
|
+
"image-01-live.description": "Ein Bildgenerierungsmodell mit feinen Details, das Text-zu-Bild-Generierung und steuerbare Stilvorgaben unterstützt.",
|
|
719
|
+
"image-01.description": "Ein neues Bildgenerierungsmodell mit feinen Details, das Text-zu-Bild- und Bild-zu-Bild-Generierung unterstützt.",
|
|
720
|
+
"imagen-4.0-fast-generate-001.description": "Schnellversion der vierten Generation der Imagen-Text-zu-Bild-Modellreihe.",
|
|
721
|
+
"imagen-4.0-generate-001.description": "Vierte Generation der Imagen-Text-zu-Bild-Modellreihe.",
|
|
722
|
+
"imagen-4.0-generate-preview-06-06.description": "Vierte Generation der Imagen-Text-zu-Bild-Modellfamilie.",
|
|
723
|
+
"imagen-4.0-ultra-generate-001.description": "Ultra-Version der vierten Generation der Imagen-Text-zu-Bild-Modellreihe.",
|
|
724
|
+
"imagen-4.0-ultra-generate-preview-06-06.description": "Ultra-Variante der vierten Generation der Imagen-Text-zu-Bild-Modelle.",
|
|
725
|
+
"inception/mercury-coder-small.description": "Mercury Coder Small eignet sich ideal für Codegenerierung, Debugging und Refactoring mit minimaler Latenz.",
|
|
726
|
+
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 ist das dritte Modell der Ling 2.0-Architektur vom Bailing-Team der Ant Group. Es handelt sich um ein MoE-Modell mit insgesamt 100 Milliarden Parametern, von denen nur 6,1 Milliarden pro Token aktiv sind (4,8 Milliarden ohne Einbettung). Trotz der schlanken Konfiguration erreicht es die Leistung von 40B-dichten Modellen und übertrifft sogar größere MoE-Modelle in mehreren Benchmarks – ein Beweis für hohe Effizienz durch Architektur und Trainingsstrategie.",
|
|
727
|
+
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 ist ein kleines, leistungsstarkes MoE-LLM mit 16 Milliarden Gesamtparametern und nur 1,4 Milliarden aktiven Parametern pro Token (789 Millionen ohne Einbettung), das eine sehr schnelle Generierung ermöglicht. Dank effizientem MoE-Design und großen, hochwertigen Trainingsdaten erreicht es eine Spitzenleistung, vergleichbar mit dichten Modellen unter 10B und größeren MoE-Modellen.",
|
|
728
|
+
"inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 ist ein leistungsstarkes Denkmodell, das auf Ling-flash-2.0-base basiert. Es verwendet eine MoE-Architektur mit 100 Milliarden Gesamtparametern und nur 6,1 Milliarden aktiven Parametern pro Inferenz. Der Icepop-Algorithmus stabilisiert das RL-Training für MoE-Modelle und ermöglicht kontinuierliche Fortschritte im komplexen Denken. Es erzielt große Durchbrüche bei schwierigen Benchmarks (Mathematikwettbewerbe, Codegenerierung, logisches Denken), übertrifft führende dichte Modelle unter 40B und konkurriert mit größeren offenen und geschlossenen Reasoning-Modellen. Auch im kreativen Schreiben überzeugt es, und seine effiziente Architektur ermöglicht schnelle Inferenz bei niedrigen Betriebskosten für hohe Parallelität.",
|
|
708
729
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
|
|
709
730
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
|
|
710
731
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
|
|
30
30
|
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
|
|
31
31
|
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
|
|
33
32
|
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.",
|
|
35
34
|
"modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",
|
|
@@ -36,7 +36,11 @@
|
|
|
36
36
|
"agentCronJobs.noExecutionResults": "Keine Ausführungsergebnisse",
|
|
37
37
|
"agentCronJobs.remainingExecutions": "Verbleibend: {{count}}",
|
|
38
38
|
"agentCronJobs.save": "Speichern",
|
|
39
|
+
"agentCronJobs.saveAsNew": "Als neu speichern",
|
|
39
40
|
"agentCronJobs.schedule": "Zeitplan",
|
|
41
|
+
"agentCronJobs.scheduleType.daily": "Täglich",
|
|
42
|
+
"agentCronJobs.scheduleType.hourly": "Stündlich",
|
|
43
|
+
"agentCronJobs.scheduleType.weekly": "Wöchentlich",
|
|
40
44
|
"agentCronJobs.status.depleted": "Erschöpft",
|
|
41
45
|
"agentCronJobs.status.disabled": "Deaktiviert",
|
|
42
46
|
"agentCronJobs.status.enabled": "Aktiviert",
|
|
@@ -45,6 +49,20 @@
|
|
|
45
49
|
"agentCronJobs.unlimited": "Unbegrenzt",
|
|
46
50
|
"agentCronJobs.unnamedTask": "Unbenannte Aufgabe",
|
|
47
51
|
"agentCronJobs.updateSuccess": "Geplante Aufgabe erfolgreich aktualisiert",
|
|
52
|
+
"agentCronJobs.weekday.friday": "Freitag",
|
|
53
|
+
"agentCronJobs.weekday.monday": "Montag",
|
|
54
|
+
"agentCronJobs.weekday.saturday": "Samstag",
|
|
55
|
+
"agentCronJobs.weekday.short.friday": "Fr",
|
|
56
|
+
"agentCronJobs.weekday.short.monday": "Mo",
|
|
57
|
+
"agentCronJobs.weekday.short.saturday": "Sa",
|
|
58
|
+
"agentCronJobs.weekday.short.sunday": "So",
|
|
59
|
+
"agentCronJobs.weekday.short.thursday": "Do",
|
|
60
|
+
"agentCronJobs.weekday.short.tuesday": "Di",
|
|
61
|
+
"agentCronJobs.weekday.short.wednesday": "Mi",
|
|
62
|
+
"agentCronJobs.weekday.sunday": "Sonntag",
|
|
63
|
+
"agentCronJobs.weekday.thursday": "Donnerstag",
|
|
64
|
+
"agentCronJobs.weekday.tuesday": "Dienstag",
|
|
65
|
+
"agentCronJobs.weekday.wednesday": "Mittwoch",
|
|
48
66
|
"agentCronJobs.weekdays": "Wochentage",
|
|
49
67
|
"agentInfoDescription.basic.avatar": "Avatar",
|
|
50
68
|
"agentInfoDescription.basic.description": "Beschreibung",
|
|
@@ -553,6 +571,7 @@
|
|
|
553
571
|
"tab.about": "Über",
|
|
554
572
|
"tab.addCustomSkill": "Benutzerdefinierten Skill hinzufügen",
|
|
555
573
|
"tab.agent": "Agentendienst",
|
|
574
|
+
"tab.all": "Alle",
|
|
556
575
|
"tab.apikey": "API-Schlüsselverwaltung",
|
|
557
576
|
"tab.chatAppearance": "Chat-Darstellung",
|
|
558
577
|
"tab.common": "Darstellung",
|
package/locales/en-US/auth.json
CHANGED
|
@@ -94,9 +94,10 @@
|
|
|
94
94
|
"betterAuth.signin.orContinueWith": "OR",
|
|
95
95
|
"betterAuth.signin.passwordPlaceholder": "Enter your password",
|
|
96
96
|
"betterAuth.signin.passwordStep.subtitle": "Enter your password to continue",
|
|
97
|
+
"betterAuth.signin.setPassword": "set a password",
|
|
97
98
|
"betterAuth.signin.signupLink": "Sign up now",
|
|
98
99
|
"betterAuth.signin.socialError": "Social sign in failed, please try again",
|
|
99
|
-
"betterAuth.signin.socialOnlyHint": "This email was registered
|
|
100
|
+
"betterAuth.signin.socialOnlyHint": "This email was registered via social login. Sign in with that provider, or",
|
|
100
101
|
"betterAuth.signin.submit": "Sign In",
|
|
101
102
|
"betterAuth.signup.confirmPasswordPlaceholder": "Confirm your password",
|
|
102
103
|
"betterAuth.signup.emailPlaceholder": "Enter your email address",
|
|
@@ -191,7 +192,7 @@
|
|
|
191
192
|
"profile.usernameRule": "Username can only contain letters, numbers, or underscores",
|
|
192
193
|
"profile.usernameUpdateFailed": "Failed to update username, please try again later",
|
|
193
194
|
"signin.subtitle": "Sign up or log in to your {{appName}} account",
|
|
194
|
-
"signin.title": "
|
|
195
|
+
"signin.title": "Agent teams that grow with you",
|
|
195
196
|
"signout": "Log Out",
|
|
196
197
|
"signup": "Sign Up",
|
|
197
198
|
"stats.aiheatmaps": "Activity Index",
|
|
@@ -1,8 +1,8 @@
|
|
|
1
1
|
{
|
|
2
2
|
"changelog.description": "Stay updated on the new features and improvements of {{appName}}",
|
|
3
3
|
"changelog.title": "Changelog",
|
|
4
|
-
"chat.description": "{{appName}}
|
|
5
|
-
"chat.title": "{{appName}} ·
|
|
4
|
+
"chat.description": "{{appName}} is a work-and-lifestyle space to find, build, and collaborate with agent teams that grow with you.",
|
|
5
|
+
"chat.title": "{{appName}} · Agent teams that grow with you",
|
|
6
6
|
"discover.assistants.description": "Content, Q&A, images, video, voice, workflows—browse and add Agents from the Community.",
|
|
7
7
|
"discover.assistants.title": "Agent Community",
|
|
8
8
|
"discover.description": "Explore Agents, Skills, Providers, models, and MCP Servers.",
|