@lobehub/lobehub 2.0.0-next.331 → 2.0.0-next.333
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +60 -0
- package/apps/desktop/src/main/const/dir.ts +3 -0
- package/apps/desktop/src/main/controllers/SystemCtr.ts +19 -0
- package/apps/desktop/src/main/controllers/__tests__/SystemCtr.test.ts +1 -0
- package/apps/desktop/src/main/menus/impls/macOS.test.ts +1 -0
- package/changelog/v1.json +21 -0
- package/docs/changelog/2023-09-09-plugin-system.mdx +3 -2
- package/docs/changelog/2023-11-14-gpt4-vision.mdx +6 -4
- package/docs/changelog/2023-11-19-tts-stt.mdx +3 -2
- package/docs/changelog/2023-12-22-dalle-3.mdx +5 -2
- package/docs/changelog/2023-12-22-dalle-3.zh-CN.mdx +2 -2
- package/docs/changelog/2024-02-08-sso-oauth.mdx +2 -2
- package/docs/changelog/2024-06-19-lobe-chat-v1.mdx +3 -2
- package/docs/changelog/2024-06-19-lobe-chat-v1.zh-CN.mdx +2 -2
- package/docs/changelog/2024-07-19-gpt-4o-mini.mdx +3 -2
- package/docs/changelog/2024-07-19-gpt-4o-mini.zh-CN.mdx +2 -2
- package/docs/changelog/2024-08-02-lobe-chat-database-docker.mdx +3 -2
- package/docs/changelog/2024-08-21-file-upload-and-knowledge-base.mdx +5 -4
- package/docs/changelog/2024-09-13-openai-o1-models.mdx +2 -2
- package/docs/changelog/2024-09-20-artifacts.mdx +3 -2
- package/docs/changelog/2024-09-20-artifacts.zh-CN.mdx +2 -2
- package/docs/changelog/2024-10-27-pin-assistant.mdx +3 -2
- package/docs/changelog/2024-11-06-share-text-json.mdx +4 -2
- package/docs/changelog/2024-11-06-share-text-json.zh-CN.mdx +2 -2
- package/docs/changelog/2024-11-25-november-providers.mdx +2 -2
- package/docs/changelog/2024-11-27-forkable-chat.mdx +2 -2
- package/docs/changelog/2025-01-03-user-profile.mdx +2 -2
- package/docs/changelog/2025-01-22-new-ai-provider.mdx +2 -2
- package/docs/changelog/2025-02-02-deepseek-r1.mdx +4 -4
- package/docs/development/basic/add-new-authentication-providers.mdx +4 -0
- package/docs/development/basic/add-new-authentication-providers.zh-CN.mdx +4 -0
- package/docs/development/basic/add-new-image-model.mdx +4 -0
- package/docs/development/basic/add-new-image-model.zh-CN.mdx +4 -0
- package/docs/development/basic/architecture.mdx +4 -0
- package/docs/development/basic/architecture.zh-CN.mdx +4 -0
- package/docs/development/basic/chat-api.mdx +4 -0
- package/docs/development/basic/chat-api.zh-CN.mdx +4 -0
- package/docs/development/basic/comfyui-development.mdx +3 -1
- package/docs/development/basic/contributing-guidelines.mdx +4 -0
- package/docs/development/basic/contributing-guidelines.zh-CN.mdx +4 -0
- package/docs/development/basic/feature-development-frontend.mdx +11 -3
- package/docs/development/basic/feature-development-frontend.zh-CN.mdx +11 -3
- package/docs/development/basic/feature-development.mdx +14 -5
- package/docs/development/basic/feature-development.zh-CN.mdx +14 -5
- package/docs/development/basic/folder-structure.mdx +7 -0
- package/docs/development/basic/folder-structure.zh-CN.mdx +7 -0
- package/docs/development/basic/resources.mdx +4 -0
- package/docs/development/basic/resources.zh-CN.mdx +4 -0
- package/docs/development/basic/setup-development.mdx +4 -0
- package/docs/development/basic/setup-development.zh-CN.mdx +4 -0
- package/docs/development/basic/test.mdx +4 -0
- package/docs/development/basic/test.zh-CN.mdx +4 -0
- package/docs/development/basic/work-with-server-side-database.mdx +5 -5
- package/docs/development/basic/work-with-server-side-database.zh-CN.mdx +5 -5
- package/docs/development/internationalization/add-new-locale.mdx +4 -0
- package/docs/development/internationalization/add-new-locale.zh-CN.mdx +4 -0
- package/docs/development/internationalization/internationalization-implementation.mdx +4 -0
- package/docs/development/internationalization/internationalization-implementation.zh-CN.mdx +4 -0
- package/docs/development/others/lighthouse.mdx +4 -0
- package/docs/development/others/lighthouse.zh-CN.mdx +4 -0
- package/docs/development/start.mdx +4 -0
- package/docs/development/start.zh-CN.mdx +4 -0
- package/docs/development/state-management/state-management-intro.mdx +4 -2
- package/docs/development/state-management/state-management-intro.zh-CN.mdx +4 -2
- package/docs/development/state-management/state-management-selectors.mdx +6 -1
- package/docs/development/state-management/state-management-selectors.zh-CN.mdx +6 -1
- package/docs/development/tests/integration-testing.zh-CN.mdx +4 -0
- package/docs/self-hosting/advanced/analytics.mdx +2 -2
- package/docs/self-hosting/advanced/auth/better-auth/apple.mdx +132 -0
- package/docs/self-hosting/advanced/auth/better-auth/apple.zh-CN.mdx +127 -0
- package/docs/self-hosting/advanced/auth/better-auth/auth0.mdx +111 -0
- package/docs/self-hosting/advanced/auth/better-auth/auth0.zh-CN.mdx +107 -0
- package/docs/self-hosting/advanced/auth/better-auth/authelia.mdx +66 -0
- package/docs/self-hosting/advanced/auth/better-auth/authelia.zh-CN.mdx +62 -0
- package/docs/self-hosting/advanced/auth/better-auth/authentik.mdx +67 -0
- package/docs/self-hosting/advanced/auth/better-auth/authentik.zh-CN.mdx +63 -0
- package/docs/self-hosting/advanced/auth/better-auth/casdoor.mdx +62 -0
- package/docs/self-hosting/advanced/auth/better-auth/casdoor.zh-CN.mdx +58 -0
- package/docs/self-hosting/advanced/auth/better-auth/cloudflare-zero-trust.mdx +59 -0
- package/docs/self-hosting/advanced/auth/better-auth/cloudflare-zero-trust.zh-CN.mdx +55 -0
- package/docs/self-hosting/advanced/auth/better-auth/cognito.mdx +88 -0
- package/docs/self-hosting/advanced/auth/better-auth/cognito.zh-CN.mdx +85 -0
- package/docs/self-hosting/advanced/auth/better-auth/feishu.mdx +73 -0
- package/docs/self-hosting/advanced/auth/better-auth/feishu.zh-CN.mdx +69 -0
- package/docs/self-hosting/advanced/auth/better-auth/generic-oidc.mdx +86 -0
- package/docs/self-hosting/advanced/auth/better-auth/generic-oidc.zh-CN.mdx +83 -0
- package/docs/self-hosting/advanced/auth/better-auth/github.mdx +93 -0
- package/docs/self-hosting/advanced/auth/better-auth/github.zh-CN.mdx +90 -0
- package/docs/self-hosting/advanced/auth/better-auth/google.mdx +80 -0
- package/docs/self-hosting/advanced/auth/better-auth/google.zh-CN.mdx +77 -0
- package/docs/self-hosting/advanced/auth/better-auth/keycloak.mdx +77 -0
- package/docs/self-hosting/advanced/auth/better-auth/keycloak.zh-CN.mdx +74 -0
- package/docs/self-hosting/advanced/auth/better-auth/logto.mdx +64 -0
- package/docs/self-hosting/advanced/auth/better-auth/logto.zh-CN.mdx +60 -0
- package/docs/self-hosting/advanced/auth/better-auth/microsoft.mdx +113 -0
- package/docs/self-hosting/advanced/auth/better-auth/microsoft.zh-CN.mdx +109 -0
- package/docs/self-hosting/advanced/auth/better-auth/okta.mdx +67 -0
- package/docs/self-hosting/advanced/auth/better-auth/okta.zh-CN.mdx +63 -0
- package/docs/self-hosting/advanced/auth/better-auth/wechat.mdx +77 -0
- package/docs/self-hosting/advanced/auth/better-auth/wechat.zh-CN.mdx +72 -0
- package/docs/self-hosting/advanced/auth/better-auth/zitadel.mdx +73 -0
- package/docs/self-hosting/advanced/auth/better-auth/zitadel.zh-CN.mdx +69 -0
- package/docs/self-hosting/advanced/auth/clerk.mdx +2 -2
- package/docs/self-hosting/advanced/auth/legacy.mdx +106 -0
- package/docs/self-hosting/advanced/auth/legacy.zh-CN.mdx +101 -0
- package/docs/self-hosting/advanced/auth/next-auth/auth0.mdx +3 -2
- package/docs/self-hosting/advanced/auth/next-auth/authelia.mdx +3 -2
- package/docs/self-hosting/advanced/auth/next-auth/authentik.mdx +3 -2
- package/docs/self-hosting/advanced/auth/next-auth/casdoor.mdx +5 -2
- package/docs/self-hosting/advanced/auth/next-auth/casdoor.zh-CN.mdx +2 -0
- package/docs/self-hosting/advanced/auth/next-auth/cloudflare-zero-trust.mdx +3 -2
- package/docs/self-hosting/advanced/auth/next-auth/cloudflare-zero-trust.zh-CN.mdx +2 -2
- package/docs/self-hosting/advanced/auth/next-auth/github.mdx +3 -2
- package/docs/self-hosting/advanced/auth/next-auth/google.mdx +10 -12
- package/docs/self-hosting/advanced/auth/next-auth/keycloak.mdx +3 -2
- package/docs/self-hosting/advanced/auth/next-auth/logto.mdx +2 -2
- package/docs/self-hosting/advanced/auth/next-auth/microsoft-entra-id.mdx +3 -2
- package/docs/self-hosting/advanced/auth/next-auth/okta.mdx +3 -2
- package/docs/self-hosting/advanced/auth/next-auth/okta.zh-CN.mdx +1 -3
- package/docs/self-hosting/advanced/auth/next-auth/wechat.mdx +2 -2
- package/docs/self-hosting/advanced/auth/next-auth/zitadel.mdx +3 -2
- package/docs/self-hosting/advanced/auth.mdx +86 -139
- package/docs/self-hosting/advanced/auth.zh-CN.mdx +84 -135
- package/docs/self-hosting/advanced/desktop.mdx +9 -3
- package/docs/self-hosting/advanced/desktop.zh-CN.mdx +9 -3
- package/docs/self-hosting/advanced/feature-flags.mdx +3 -2
- package/docs/self-hosting/advanced/knowledge-base.mdx +2 -2
- package/docs/self-hosting/advanced/model-list.mdx +2 -2
- package/docs/self-hosting/advanced/observability/grafana.mdx +4 -2
- package/docs/self-hosting/advanced/observability/grafana.zh-CN.mdx +2 -1
- package/docs/self-hosting/advanced/observability/langfuse.mdx +3 -2
- package/docs/self-hosting/advanced/online-search.mdx +4 -6
- package/docs/self-hosting/advanced/s3/tencent-cloud.mdx +2 -2
- package/docs/self-hosting/advanced/settings-url-share.mdx +3 -2
- package/docs/self-hosting/advanced/upstream-sync.mdx +3 -4
- package/docs/self-hosting/advanced/upstream-sync.zh-CN.mdx +0 -2
- package/docs/self-hosting/environment-variables/analytics.mdx +3 -2
- package/docs/self-hosting/environment-variables/auth.mdx +5 -12
- package/docs/self-hosting/environment-variables/auth.zh-CN.mdx +2 -9
- package/docs/self-hosting/environment-variables/basic.mdx +3 -10
- package/docs/self-hosting/environment-variables/basic.zh-CN.mdx +0 -7
- package/docs/self-hosting/environment-variables/model-provider.mdx +3 -4
- package/docs/self-hosting/environment-variables/s3.mdx +2 -2
- package/docs/self-hosting/environment-variables.mdx +2 -3
- package/docs/self-hosting/examples/azure-openai.mdx +2 -3
- package/docs/self-hosting/examples/azure-openai.zh-CN.mdx +0 -1
- package/docs/self-hosting/examples/ollama.mdx +3 -2
- package/docs/self-hosting/faq/no-v1-suffix.mdx +4 -4
- package/docs/self-hosting/faq/proxy-with-unable-to-verify-leaf-signature.mdx +3 -2
- package/docs/self-hosting/faq/vercel-ai-image-timeout.mdx +2 -2
- package/docs/self-hosting/migration/v2/breaking-changes.mdx +73 -0
- package/docs/self-hosting/migration/v2/breaking-changes.zh-CN.mdx +71 -0
- package/docs/self-hosting/platform/alibaba-cloud.mdx +2 -7
- package/docs/self-hosting/platform/alibaba-cloud.zh-CN.mdx +1 -6
- package/docs/self-hosting/platform/btpanel.mdx +4 -2
- package/docs/self-hosting/platform/btpanel.zh-CN.mdx +2 -2
- package/docs/self-hosting/platform/docker-compose.mdx +3 -3
- package/docs/self-hosting/platform/docker-compose.zh-CN.mdx +0 -1
- package/docs/self-hosting/platform/docker.mdx +2 -11
- package/docs/self-hosting/platform/docker.zh-CN.mdx +0 -8
- package/docs/self-hosting/platform/netlify.mdx +5 -17
- package/docs/self-hosting/platform/netlify.zh-CN.mdx +3 -17
- package/docs/self-hosting/platform/railway.mdx +3 -7
- package/docs/self-hosting/platform/railway.zh-CN.mdx +1 -7
- package/docs/self-hosting/platform/repocloud.mdx +3 -7
- package/docs/self-hosting/platform/repocloud.zh-CN.mdx +1 -6
- package/docs/self-hosting/platform/sealos.mdx +2 -7
- package/docs/self-hosting/platform/sealos.zh-CN.mdx +1 -6
- package/docs/self-hosting/platform/tencentcloud-lighthouse.mdx +2 -7
- package/docs/self-hosting/platform/tencentcloud-lighthouse.zh-CN.mdx +1 -6
- package/docs/self-hosting/platform/vercel.mdx +4 -9
- package/docs/self-hosting/platform/vercel.zh-CN.mdx +3 -8
- package/docs/self-hosting/platform/zeabur.mdx +2 -11
- package/docs/self-hosting/platform/zeabur.zh-CN.mdx +1 -10
- package/docs/self-hosting/server-database/docker-compose.mdx +11 -19
- package/docs/self-hosting/server-database/docker-compose.zh-CN.mdx +12 -21
- package/docs/self-hosting/server-database/docker.mdx +9 -24
- package/docs/self-hosting/server-database/docker.zh-CN.mdx +7 -24
- package/docs/self-hosting/server-database/dokploy.mdx +27 -25
- package/docs/self-hosting/server-database/dokploy.zh-CN.mdx +23 -21
- package/docs/self-hosting/server-database/netlify.mdx +2 -2
- package/docs/self-hosting/server-database/netlify.zh-CN.mdx +2 -2
- package/docs/self-hosting/server-database/railway.mdx +2 -2
- package/docs/self-hosting/server-database/repocloud.mdx +2 -2
- package/docs/self-hosting/server-database/sealos.mdx +2 -2
- package/docs/self-hosting/server-database/vercel.mdx +19 -72
- package/docs/self-hosting/server-database/vercel.zh-CN.mdx +17 -68
- package/docs/self-hosting/server-database/zeabur.mdx +2 -2
- package/docs/self-hosting/server-database.mdx +1 -19
- package/docs/self-hosting/server-database.zh-CN.mdx +0 -17
- package/docs/self-hosting/start.mdx +2 -2
- package/docs/self-hosting/start.zh-CN.mdx +2 -2
- package/e2e/src/support/webServer.ts +95 -43
- package/locales/ar/chat.json +5 -0
- package/locales/ar/desktop-onboarding.json +5 -0
- package/locales/ar/discover.json +15 -0
- package/locales/ar/models.json +35 -0
- package/locales/bg-BG/chat.json +5 -0
- package/locales/bg-BG/desktop-onboarding.json +5 -0
- package/locales/bg-BG/discover.json +15 -0
- package/locales/bg-BG/models.json +30 -0
- package/locales/de-DE/chat.json +5 -0
- package/locales/de-DE/desktop-onboarding.json +5 -0
- package/locales/de-DE/discover.json +15 -0
- package/locales/de-DE/models.json +38 -0
- package/locales/en-US/desktop-onboarding.json +6 -0
- package/locales/en-US/discover.json +14 -0
- package/locales/es-ES/chat.json +5 -0
- package/locales/es-ES/desktop-onboarding.json +5 -0
- package/locales/es-ES/discover.json +15 -0
- package/locales/es-ES/models.json +38 -0
- package/locales/fa-IR/chat.json +5 -0
- package/locales/fa-IR/desktop-onboarding.json +5 -0
- package/locales/fa-IR/discover.json +15 -0
- package/locales/fa-IR/models.json +11 -0
- package/locales/fr-FR/chat.json +5 -0
- package/locales/fr-FR/desktop-onboarding.json +5 -0
- package/locales/fr-FR/discover.json +15 -0
- package/locales/fr-FR/models.json +36 -0
- package/locales/it-IT/chat.json +5 -0
- package/locales/it-IT/desktop-onboarding.json +5 -0
- package/locales/it-IT/discover.json +15 -0
- package/locales/it-IT/models.json +32 -0
- package/locales/ja-JP/chat.json +5 -0
- package/locales/ja-JP/desktop-onboarding.json +5 -0
- package/locales/ja-JP/discover.json +15 -0
- package/locales/ja-JP/models.json +42 -0
- package/locales/ko-KR/chat.json +5 -0
- package/locales/ko-KR/desktop-onboarding.json +5 -0
- package/locales/ko-KR/discover.json +15 -0
- package/locales/ko-KR/models.json +55 -0
- package/locales/nl-NL/chat.json +5 -0
- package/locales/nl-NL/desktop-onboarding.json +5 -0
- package/locales/nl-NL/discover.json +15 -0
- package/locales/nl-NL/models.json +34 -0
- package/locales/pl-PL/chat.json +5 -0
- package/locales/pl-PL/desktop-onboarding.json +5 -0
- package/locales/pl-PL/discover.json +15 -0
- package/locales/pl-PL/models.json +31 -0
- package/locales/pt-BR/chat.json +5 -0
- package/locales/pt-BR/desktop-onboarding.json +5 -0
- package/locales/pt-BR/discover.json +15 -0
- package/locales/pt-BR/models.json +42 -0
- package/locales/ru-RU/chat.json +5 -0
- package/locales/ru-RU/desktop-onboarding.json +5 -0
- package/locales/ru-RU/discover.json +15 -0
- package/locales/ru-RU/models.json +32 -0
- package/locales/tr-TR/chat.json +5 -0
- package/locales/tr-TR/desktop-onboarding.json +5 -0
- package/locales/tr-TR/discover.json +15 -0
- package/locales/tr-TR/models.json +48 -0
- package/locales/vi-VN/chat.json +5 -0
- package/locales/vi-VN/desktop-onboarding.json +5 -0
- package/locales/vi-VN/discover.json +15 -0
- package/locales/vi-VN/models.json +36 -0
- package/locales/zh-CN/desktop-onboarding.json +4 -3
- package/locales/zh-CN/discover.json +14 -0
- package/locales/zh-CN/models.json +1 -0
- package/locales/zh-TW/chat.json +5 -0
- package/locales/zh-TW/desktop-onboarding.json +5 -0
- package/locales/zh-TW/discover.json +15 -0
- package/locales/zh-TW/models.json +42 -0
- package/package.json +2 -2
- package/packages/builtin-tool-cloud-sandbox/src/systemRole.ts +62 -2
- package/packages/conversation-flow/src/__tests__/fixtures/inputs/tasks/index.ts +2 -0
- package/packages/conversation-flow/src/__tests__/fixtures/inputs/tasks/multi-tasks-with-summary.json +234 -0
- package/packages/conversation-flow/src/__tests__/parse.test.ts +25 -0
- package/packages/conversation-flow/src/transformation/ContextTreeBuilder.ts +15 -0
- package/packages/conversation-flow/src/transformation/FlatListBuilder.ts +20 -0
- package/packages/types/src/serverConfig.ts +0 -1
- package/src/app/[variants]/(desktop)/desktop-onboarding/features/LoginStep.tsx +39 -1
- package/src/app/[variants]/(main)/settings/common/features/Common/Common.tsx +34 -14
- package/src/envs/app.ts +0 -13
- package/src/locales/default/desktop-onboarding.ts +1 -0
- package/src/server/globalConfig/index.ts +1 -2
- package/src/services/electron/system.ts +4 -0
- package/src/store/serverConfig/selectors.ts +0 -1
package/locales/ar/discover.json
CHANGED
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "العام الماضي",
|
|
142
142
|
"footer.desc": "تطوّر مع مستخدمي الذكاء الاصطناعي حول العالم. كن منشئًا وشارك وكلاءك ومهاراتك في مجتمع LobeHub.",
|
|
143
143
|
"footer.title": "شارك إبداعاتك في مجتمع LobeHub اليوم",
|
|
144
|
+
"fork.alreadyForked": "لقد قمت بالفعل بعمل نسخة من هذا الوكيل. يتم الآن الانتقال إلى نسختك...",
|
|
145
|
+
"fork.failed": "فشل النسخ. يرجى المحاولة مرة أخرى.",
|
|
146
|
+
"fork.forkAndChat": "انسخ وابدأ المحادثة",
|
|
147
|
+
"fork.forkedFrom": "تم النسخ من",
|
|
148
|
+
"fork.forks": "نسخ",
|
|
149
|
+
"fork.forksCount": "{{count}} نسخة",
|
|
150
|
+
"fork.forksCount_other": "{{count}} نسخ",
|
|
151
|
+
"fork.success": "تم النسخ بنجاح!",
|
|
152
|
+
"fork.viewAllForks": "عرض جميع النسخ",
|
|
153
|
+
"groupAgents.tag": "مجموعة",
|
|
144
154
|
"home.communityAgents": "وكلاء المجتمع",
|
|
145
155
|
"home.featuredAssistants": "وكلاء مميزون",
|
|
146
156
|
"home.featuredModels": "نماذج مميزة",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "متابعة",
|
|
472
482
|
"user.followers": "المتابعون",
|
|
473
483
|
"user.following": "يتابع",
|
|
484
|
+
"user.forkedAgentGroups": "مجموعات الوكلاء المنسوخة",
|
|
485
|
+
"user.forkedAgents": "الوكلاء المنسوخون",
|
|
474
486
|
"user.login": "كن منشئًا",
|
|
475
487
|
"user.logout": "تسجيل الخروج",
|
|
476
488
|
"user.myProfile": "ملفي الشخصي",
|
|
477
489
|
"user.noAgents": "لم ينشر هذا المستخدم أي وكلاء بعد",
|
|
478
490
|
"user.noFavoriteAgents": "لا يوجد وكلاء محفوظون بعد",
|
|
479
491
|
"user.noFavoritePlugins": "لا توجد مهارات محفوظة بعد",
|
|
492
|
+
"user.noForkedAgentGroups": "لا توجد مجموعات وكلاء منسوخة بعد",
|
|
493
|
+
"user.noForkedAgents": "لا يوجد وكلاء منسوخون بعد",
|
|
480
494
|
"user.publishedAgents": "الوكلاء المنشؤون",
|
|
481
495
|
"user.tabs.favorites": "المفضلة",
|
|
496
|
+
"user.tabs.forkedAgents": "المنسوخون",
|
|
482
497
|
"user.tabs.publishedAgents": "تم الإنشاء",
|
|
483
498
|
"user.unfavorite": "إلغاء الحفظ",
|
|
484
499
|
"user.unfavoriteFailed": "فشل في إلغاء الحفظ",
|
package/locales/ar/models.json
CHANGED
|
@@ -680,6 +680,41 @@
|
|
|
680
680
|
"groq/compound-mini.description": "Compound-mini هو نظام ذكاء اصطناعي مركب مدعوم بنماذج متاحة علنًا على GroqCloud، يستخدم الأدوات بذكاء وانتقائية للإجابة على استفسارات المستخدمين.",
|
|
681
681
|
"groq/compound.description": "Compound هو نظام ذكاء اصطناعي مركب مدعوم بعدة نماذج متاحة علنًا على GroqCloud، يستخدم الأدوات بذكاء وانتقائية للإجابة على استفسارات المستخدمين.",
|
|
682
682
|
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B هو نموذج لغوي إبداعي وذكي مدمج من عدة نماذج رائدة.",
|
|
683
|
+
"hunyuan-a13b.description": "أول نموذج تفكير هجين من Hunyuan، مطور من hunyuan-standard-256K (بإجمالي 80 مليار، 13 مليار نشطة). يعتمد بشكل افتراضي على التفكير البطيء ويدعم التبديل بين التفكير السريع والبطيء عبر المعلمات أو بإضافة /no_think. تم تحسين القدرات العامة مقارنة بالجيل السابق، خاصة في الرياضيات والعلوم وفهم النصوص الطويلة والمهام المعتمدة على الوكلاء.",
|
|
684
|
+
"hunyuan-code.description": "أحدث نموذج لتوليد الشيفرات تم تدريبه على 200 مليار من الشيفرات عالية الجودة وعلى مدار ستة أشهر من التدريب الدقيق؛ تم توسيع السياق إلى 8 آلاف. يحتل المراتب الأولى في المعايير الآلية لخمس لغات وفي التقييمات البشرية عبر عشرة معايير.",
|
|
685
|
+
"hunyuan-functioncall.description": "أحدث نموذج MoE لوظائف الاستدعاء، تم تدريبه على بيانات عالية الجودة، ويتميز بإطار سياق 32 ألف وكفاءة رائدة في المعايير المختلفة.",
|
|
686
|
+
"hunyuan-large-longcontext.description": "يتفوق في مهام المستندات الطويلة مثل التلخيص والأسئلة والأجوبة، كما يدعم التوليد العام. يتميز بتحليل وتوليد نصوص طويلة ومعقدة ومفصلة.",
|
|
687
|
+
"hunyuan-large-vision.description": "نموذج رؤية-لغة مدرب من Hunyuan Large لفهم الصور والنصوص. يدعم إدخال صور متعددة + نص بأي دقة، ويعزز الفهم البصري متعدد اللغات.",
|
|
688
|
+
"hunyuan-large.description": "يحتوي Hunyuan-large على ~389 مليار معلمة إجمالية و~52 مليار نشطة، وهو أكبر وأقوى نموذج MoE مفتوح في بنية Transformer.",
|
|
689
|
+
"hunyuan-lite-vision.description": "أحدث نموذج متعدد الوسائط بحجم 7 مليار مع إطار سياق 32 ألف، يدعم الدردشة متعددة الوسائط بالصينية/الإنجليزية، والتعرف على الكائنات، وفهم جداول المستندات، والرياضيات متعددة الوسائط، ويتفوق على نظرائه من نفس الحجم في العديد من المعايير.",
|
|
690
|
+
"hunyuan-lite.description": "تمت ترقيته إلى بنية MoE مع إطار سياق 256 ألف، ويتفوق على العديد من النماذج المفتوحة في مجالات معالجة اللغة الطبيعية، الشيفرة، الرياضيات، والمعايير الصناعية.",
|
|
691
|
+
"hunyuan-pro.description": "نموذج طويل السياق MoE-32K بعدد تريليون معلمة، يتصدر المعايير، قوي في التعليمات المعقدة والتفكير، الرياضيات المتقدمة، استدعاء الوظائف، ومُحسّن للترجمة متعددة اللغات، والمالية، والقانون، والمجالات الطبية.",
|
|
692
|
+
"hunyuan-role.description": "أحدث نموذج لتقمص الأدوار، تم تدريبه بدقة على مجموعات بيانات خاصة بتقمص الأدوار، ويقدم أداءً أساسياً أقوى في سيناريوهات التقمص.",
|
|
693
|
+
"hunyuan-standard-256K.description": "يستخدم توجيهاً محسناً لتقليل اختلال التوازن في التحميل وانهيار الخبراء. يحقق دقة 99.9% في اختبار الإبرة في كومة القش ضمن سياق طويل. يوسع MOE-256K طول السياق وجودته.",
|
|
694
|
+
"hunyuan-standard-vision.description": "أحدث نموذج متعدد الوسائط مع استجابات متعددة اللغات وقدرة متوازنة بين الصينية والإنجليزية.",
|
|
695
|
+
"hunyuan-standard.description": "يستخدم توجيهاً محسناً لتقليل اختلال التوازن في التحميل وانهيار الخبراء. يحقق دقة 99.9% في اختبار الإبرة في كومة القش ضمن سياق طويل. يوفر MOE-32K قيمة قوية أثناء التعامل مع مدخلات طويلة.",
|
|
696
|
+
"hunyuan-t1-20250321.description": "يبني توازناً بين الفنون والعلوم، مع قدرة قوية على التقاط المعلومات من النصوص الطويلة. يدعم الإجابات المنطقية لمشاكل الرياضيات والمنطق والعلوم والشيفرة بمستويات صعوبة مختلفة.",
|
|
697
|
+
"hunyuan-t1-20250403.description": "يحسن توليد الشيفرات على مستوى المشاريع وجودة الكتابة، ويعزز فهم المواضيع متعددة الأدوار واتباع التعليمات الموجهة للأعمال، ويحسن فهم الكلمات ويقلل من مشكلات الخلط بين الصينية المبسطة/التقليدية والإنجليزية.",
|
|
698
|
+
"hunyuan-t1-20250529.description": "يعزز الكتابة الإبداعية والتأليف، ويقوي البرمجة الأمامية، والرياضيات، والتفكير المنطقي، ويحسن اتباع التعليمات.",
|
|
699
|
+
"hunyuan-t1-20250711.description": "يحسن بشكل كبير أداء الرياضيات الصعبة، والمنطق، والبرمجة، ويعزز استقرار المخرجات، ويقوي القدرة على التعامل مع النصوص الطويلة.",
|
|
700
|
+
"hunyuan-t1-latest.description": "يحسن بشكل ملحوظ نموذج التفكير البطيء في الرياضيات الصعبة، والتفكير المعقد، والبرمجة المعقدة، واتباع التعليمات، وجودة الكتابة الإبداعية.",
|
|
701
|
+
"hunyuan-t1-vision-20250619.description": "أحدث نموذج t1-vision متعدد الوسائط للتفكير العميق بسلسلة تفكير أصلية طويلة، محسّن بشكل كبير عن النسخة الافتراضية السابقة.",
|
|
702
|
+
"hunyuan-t1-vision-20250916.description": "أحدث نموذج t1-vision للتفكير العميق مع تحسينات كبيرة في VQA، التثبيت البصري، التعرف البصري على الحروف، الرسوم البيانية، حل المشكلات المصورة، والإبداع المعتمد على الصور، بالإضافة إلى دعم أقوى للإنجليزية واللغات منخفضة الموارد.",
|
|
703
|
+
"hunyuan-turbo-20241223.description": "يعزز توسيع التعليمات لتحسين التعميم، ويحسن بشكل كبير التفكير في الرياضيات/الشيفرة/المنطق، ويعزز فهم الكلمات، ويحسن جودة الكتابة.",
|
|
704
|
+
"hunyuan-turbo-latest.description": "تحسينات عامة في تجربة المستخدم عبر فهم اللغة الطبيعية، الكتابة، الدردشة، الأسئلة والأجوبة، الترجمة، والمجالات المتخصصة؛ استجابات أكثر إنسانية، توضيح أفضل للنوايا الغامضة، تحليل كلمات محسن، جودة إبداعية وتفاعلية أعلى، ومحادثات متعددة الأدوار أقوى.",
|
|
705
|
+
"hunyuan-turbo-vision.description": "نموذج رائد من الجيل التالي للرؤية واللغة باستخدام بنية MoE جديدة، مع تحسينات واسعة في التعرف، إنشاء المحتوى، الأسئلة المعرفية، والتفكير التحليلي.",
|
|
706
|
+
"hunyuan-turbo.description": "نموذج الجيل التالي من Hunyuan LLM بمعمارية MoE جديدة، يوفر تفكيراً أسرع ونتائج أقوى من hunyuan-pro.",
|
|
707
|
+
"hunyuan-turbos-20250313.description": "يوحد أسلوب حل المسائل الرياضية ويقوي الأسئلة والأجوبة متعددة الأدوار في الرياضيات. تم تحسين أسلوب الكتابة لتقليل الطابع الآلي وإضفاء لمسة احترافية.",
|
|
708
|
+
"hunyuan-turbos-20250416.description": "تمت ترقية قاعدة التدريب المسبق لتحسين فهم التعليمات واتباعها؛ يعزز المحاذاة أداء الرياضيات، الشيفرة، المنطق، والعلوم؛ يحسن جودة الكتابة، الفهم، دقة الترجمة، والأسئلة المعرفية؛ يقوي قدرات الوكلاء، خاصة في الفهم متعدد الأدوار.",
|
|
709
|
+
"hunyuan-turbos-20250604.description": "تمت ترقية قاعدة التدريب المسبق مع تحسينات في الكتابة وفهم القراءة، مكاسب كبيرة في الشيفرة والعلوم، وتحسين في اتباع التعليمات المعقدة.",
|
|
710
|
+
"hunyuan-turbos-20250926.description": "تحسين جودة بيانات التدريب المسبق واستراتيجية ما بعد التدريب، مما يعزز أداء الوكلاء، اللغات الإنجليزية/منخفضة الموارد، اتباع التعليمات، الشيفرة، والقدرات العلمية.",
|
|
711
|
+
"hunyuan-turbos-latest.description": "أحدث نموذج رائد من Hunyuan TurboS مع تفكير أقوى وتجربة شاملة أفضل.",
|
|
712
|
+
"hunyuan-turbos-longtext-128k-20250325.description": "يتفوق في مهام المستندات الطويلة مثل التلخيص والأسئلة والأجوبة، كما يدعم التوليد العام. يتميز بتحليل وتوليد نصوص طويلة ومعقدة ومفصلة.",
|
|
713
|
+
"hunyuan-turbos-role-plus.description": "أحدث نموذج لتقمص الأدوار، تم تدريبه بدقة على مجموعات بيانات خاصة بتقمص الأدوار، ويقدم أداءً أساسياً أقوى في سيناريوهات التقمص.",
|
|
714
|
+
"hunyuan-turbos-vision-20250619.description": "أحدث نموذج TurboS رائد للرؤية واللغة مع تحسينات كبيرة في مهام الصور والنصوص مثل التعرف على الكيانات، الأسئلة المعرفية، كتابة النصوص، وحل المشكلات المصورة.",
|
|
715
|
+
"hunyuan-turbos-vision.description": "نموذج رائد من الجيل التالي للرؤية واللغة مبني على أحدث إصدار من TurboS، يركز على مهام فهم الصور والنصوص مثل التعرف على الكيانات، الأسئلة المعرفية، كتابة النصوص، وحل المشكلات المصورة.",
|
|
716
|
+
"hunyuan-vision-1.5-instruct.description": "نموذج تفكير سريع لتحويل الصور إلى نصوص مبني على قاعدة TurboS النصية، مع تحسينات ملحوظة مقارنة بالإصدار السابق في التعرف الأساسي على الصور والتحليل البصري المنطقي.",
|
|
717
|
+
"hunyuan-vision.description": "أحدث نموذج متعدد الوسائط يدعم إدخال الصور + النصوص لتوليد نصوص.",
|
|
683
718
|
"meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.",
|
|
684
719
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
|
|
685
720
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
|
package/locales/bg-BG/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "Все още няма избрани членове",
|
|
205
205
|
"openInNewWindow": "Отвори в нов прозорец",
|
|
206
206
|
"operation.execAgentRuntime": "Подготвяне на отговор",
|
|
207
|
+
"operation.execClientTask": "Изпълнение на задача",
|
|
207
208
|
"operation.sendMessage": "Изпращане на съобщение",
|
|
208
209
|
"owner": "Собственик на групата",
|
|
209
210
|
"pageCopilot.title": "Агент на страницата",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "Профил на агента",
|
|
323
324
|
"tab.search": "Търсене",
|
|
324
325
|
"task.activity.calling": "Извикване на умение...",
|
|
326
|
+
"task.activity.clientExecuting": "Изпълнява се локално...",
|
|
325
327
|
"task.activity.generating": "Генериране на отговор...",
|
|
326
328
|
"task.activity.gotResult": "Получен резултат от инструмента",
|
|
327
329
|
"task.activity.toolCalling": "Извикване на {{toolName}}...",
|
|
328
330
|
"task.activity.toolResult": "Получен резултат от {{toolName}}",
|
|
329
331
|
"task.batchTasks": "{{count}} групови подзадачи",
|
|
332
|
+
"task.instruction": "Инструкция за задача",
|
|
333
|
+
"task.intermediateSteps": "{{count}} междинни стъпки",
|
|
334
|
+
"task.metrics.duration": "(отне {{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "стъпки",
|
|
331
336
|
"task.metrics.toolCallsShort": "използвания на инструменти",
|
|
332
337
|
"task.status.cancelled": "Задачата е отменена",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "Как искаш да споделяш данни?",
|
|
59
59
|
"screen4.title2": "Твоят избор ни помага да се подобрим",
|
|
60
60
|
"screen4.title3": "Можеш да го промениш по всяко време от настройките",
|
|
61
|
+
"screen5.actions.cancel": "Отказ",
|
|
61
62
|
"screen5.actions.connectToServer": "Свържи се със сървър",
|
|
62
63
|
"screen5.actions.connecting": "Свързване...",
|
|
63
64
|
"screen5.actions.signInCloud": "Влез в LobeHub Cloud",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "Влизане...",
|
|
66
67
|
"screen5.actions.signingOut": "Излизане...",
|
|
67
68
|
"screen5.actions.tryAgain": "Опитай отново",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "Браузърът е отворен, моля, влезте в профила си...",
|
|
70
|
+
"screen5.auth.phase.verifying": "Проверка на идентификационните данни...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "Изчакване на оторизация...",
|
|
72
|
+
"screen5.auth.remaining": "Оставащо време: {{time}} сек",
|
|
68
73
|
"screen5.badge": "Вход",
|
|
69
74
|
"screen5.description": "Влез, за да синхронизираш Агенти, Групи, настройки и Контекст на всички устройства.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "OIDC удостоверяване е налично само в десктоп версията на приложението.",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "Последната година",
|
|
142
142
|
"footer.desc": "Развивай се с потребители на ИИ по целия свят. Стани създател и изпрати своите агенти и умения в общността на LobeHub.",
|
|
143
143
|
"footer.title": "Сподели своето творение в общността на LobeHub още днес",
|
|
144
|
+
"fork.alreadyForked": "Вече сте направили вилица на този агент. Пренасочване към вашата вилица...",
|
|
145
|
+
"fork.failed": "Неуспешно разклоняване. Моля, опитайте отново.",
|
|
146
|
+
"fork.forkAndChat": "Разклони и чат",
|
|
147
|
+
"fork.forkedFrom": "Разклонен от",
|
|
148
|
+
"fork.forks": "разклонения",
|
|
149
|
+
"fork.forksCount": "{{count}} разклонение",
|
|
150
|
+
"fork.forksCount_other": "{{count}} разклонения",
|
|
151
|
+
"fork.success": "Успешно разклоняване!",
|
|
152
|
+
"fork.viewAllForks": "Виж всички разклонения",
|
|
153
|
+
"groupAgents.tag": "Група",
|
|
144
154
|
"home.communityAgents": "Агенти от общността",
|
|
145
155
|
"home.featuredAssistants": "Препоръчани агенти",
|
|
146
156
|
"home.featuredModels": "Препоръчани модели",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "Последвай",
|
|
472
482
|
"user.followers": "Последователи",
|
|
473
483
|
"user.following": "Следва",
|
|
484
|
+
"user.forkedAgentGroups": "Групи с разклонени агенти",
|
|
485
|
+
"user.forkedAgents": "Разклонени агенти",
|
|
474
486
|
"user.login": "Стани създател",
|
|
475
487
|
"user.logout": "Изход",
|
|
476
488
|
"user.myProfile": "Моят профил",
|
|
477
489
|
"user.noAgents": "Този потребител все още не е публикувал агенти",
|
|
478
490
|
"user.noFavoriteAgents": "Няма запазени агенти",
|
|
479
491
|
"user.noFavoritePlugins": "Няма запазени умения",
|
|
492
|
+
"user.noForkedAgentGroups": "Все още няма групи с разклонени агенти",
|
|
493
|
+
"user.noForkedAgents": "Все още няма разклонени агенти",
|
|
480
494
|
"user.publishedAgents": "Създадени агенти",
|
|
481
495
|
"user.tabs.favorites": "Любими",
|
|
496
|
+
"user.tabs.forkedAgents": "Разклонени",
|
|
482
497
|
"user.tabs.publishedAgents": "Създадени",
|
|
483
498
|
"user.unfavorite": "Премахни от любими",
|
|
484
499
|
"user.unfavoriteFailed": "Неуспешно премахване от любими",
|
|
@@ -613,6 +613,36 @@
|
|
|
613
613
|
"gpt-3.5-turbo.description": "GPT 3.5 Turbo за генериране и разбиране на текст; в момента сочи към gpt-3.5-turbo-0125.",
|
|
614
614
|
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k е модел за генериране на текст с висока капацитетност за сложни задачи.",
|
|
615
615
|
"gpt-35-turbo.description": "GPT-3.5 Turbo е ефективният модел на OpenAI за чат и генериране на текст, поддържащ паралелно извикване на функции.",
|
|
616
|
+
"gpt-4-0125-preview.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
|
|
617
|
+
"gpt-4-0613.description": "GPT-4 предлага по-голям контекстов прозорец за обработка на по-дълги входове, подходящ за обобщаване на широка информация и анализ на данни.",
|
|
618
|
+
"gpt-4-1106-preview.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
|
|
619
|
+
"gpt-4-32k-0613.description": "GPT-4 предлага по-голям контекстов прозорец за обработка на по-дълги входове в сценарии, изискващи интеграция на широка информация и анализ на данни.",
|
|
620
|
+
"gpt-4-32k.description": "GPT-4 предлага по-голям контекстов прозорец за обработка на по-дълги входове в сценарии, изискващи интеграция на широка информация и анализ на данни.",
|
|
621
|
+
"gpt-4-turbo-2024-04-09.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
|
|
622
|
+
"gpt-4-turbo-preview.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
|
|
623
|
+
"gpt-4-turbo.description": "Най-новият GPT-4 Turbo добавя възможности за визуално разпознаване. Визуалните заявки поддържат JSON режим и извикване на функции. Това е рентабилен мултимодален модел, който балансира точността и ефективността за приложения в реално време.",
|
|
624
|
+
"gpt-4-vision-preview.description": "Предварителен преглед на GPT-4 Vision, създаден за задачи по анализ и обработка на изображения.",
|
|
625
|
+
"gpt-4.1-mini.description": "GPT-4.1 mini балансира интелигентност, скорост и цена, което го прави привлекателен за множество приложения.",
|
|
626
|
+
"gpt-4.1-nano.description": "GPT-4.1 nano е най-бързият и най-рентабилен модел от серията GPT-4.1.",
|
|
627
|
+
"gpt-4.1.description": "GPT-4.1 е водещият ни модел за сложни задачи и решаване на проблеми в различни области.",
|
|
628
|
+
"gpt-4.5-preview.description": "GPT-4.5-preview е най-новият универсален модел с дълбоки познания за света и по-добро разбиране на намеренията, силен в творчески задачи и планиране на агенти. Границата на знанията му е октомври 2023 г.",
|
|
629
|
+
"gpt-4.description": "GPT-4 предлага по-голям контекстов прозорец за обработка на по-дълги входове, подходящ за обобщаване на широка информация и анализ на данни.",
|
|
630
|
+
"gpt-4o-2024-05-13.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, който съчетава силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
|
|
631
|
+
"gpt-4o-2024-08-06.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време. Съчетава силно езиково разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
|
|
632
|
+
"gpt-4o-2024-11-20.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, който съчетава силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
|
|
633
|
+
"gpt-4o-audio-preview.description": "Предварителен преглед на GPT-4o Audio модел с аудио вход и изход.",
|
|
634
|
+
"gpt-4o-mini-audio-preview.description": "GPT-4o mini Audio модел с аудио вход и изход.",
|
|
635
|
+
"gpt-4o-mini-realtime-preview.description": "GPT-4o-mini вариант в реално време с аудио и текстов вход/изход в реално време.",
|
|
636
|
+
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview е обучен да разбира и изпълнява заявки за уеб търсене чрез Chat Completions API. Уеб търсенето се таксува на извикване на инструмент в допълнение към разходите за токени.",
|
|
637
|
+
"gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe е модел за преобразуване на реч в текст, който транскрибира аудио с помощта на GPT-4o, подобрявайки точността на думите, идентификацията на езика и прецизността спрямо оригиналния модел Whisper.",
|
|
638
|
+
"gpt-4o-mini-tts.description": "GPT-4o mini TTS е модел за преобразуване на текст в реч, базиран на GPT-4o mini, който преобразува текст в естествено звучаща реч с максимум 2000 токена вход.",
|
|
639
|
+
"gpt-4o-mini.description": "GPT-4o mini е най-новият модел на OpenAI след GPT-4 Omni, поддържащ вход от текст и изображение с текстов изход. Това е най-усъвършенстваният им малък модел, значително по-евтин от последните водещи модели и над 60% по-евтин от GPT-3.5 Turbo, като същевременно поддържа водеща интелигентност (82% MMLU).",
|
|
640
|
+
"gpt-4o-realtime-preview-2024-10-01.description": "GPT-4o вариант в реално време с аудио и текстов вход/изход в реално време.",
|
|
641
|
+
"gpt-4o-realtime-preview-2025-06-03.description": "GPT-4o вариант в реално време с аудио и текстов вход/изход в реално време.",
|
|
642
|
+
"gpt-4o-realtime-preview.description": "GPT-4o вариант в реално време с аудио и текстов вход/изход в реално време.",
|
|
643
|
+
"gpt-4o-search-preview.description": "GPT-4o Search Preview е обучен да разбира и изпълнява заявки за уеб търсене чрез Chat Completions API. Уеб търсенето се таксува на извикване на инструмент в допълнение към разходите за токени.",
|
|
644
|
+
"gpt-4o-transcribe.description": "GPT-4o Transcribe е модел за преобразуване на реч в текст, който транскрибира аудио с помощта на GPT-4o, подобрявайки точността на думите, идентификацията на езика и прецизността спрямо оригиналния модел Whisper.",
|
|
645
|
+
"gpt-4o.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, който съчетава силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
|
|
616
646
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
|
|
617
647
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
|
|
618
648
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
|
package/locales/de-DE/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "Noch keine Mitglieder ausgewählt",
|
|
205
205
|
"openInNewWindow": "In neuem Fenster öffnen",
|
|
206
206
|
"operation.execAgentRuntime": "Antwort wird vorbereitet",
|
|
207
|
+
"operation.execClientTask": "Aufgabe wird ausgeführt",
|
|
207
208
|
"operation.sendMessage": "Nachricht wird gesendet",
|
|
208
209
|
"owner": "Gruppeninhaber",
|
|
209
210
|
"pageCopilot.title": "Seitenagent",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "Agentenprofil",
|
|
323
324
|
"tab.search": "Suche",
|
|
324
325
|
"task.activity.calling": "Skill wird aufgerufen...",
|
|
326
|
+
"task.activity.clientExecuting": "Wird lokal ausgeführt...",
|
|
325
327
|
"task.activity.generating": "Antwort wird generiert...",
|
|
326
328
|
"task.activity.gotResult": "Tool-Ergebnis empfangen",
|
|
327
329
|
"task.activity.toolCalling": "{{toolName}} wird aufgerufen...",
|
|
328
330
|
"task.activity.toolResult": "{{toolName}}-Ergebnis empfangen",
|
|
329
331
|
"task.batchTasks": "{{count}} Teilaufgaben",
|
|
332
|
+
"task.instruction": "Aufgabenanweisung",
|
|
333
|
+
"task.intermediateSteps": "{{count}} Zwischenschritte",
|
|
334
|
+
"task.metrics.duration": "(dauerte {{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "Schritte",
|
|
331
336
|
"task.metrics.toolCallsShort": "Tool-Nutzungen",
|
|
332
337
|
"task.status.cancelled": "Aufgabe abgebrochen",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "Wie möchten Sie Daten teilen?",
|
|
59
59
|
"screen4.title2": "Ihre Entscheidung hilft uns bei der Verbesserung",
|
|
60
60
|
"screen4.title3": "Sie können dies jederzeit in den Einstellungen ändern",
|
|
61
|
+
"screen5.actions.cancel": "Abbrechen",
|
|
61
62
|
"screen5.actions.connectToServer": "Mit Server verbinden",
|
|
62
63
|
"screen5.actions.connecting": "Verbindung wird hergestellt...",
|
|
63
64
|
"screen5.actions.signInCloud": "Bei LobeHub Cloud anmelden",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "Anmeldung läuft...",
|
|
66
67
|
"screen5.actions.signingOut": "Abmeldung läuft...",
|
|
67
68
|
"screen5.actions.tryAgain": "Erneut versuchen",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "Browser geöffnet, bitte anmelden...",
|
|
70
|
+
"screen5.auth.phase.verifying": "Anmeldedaten werden überprüft...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "Warte auf Autorisierung...",
|
|
72
|
+
"screen5.auth.remaining": "Verbleibend: {{time}}s",
|
|
68
73
|
"screen5.badge": "Anmeldung",
|
|
69
74
|
"screen5.description": "Melden Sie sich an, um Agenten, Gruppen, Einstellungen und Kontexte auf allen Geräten zu synchronisieren.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "OIDC-Autorisierung ist nur in der Desktop-App verfügbar.",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "Letztes Jahr",
|
|
142
142
|
"footer.desc": "Entwickle dich mit KI-Nutzern weltweit weiter. Werde Creator und reiche deine Agenten und Fähigkeiten in der LobeHub-Community ein.",
|
|
143
143
|
"footer.title": "Teile deine Kreation noch heute in der LobeHub-Community",
|
|
144
|
+
"fork.alreadyForked": "Du hast diesen Agenten bereits geforkt. Weiterleitung zu deinem Fork...",
|
|
145
|
+
"fork.failed": "Fork fehlgeschlagen. Bitte versuche es erneut.",
|
|
146
|
+
"fork.forkAndChat": "Fork & Chat",
|
|
147
|
+
"fork.forkedFrom": "Geforkt von",
|
|
148
|
+
"fork.forks": "Forks",
|
|
149
|
+
"fork.forksCount": "{{count}} Fork",
|
|
150
|
+
"fork.forksCount_other": "{{count}} Forks",
|
|
151
|
+
"fork.success": "Erfolgreich geforkt!",
|
|
152
|
+
"fork.viewAllForks": "Alle Forks anzeigen",
|
|
153
|
+
"groupAgents.tag": "Gruppe",
|
|
144
154
|
"home.communityAgents": "Community-Agenten",
|
|
145
155
|
"home.featuredAssistants": "Empfohlene Agenten",
|
|
146
156
|
"home.featuredModels": "Empfohlene Modelle",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "Folgen",
|
|
472
482
|
"user.followers": "Follower",
|
|
473
483
|
"user.following": "Folgt",
|
|
484
|
+
"user.forkedAgentGroups": "Geforkte Agentengruppen",
|
|
485
|
+
"user.forkedAgents": "Geforkte Agenten",
|
|
474
486
|
"user.login": "Werde Creator",
|
|
475
487
|
"user.logout": "Abmelden",
|
|
476
488
|
"user.myProfile": "Mein Profil",
|
|
477
489
|
"user.noAgents": "Dieser Benutzer hat noch keine Agenten veröffentlicht",
|
|
478
490
|
"user.noFavoriteAgents": "Noch keine gespeicherten Agenten",
|
|
479
491
|
"user.noFavoritePlugins": "Noch keine gespeicherten Fähigkeiten",
|
|
492
|
+
"user.noForkedAgentGroups": "Noch keine geforkten Agentengruppen",
|
|
493
|
+
"user.noForkedAgents": "Noch keine geforkten Agenten",
|
|
480
494
|
"user.publishedAgents": "Erstellte Agenten",
|
|
481
495
|
"user.tabs.favorites": "Favoriten",
|
|
496
|
+
"user.tabs.forkedAgents": "Geforkt",
|
|
482
497
|
"user.tabs.publishedAgents": "Erstellt",
|
|
483
498
|
"user.unfavorite": "Nicht mehr speichern",
|
|
484
499
|
"user.unfavoriteFailed": "Entfernen aus Favoriten fehlgeschlagen",
|
|
@@ -666,6 +666,44 @@
|
|
|
666
666
|
"gpt-oss:120b.description": "GPT-OSS 120B ist OpenAIs großes Open-Source-LLM mit MXFP4-Quantisierung und als Flaggschiffmodell positioniert. Es erfordert Multi-GPU- oder High-End-Workstation-Umgebungen und bietet exzellente Leistung bei komplexem Denken, Codegenerierung und mehrsprachiger Verarbeitung mit fortschrittlichem Funktionsaufruf und Tool-Integration.",
|
|
667
667
|
"gpt-oss:20b.description": "GPT-OSS 20B ist ein Open-Source-LLM von OpenAI mit MXFP4-Quantisierung, geeignet für High-End-Consumer-GPUs oder Apple Silicon Macs. Es überzeugt bei Dialoggenerierung, Programmierung und Denkaufgaben und unterstützt Funktionsaufrufe und Tool-Nutzung.",
|
|
668
668
|
"gpt-realtime.description": "Ein allgemeines Echtzeitmodell mit Unterstützung für Text- und Audio-Ein-/Ausgabe sowie Bildeingabe.",
|
|
669
|
+
"grok-2-image-1212.description": "Unser neuestes Bildgenerierungsmodell erstellt lebendige, realistische Bilder aus Eingabeaufforderungen und eignet sich hervorragend für Marketing, soziale Medien und Unterhaltungsanwendungen.",
|
|
670
|
+
"grok-2-vision-1212.description": "Verbesserte Genauigkeit, Befolgung von Anweisungen und mehrsprachige Fähigkeiten.",
|
|
671
|
+
"grok-3-mini.description": "Ein leichtgewichtiges Modell, das vor der Antwort nachdenkt. Es ist schnell und intelligent bei logischen Aufgaben, die kein tiefes Fachwissen erfordern, mit Zugriff auf rohe Denkspuren.",
|
|
672
|
+
"grok-3.description": "Ein Flaggschiffmodell, das sich für Unternehmensanwendungen wie Datenextraktion, Programmierung und Zusammenfassungen eignet, mit tiefem Fachwissen in Finanzen, Gesundheitswesen, Recht und Wissenschaft.",
|
|
673
|
+
"grok-4-0709.description": "xAIs Grok 4 mit starker Fähigkeit zum logischen Denken.",
|
|
674
|
+
"grok-4-1-fast-non-reasoning.description": "Ein fortschrittliches multimodales Modell, optimiert für leistungsstarke Agenten-Tools.",
|
|
675
|
+
"grok-4-1-fast-reasoning.description": "Ein fortschrittliches multimodales Modell, optimiert für leistungsstarke Agenten-Tools.",
|
|
676
|
+
"grok-4-fast-non-reasoning.description": "Wir freuen uns, Grok 4 Fast vorzustellen – unser neuester Fortschritt bei kosteneffizienten Denkmodellen.",
|
|
677
|
+
"grok-4-fast-reasoning.description": "Wir freuen uns, Grok 4 Fast vorzustellen – unser neuester Fortschritt bei kosteneffizienten Denkmodellen.",
|
|
678
|
+
"grok-4.description": "Unser neuestes und leistungsstärkstes Flaggschiffmodell, das in NLP, Mathematik und logischem Denken herausragt – ein idealer Allrounder.",
|
|
679
|
+
"grok-code-fast-1.description": "Wir freuen uns, grok-code-fast-1 vorzustellen – ein schnelles und kosteneffizientes Denkmodell, das sich besonders für agentenbasiertes Programmieren eignet.",
|
|
680
|
+
"groq/compound-mini.description": "Compound-mini ist ein zusammengesetztes KI-System, das auf öffentlich verfügbaren Modellen basiert und auf GroqCloud unterstützt wird. Es nutzt intelligent und selektiv Tools zur Beantwortung von Nutzeranfragen.",
|
|
681
|
+
"groq/compound.description": "Compound ist ein zusammengesetztes KI-System, das auf mehreren öffentlich verfügbaren Modellen basiert und auf GroqCloud unterstützt wird. Es nutzt intelligent und selektiv Tools zur Beantwortung von Nutzeranfragen.",
|
|
682
|
+
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B ist ein kreatives, intelligentes Sprachmodell, das aus mehreren Spitzenmodellen zusammengeführt wurde.",
|
|
683
|
+
"hunyuan-a13b.description": "Das erste hybride Denkmodell von Hunyuan, aufgerüstet von hunyuan-standard-256K (80B gesamt, 13B aktiv). Standardmäßig im langsamen Denkmodus, unterstützt Umschaltung zwischen schnell/langsam über Parameter oder Präfix /no_think. Insgesamt verbesserte Fähigkeiten gegenüber der vorherigen Generation, insbesondere in Mathematik, Wissenschaft, Langtextverständnis und Agentenaufgaben.",
|
|
684
|
+
"hunyuan-code.description": "Neuestes Codegenerierungsmodell, trainiert mit 200B hochwertigem Code und sechs Monaten SFT; Kontext erweitert auf 8K. Führend in automatisierten Benchmarks für fünf Programmiersprachen und in menschlichen Bewertungen nach zehn Kriterien.",
|
|
685
|
+
"hunyuan-functioncall.description": "Neuestes MoE FunctionCall-Modell, trainiert mit hochwertigen Funktionsaufrufdaten, mit 32K Kontextfenster und führenden Benchmark-Ergebnissen in mehreren Dimensionen.",
|
|
686
|
+
"hunyuan-large-longcontext.description": "Hervorragend bei Langdokumentaufgaben wie Zusammenfassungen und Fragenbeantwortung, bewältigt aber auch allgemeine Generierung. Starke Analyse und Generierung von langen, komplexen Inhalten.",
|
|
687
|
+
"hunyuan-large-vision.description": "Ein visuell-sprachliches Modell, trainiert auf Basis von Hunyuan Large für Bild-Text-Verständnis. Unterstützt Multi-Bild- + Texteingaben in beliebiger Auflösung und verbessert das mehrsprachige visuelle Verständnis.",
|
|
688
|
+
"hunyuan-large.description": "Hunyuan-large verfügt über ~389B Gesamtparameter und ~52B aktive – das größte und leistungsstärkste offene MoE-Modell in einer Transformer-Architektur.",
|
|
689
|
+
"hunyuan-lite-vision.description": "Neuestes 7B multimodales Modell mit 32K Kontextfenster, unterstützt chinesisch/englischen multimodalen Chat, Objekterkennung, Dokumenttabellenverständnis und multimodale Mathematik, übertrifft 7B-Konkurrenzmodelle in mehreren Benchmarks.",
|
|
690
|
+
"hunyuan-lite.description": "Aufgerüstet auf eine MoE-Architektur mit 256K Kontextfenster, führend gegenüber vielen offenen Modellen in NLP, Code, Mathematik und Branchenbenchmarks.",
|
|
691
|
+
"hunyuan-pro.description": "MoE-Modell mit Billionenparametern und 32K Kontext, führend in Benchmarks, stark bei komplexen Anweisungen und logischem Denken, fortgeschrittener Mathematik, Funktionsaufrufen und optimiert für mehrsprachige Übersetzung, Finanzen, Recht und Medizin.",
|
|
692
|
+
"hunyuan-role.description": "Neuestes Rollenspielmodell, offiziell auf Rollenspieldatensätzen feinabgestimmt, mit verbesserter Basisleistung für Rollenspielszenarien.",
|
|
693
|
+
"hunyuan-standard-256K.description": "Verwendet verbessertes Routing zur Minderung von Lastverteilung und Expertenkollaps. Erreicht 99,9 % Trefferquote bei Nadel-im-Heuhaufen-Aufgaben im langen Kontext. MOE-256K erweitert Kontextlänge und -qualität weiter.",
|
|
694
|
+
"hunyuan-standard-vision.description": "Neuestes multimodales Modell mit mehrsprachigen Antworten und ausgewogener chinesisch/englischer Fähigkeit.",
|
|
695
|
+
"hunyuan-standard.description": "Verwendet verbessertes Routing zur Minderung von Lastverteilung und Expertenkollaps. Erreicht 99,9 % Trefferquote bei Nadel-im-Heuhaufen-Aufgaben im langen Kontext. MOE-32K bietet starken Mehrwert bei der Verarbeitung langer Eingaben.",
|
|
696
|
+
"hunyuan-t1-20250321.description": "Vereint künstlerische und MINT-Fähigkeiten mit starkem Langtextverständnis. Unterstützt logische Antworten für Mathematik-, Logik-, Wissenschafts- und Programmierprobleme auf verschiedenen Schwierigkeitsstufen.",
|
|
697
|
+
"hunyuan-t1-20250403.description": "Verbessert die Codegenerierung auf Projektebene und die Schreibqualität, stärkt das Verständnis mehrerer Gesprächsrunden und die Befolgung von ToB-Anweisungen, verbessert das Wortverständnis und reduziert Probleme mit gemischter vereinfachter/traditioneller und chinesisch/englischer Ausgabe.",
|
|
698
|
+
"hunyuan-t1-20250529.description": "Verbessert kreatives Schreiben und Komposition, stärkt Frontend-Programmierung, Mathematik und logisches Denken sowie die Befolgung von Anweisungen.",
|
|
699
|
+
"hunyuan-t1-20250711.description": "Verbessert stark schwierige Mathematik-, Logik- und Programmierfähigkeiten, erhöht die Ausgabestabilität und stärkt die Langtextverarbeitung.",
|
|
700
|
+
"hunyuan-t1-latest.description": "Verbessert das langsame Denkmodell deutlich bei schwieriger Mathematik, komplexem logischen Denken, anspruchsvoller Programmierung, Befolgung von Anweisungen und kreativer Schreibqualität.",
|
|
701
|
+
"hunyuan-t1-vision-20250619.description": "Neuestes t1-vision multimodales Modell mit tiefem logischen Denken und nativer Kettenlogik, deutlich verbessert gegenüber der vorherigen Standardversion.",
|
|
702
|
+
"hunyuan-t1-vision-20250916.description": "Neuestes t1-vision Modell mit großen Fortschritten in VQA, visueller Verankerung, OCR, Diagrammen, Lösung fotografierter Aufgaben und bildbasierter Kreation sowie stärkerem Englisch und Unterstützung für ressourcenschwache Sprachen.",
|
|
703
|
+
"hunyuan-turbo-20241223.description": "Diese Version verbessert die Skalierung von Anweisungen für bessere Generalisierung, stärkt Mathematik-/Code-/Logikdenken, verbessert das Wortverständnis und die Schreibqualität.",
|
|
704
|
+
"hunyuan-turbo-latest.description": "Allgemeine Verbesserungen in NLP-Verständnis, Schreiben, Chat, QA, Übersetzung und Fachgebieten; menschlichere Antworten, bessere Klärung bei unklarer Absicht, verbessertes Wortverständnis, höhere kreative Qualität und Interaktivität sowie stärkere Mehrfachdialoge.",
|
|
705
|
+
"hunyuan-turbo-vision.description": "Flaggschiff der nächsten Generation im Bereich Vision-Language mit neuer MoE-Architektur, umfassenden Verbesserungen in Erkennung, Inhaltserstellung, Wissens-QA und analytischem Denken.",
|
|
706
|
+
"hunyuan-turbo.description": "Vorschau auf Hunyuan’s LLM der nächsten Generation mit neuer MoE-Architektur, liefert schnelleres Denken und bessere Ergebnisse als hunyuan-pro.",
|
|
669
707
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
|
|
670
708
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
|
|
671
709
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "How would you like to share data?",
|
|
59
59
|
"screen4.title2": "Your choice helps us improve",
|
|
60
60
|
"screen4.title3": "You can change this anytime in settings",
|
|
61
|
+
"screen5.actions.cancel": "Cancel",
|
|
61
62
|
"screen5.actions.connectToServer": "Connect to Server",
|
|
62
63
|
"screen5.actions.connecting": "Connecting...",
|
|
63
64
|
"screen5.actions.signInCloud": "Sign in to LobeHub Cloud",
|
|
@@ -65,9 +66,14 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "Signing in...",
|
|
66
67
|
"screen5.actions.signingOut": "Signing out...",
|
|
67
68
|
"screen5.actions.tryAgain": "Try Again",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "Browser opened, please sign in...",
|
|
70
|
+
"screen5.auth.phase.verifying": "Verifying credentials...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "Waiting for authorization...",
|
|
72
|
+
"screen5.auth.remaining": "Remaining: {{time}}s",
|
|
68
73
|
"screen5.badge": "Sign in",
|
|
69
74
|
"screen5.description": "Sign in to sync Agents, Groups, settings, and Context across all devices.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "OIDC authorization is only available in the desktop app runtime.",
|
|
76
|
+
"screen5.legacyLocalDb.link": "Migrate legacy local database",
|
|
71
77
|
"screen5.methods.cloud.description": "Sign in with your LobeHub Cloud account to sync everything seamlessly",
|
|
72
78
|
"screen5.methods.cloud.name": "LobeHub Cloud",
|
|
73
79
|
"screen5.methods.selfhost.description": "Connect to your own LobeHub server instance",
|
|
@@ -141,6 +141,15 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "Last Year",
|
|
142
142
|
"footer.desc": "Evolve with AI users worldwide. Become a creator to submit your agents and skills to the LobeHub Community.",
|
|
143
143
|
"footer.title": "Share your creation on LobeHub Community today",
|
|
144
|
+
"fork.alreadyForked": "You have already forked this agent. Navigating to your fork...",
|
|
145
|
+
"fork.failed": "Fork failed. Please try again.",
|
|
146
|
+
"fork.forkAndChat": "Fork & Chat",
|
|
147
|
+
"fork.forkedFrom": "Forked from",
|
|
148
|
+
"fork.forks": "forks",
|
|
149
|
+
"fork.forksCount": "{{count}} fork",
|
|
150
|
+
"fork.forksCount_other": "{{count}} forks",
|
|
151
|
+
"fork.success": "Forked successfully!",
|
|
152
|
+
"fork.viewAllForks": "View all forks",
|
|
144
153
|
"groupAgents.tag": "Group",
|
|
145
154
|
"home.communityAgents": "Community Agents",
|
|
146
155
|
"home.featuredAssistants": "Featured Agents",
|
|
@@ -472,14 +481,19 @@
|
|
|
472
481
|
"user.follow": "Follow",
|
|
473
482
|
"user.followers": "Followers",
|
|
474
483
|
"user.following": "Following",
|
|
484
|
+
"user.forkedAgentGroups": "Forked Agent Groups",
|
|
485
|
+
"user.forkedAgents": "Forked Agents",
|
|
475
486
|
"user.login": "Become a Creator",
|
|
476
487
|
"user.logout": "Logout",
|
|
477
488
|
"user.myProfile": "My Profile",
|
|
478
489
|
"user.noAgents": "This user hasn’t published any Agents yet",
|
|
479
490
|
"user.noFavoriteAgents": "No saved Agents yet",
|
|
480
491
|
"user.noFavoritePlugins": "No saved Skills yet",
|
|
492
|
+
"user.noForkedAgentGroups": "No forked Agent Groups yet",
|
|
493
|
+
"user.noForkedAgents": "No forked Agents yet",
|
|
481
494
|
"user.publishedAgents": "Created Agents",
|
|
482
495
|
"user.tabs.favorites": "Favorites",
|
|
496
|
+
"user.tabs.forkedAgents": "Forked",
|
|
483
497
|
"user.tabs.publishedAgents": "Created",
|
|
484
498
|
"user.unfavorite": "Unsave",
|
|
485
499
|
"user.unfavoriteFailed": "Failed to unsave",
|
package/locales/es-ES/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "Aún no se han seleccionado miembros",
|
|
205
205
|
"openInNewWindow": "Abrir en una nueva ventana",
|
|
206
206
|
"operation.execAgentRuntime": "Preparando respuesta",
|
|
207
|
+
"operation.execClientTask": "Ejecutando tarea",
|
|
207
208
|
"operation.sendMessage": "Enviando mensaje",
|
|
208
209
|
"owner": "Propietario del grupo",
|
|
209
210
|
"pageCopilot.title": "Agente de página",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "Perfil del agente",
|
|
323
324
|
"tab.search": "Buscar",
|
|
324
325
|
"task.activity.calling": "Llamando habilidad...",
|
|
326
|
+
"task.activity.clientExecuting": "Ejecutando localmente...",
|
|
325
327
|
"task.activity.generating": "Generando respuesta...",
|
|
326
328
|
"task.activity.gotResult": "Resultado de herramienta recibido",
|
|
327
329
|
"task.activity.toolCalling": "Llamando a {{toolName}}...",
|
|
328
330
|
"task.activity.toolResult": "Resultado de {{toolName}} recibido",
|
|
329
331
|
"task.batchTasks": "{{count}} subtareas en lote",
|
|
332
|
+
"task.instruction": "Instrucciones de la tarea",
|
|
333
|
+
"task.intermediateSteps": "{{count}} pasos intermedios",
|
|
334
|
+
"task.metrics.duration": "(duró {{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "pasos",
|
|
331
336
|
"task.metrics.toolCallsShort": "usos de herramientas",
|
|
332
337
|
"task.status.cancelled": "Tarea cancelada",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "¿Cómo te gustaría compartir tus datos?",
|
|
59
59
|
"screen4.title2": "Tu elección nos ayuda a mejorar",
|
|
60
60
|
"screen4.title3": "Puedes cambiar esto en cualquier momento desde la configuración",
|
|
61
|
+
"screen5.actions.cancel": "Cancelar",
|
|
61
62
|
"screen5.actions.connectToServer": "Conectar al servidor",
|
|
62
63
|
"screen5.actions.connecting": "Conectando...",
|
|
63
64
|
"screen5.actions.signInCloud": "Iniciar sesión en LobeHub Cloud",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "Iniciando sesión...",
|
|
66
67
|
"screen5.actions.signingOut": "Cerrando sesión...",
|
|
67
68
|
"screen5.actions.tryAgain": "Intentar de nuevo",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "Navegador abierto, por favor inicia sesión...",
|
|
70
|
+
"screen5.auth.phase.verifying": "Verificando credenciales...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "Esperando autorización...",
|
|
72
|
+
"screen5.auth.remaining": "Restante: {{time}}s",
|
|
68
73
|
"screen5.badge": "Iniciar sesión",
|
|
69
74
|
"screen5.description": "Inicia sesión para sincronizar Agentes, Grupos, configuración y Contexto en todos tus dispositivos.",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "La autorización OIDC solo está disponible en la aplicación de escritorio.",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "Último Año",
|
|
142
142
|
"footer.desc": "Evoluciona con usuarios de IA de todo el mundo. Conviértete en creador y publica tus agentes y habilidades en la Comunidad LobeHub.",
|
|
143
143
|
"footer.title": "Comparte tu creación hoy en la Comunidad LobeHub",
|
|
144
|
+
"fork.alreadyForked": "Ya has bifurcado este agente. Redirigiendo a tu bifurcación...",
|
|
145
|
+
"fork.failed": "La bifurcación ha fallado. Por favor, inténtalo de nuevo.",
|
|
146
|
+
"fork.forkAndChat": "Bifurcar y chatear",
|
|
147
|
+
"fork.forkedFrom": "Bifurcado de",
|
|
148
|
+
"fork.forks": "bifurcaciones",
|
|
149
|
+
"fork.forksCount": "{{count}} bifurcación",
|
|
150
|
+
"fork.forksCount_other": "{{count}} bifurcaciones",
|
|
151
|
+
"fork.success": "¡Bifurcación realizada con éxito!",
|
|
152
|
+
"fork.viewAllForks": "Ver todas las bifurcaciones",
|
|
153
|
+
"groupAgents.tag": "Grupo",
|
|
144
154
|
"home.communityAgents": "Agentes de la Comunidad",
|
|
145
155
|
"home.featuredAssistants": "Agentes Destacados",
|
|
146
156
|
"home.featuredModels": "Modelos Destacados",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "Seguir",
|
|
472
482
|
"user.followers": "Seguidores",
|
|
473
483
|
"user.following": "Siguiendo",
|
|
484
|
+
"user.forkedAgentGroups": "Grupos de agentes bifurcados",
|
|
485
|
+
"user.forkedAgents": "Agentes bifurcados",
|
|
474
486
|
"user.login": "Conviértete en Creador",
|
|
475
487
|
"user.logout": "Cerrar Sesión",
|
|
476
488
|
"user.myProfile": "Mi Perfil",
|
|
477
489
|
"user.noAgents": "Este usuario aún no ha publicado ningún Agente",
|
|
478
490
|
"user.noFavoriteAgents": "Aún no hay Agentes guardados",
|
|
479
491
|
"user.noFavoritePlugins": "Aún no hay Habilidades guardadas",
|
|
492
|
+
"user.noForkedAgentGroups": "Aún no hay grupos de agentes bifurcados",
|
|
493
|
+
"user.noForkedAgents": "Aún no hay agentes bifurcados",
|
|
480
494
|
"user.publishedAgents": "Agentes Creados",
|
|
481
495
|
"user.tabs.favorites": "Favoritos",
|
|
496
|
+
"user.tabs.forkedAgents": "Bifurcados",
|
|
482
497
|
"user.tabs.publishedAgents": "Creados",
|
|
483
498
|
"user.unfavorite": "Eliminar de Favoritos",
|
|
484
499
|
"user.unfavoriteFailed": "No se pudo eliminar de favoritos",
|
|
@@ -677,6 +677,44 @@
|
|
|
677
677
|
"grok-4-fast-reasoning.description": "Nos complace lanzar Grok 4 Fast, nuestro último avance en modelos de razonamiento rentables.",
|
|
678
678
|
"grok-4.description": "Nuestro modelo insignia más nuevo y potente, que destaca en PLN, matemáticas y razonamiento: un todoterreno ideal.",
|
|
679
679
|
"grok-code-fast-1.description": "Nos complace lanzar grok-code-fast-1, un modelo de razonamiento rápido y rentable que destaca en codificación agente.",
|
|
680
|
+
"groq/compound-mini.description": "Compound-mini es un sistema de IA compuesto impulsado por modelos públicos disponibles en GroqCloud, que utiliza herramientas de forma inteligente y selectiva para responder a las consultas de los usuarios.",
|
|
681
|
+
"groq/compound.description": "Compound es un sistema de IA compuesto impulsado por múltiples modelos públicos disponibles en GroqCloud, que utiliza herramientas de forma inteligente y selectiva para responder a las consultas de los usuarios.",
|
|
682
|
+
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B es un modelo de lenguaje creativo e inteligente, resultado de la fusión de varios modelos de alto nivel.",
|
|
683
|
+
"hunyuan-a13b.description": "El primer modelo de razonamiento híbrido de Hunyuan, mejorado a partir del hunyuan-standard-256K (80B en total, 13B activos). Por defecto utiliza pensamiento lento y permite cambiar entre pensamiento rápido/lento mediante parámetros o el prefijo /no_think. Su capacidad general ha mejorado respecto a la generación anterior, especialmente en matemáticas, ciencia, comprensión de textos largos y tareas de agentes.",
|
|
684
|
+
"hunyuan-code.description": "Último modelo de generación de código entrenado con 200B de código de alta calidad y seis meses de SFT; contexto ampliado a 8K. Ocupa los primeros puestos en benchmarks automatizados para cinco lenguajes y en evaluaciones humanas según diez criterios.",
|
|
685
|
+
"hunyuan-functioncall.description": "Último modelo MoE FunctionCall entrenado con datos de llamadas a funciones de alta calidad, con una ventana de contexto de 32K y resultados líderes en benchmarks en múltiples dimensiones.",
|
|
686
|
+
"hunyuan-large-longcontext.description": "Destaca en tareas con documentos largos como resúmenes y preguntas/respuestas, además de generación general. Fuerte en análisis y generación de textos extensos y complejos.",
|
|
687
|
+
"hunyuan-large-vision.description": "Modelo visión-lenguaje entrenado a partir de Hunyuan Large para comprensión imagen-texto. Admite entrada de múltiples imágenes + texto en cualquier resolución y mejora la comprensión visual multilingüe.",
|
|
688
|
+
"hunyuan-large.description": "Hunyuan-large cuenta con ~389B de parámetros totales y ~52B activados, siendo el modelo MoE abierto más grande y potente con arquitectura Transformer.",
|
|
689
|
+
"hunyuan-lite-vision.description": "Modelo multimodal de 7B más reciente con ventana de contexto de 32K, compatible con chat multimodal en chino/inglés, reconocimiento de objetos, comprensión de tablas en documentos y matemáticas multimodales, superando a sus pares de 7B en múltiples benchmarks.",
|
|
690
|
+
"hunyuan-lite.description": "Actualizado a una arquitectura MoE con ventana de contexto de 256K, liderando muchos modelos abiertos en benchmarks de NLP, código, matemáticas e industria.",
|
|
691
|
+
"hunyuan-pro.description": "Modelo MoE de un billón de parámetros con contexto largo de 32K, líder en benchmarks, fuerte en instrucciones complejas y razonamiento, matemáticas avanzadas, llamadas a funciones y optimizado para traducción multilingüe, finanzas, derecho y medicina.",
|
|
692
|
+
"hunyuan-role.description": "Último modelo de rol, ajustado oficialmente con conjuntos de datos de rol, ofreciendo un rendimiento base más sólido para escenarios de interpretación de personajes.",
|
|
693
|
+
"hunyuan-standard-256K.description": "Utiliza enrutamiento mejorado para mitigar el desequilibrio de carga y el colapso de expertos. Logra un 99.9% en la prueba de aguja en un pajar en contexto largo. MOE-256K amplía aún más la longitud y calidad del contexto.",
|
|
694
|
+
"hunyuan-standard-vision.description": "Último modelo multimodal con respuestas multilingües y capacidad equilibrada en chino/inglés.",
|
|
695
|
+
"hunyuan-standard.description": "Utiliza enrutamiento mejorado para mitigar el desequilibrio de carga y el colapso de expertos. Logra un 99.9% en la prueba de aguja en un pajar en contexto largo. MOE-32K ofrece gran valor al manejar entradas extensas.",
|
|
696
|
+
"hunyuan-t1-20250321.description": "Desarrolla capacidades equilibradas en artes y STEM con fuerte captura de información en textos largos. Soporta razonamiento en matemáticas, lógica, ciencia y problemas de código en distintos niveles de dificultad.",
|
|
697
|
+
"hunyuan-t1-20250403.description": "Mejora la generación de código a nivel de proyecto y la calidad de redacción, refuerza la comprensión de temas en múltiples turnos y el seguimiento de instrucciones ToB, mejora la comprensión a nivel de palabra y reduce problemas de mezcla entre chino simplificado/tradicional e inglés.",
|
|
698
|
+
"hunyuan-t1-20250529.description": "Mejora la escritura creativa y la composición, refuerza la codificación frontend, el razonamiento matemático y lógico, y mejora el seguimiento de instrucciones.",
|
|
699
|
+
"hunyuan-t1-20250711.description": "Mejora significativamente en matemáticas complejas, lógica y codificación, aumenta la estabilidad de salida y mejora la capacidad en textos largos.",
|
|
700
|
+
"hunyuan-t1-latest.description": "Mejora significativamente el modelo de pensamiento lento en matemáticas complejas, razonamiento avanzado, codificación difícil, seguimiento de instrucciones y calidad de escritura creativa.",
|
|
701
|
+
"hunyuan-t1-vision-20250619.description": "Último modelo multimodal de razonamiento profundo t1-vision con cadena de pensamiento nativa larga, significativamente mejorado respecto a la versión predeterminada anterior.",
|
|
702
|
+
"hunyuan-t1-vision-20250916.description": "Último modelo de razonamiento profundo t1-vision con grandes mejoras en VQA, anclaje visual, OCR, gráficos, resolución de problemas fotografiados y creación basada en imágenes, además de mayor rendimiento en inglés y lenguas de bajos recursos.",
|
|
703
|
+
"hunyuan-turbo-20241223.description": "Esta versión mejora la escalabilidad de instrucciones para una mejor generalización, mejora significativamente el razonamiento en matemáticas/código/lógica, refuerza la comprensión a nivel de palabra y mejora la calidad de redacción.",
|
|
704
|
+
"hunyuan-turbo-latest.description": "Mejoras generales en la experiencia en comprensión de NLP, redacción, chat, QA, traducción y dominios; respuestas más humanas, mejor aclaración de intenciones ambiguas, mejor análisis de palabras, mayor calidad creativa e interactividad, y conversaciones de múltiples turnos más sólidas.",
|
|
705
|
+
"hunyuan-turbo-vision.description": "Modelo insignia visión-lenguaje de próxima generación con nueva arquitectura MoE, con amplias mejoras en reconocimiento, creación de contenido, QA de conocimiento y razonamiento analítico.",
|
|
706
|
+
"hunyuan-turbo.description": "Vista previa del LLM de próxima generación de Hunyuan con nueva arquitectura MoE, que ofrece razonamiento más rápido y mejores resultados que hunyuan-pro.",
|
|
707
|
+
"hunyuan-turbos-20250313.description": "Unifica el estilo de solución matemática y refuerza el QA matemático en múltiples turnos. El estilo de redacción se refina para reducir el tono artificial y añadir elegancia.",
|
|
708
|
+
"hunyuan-turbos-20250416.description": "Base de preentrenamiento mejorada para mejorar la comprensión y seguimiento de instrucciones; la alineación mejora matemáticas, código, lógica y ciencia; mejora la calidad de redacción, comprensión, precisión de traducción y QA de conocimiento; refuerza habilidades de agente, especialmente en comprensión de múltiples turnos.",
|
|
709
|
+
"hunyuan-turbos-20250604.description": "Base de preentrenamiento mejorada con mejor redacción y comprensión lectora, avances significativos en código y STEM, y mejor seguimiento de instrucciones complejas.",
|
|
710
|
+
"hunyuan-turbos-20250926.description": "Mejora en la calidad de datos de preentrenamiento y estrategia de postentrenamiento, mejorando agentes, idiomas de bajos recursos/inglés, seguimiento de instrucciones, código y capacidades STEM.",
|
|
711
|
+
"hunyuan-turbos-latest.description": "El último modelo insignia Hunyuan TurboS con razonamiento más sólido y mejor experiencia general.",
|
|
712
|
+
"hunyuan-turbos-longtext-128k-20250325.description": "Destaca en tareas con documentos largos como resúmenes y QA, además de generación general. Fuerte en análisis y generación de textos extensos y complejos.",
|
|
713
|
+
"hunyuan-turbos-role-plus.description": "Último modelo de rol, ajustado oficialmente con conjuntos de datos de rol, ofreciendo un rendimiento base más sólido para escenarios de interpretación de personajes.",
|
|
714
|
+
"hunyuan-turbos-vision-20250619.description": "Último modelo insignia visión-lenguaje TurboS con grandes avances en tareas imagen-texto como reconocimiento de entidades, QA de conocimiento, redacción publicitaria y resolución de problemas basados en fotos.",
|
|
715
|
+
"hunyuan-turbos-vision.description": "Modelo insignia visión-lenguaje de próxima generación basado en el último TurboS, centrado en tareas de comprensión imagen-texto como reconocimiento de entidades, QA de conocimiento, redacción publicitaria y resolución de problemas basados en fotos.",
|
|
716
|
+
"hunyuan-vision-1.5-instruct.description": "Modelo de pensamiento rápido para generación de texto a partir de imágenes basado en TurboS, con mejoras notables respecto a la versión anterior en reconocimiento básico de imágenes y razonamiento visual.",
|
|
717
|
+
"hunyuan-vision.description": "Último modelo multimodal que admite entrada de imagen + texto para generar texto.",
|
|
680
718
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
|
|
681
719
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
|
|
682
720
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
|