@lobehub/lobehub 2.1.2 → 2.1.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.env.example +4 -6
- package/.env.example.development +0 -3
- package/.github/workflows/release-desktop-stable.yml +1 -1
- package/CHANGELOG.md +59 -0
- package/Dockerfile +6 -4
- package/README.md +2 -3
- package/README.zh-CN.md +2 -3
- package/changelog/v2.json +14 -0
- package/docker-compose/deploy/.env.example +3 -1
- package/docker-compose/deploy/.env.zh-CN.example +4 -1
- package/docker-compose/local/.env.example +0 -1
- package/docker-compose/local/.env.zh-CN.example +0 -1
- package/docker-compose/local/grafana/.env.example +0 -1
- package/docker-compose/local/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/local/logto/docker-compose.yml +0 -1
- package/docker-compose/local/zitadel/.env.example +1 -2
- package/docker-compose/local/zitadel/.env.zh-CN.example +1 -2
- package/docker-compose/production/grafana/.env.example +0 -1
- package/docker-compose/production/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/production/logto/.env.example +0 -2
- package/docker-compose/production/logto/.env.zh-CN.example +0 -2
- package/docker-compose/production/zitadel/.env.example +0 -2
- package/docker-compose/production/zitadel/.env.zh-CN.example +0 -2
- package/docker-compose/setup.sh +16 -2
- package/docs/development/basic/folder-structure.mdx +23 -14
- package/docs/development/basic/folder-structure.zh-CN.mdx +23 -14
- package/docs/development/basic/work-with-server-side-database.mdx +0 -1
- package/docs/development/basic/work-with-server-side-database.zh-CN.mdx +0 -1
- package/docs/development/start.mdx +19 -12
- package/docs/development/start.zh-CN.mdx +19 -12
- package/docs/self-hosting/advanced/s3/cloudflare-r2.mdx +0 -5
- package/docs/self-hosting/advanced/s3/cloudflare-r2.zh-CN.mdx +0 -5
- package/docs/self-hosting/advanced/s3/rustfs.mdx +0 -2
- package/docs/self-hosting/advanced/s3/rustfs.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3/tencent-cloud.mdx +0 -1
- package/docs/self-hosting/advanced/s3/tencent-cloud.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3.mdx +0 -9
- package/docs/self-hosting/advanced/s3.zh-CN.mdx +0 -8
- package/docs/self-hosting/auth/providers/password.mdx +112 -0
- package/docs/self-hosting/auth/providers/password.zh-CN.mdx +103 -0
- package/docs/self-hosting/auth.mdx +12 -0
- package/docs/self-hosting/auth.zh-CN.mdx +12 -0
- package/docs/self-hosting/environment-variables/auth.mdx +7 -0
- package/docs/self-hosting/environment-variables/auth.zh-CN.mdx +7 -0
- package/docs/self-hosting/environment-variables/basic.mdx +0 -7
- package/docs/self-hosting/environment-variables/basic.zh-CN.mdx +0 -7
- package/docs/self-hosting/environment-variables/s3.mdx +0 -7
- package/docs/self-hosting/environment-variables/s3.zh-CN.mdx +0 -7
- package/docs/self-hosting/examples/azure-openai.mdx +0 -1
- package/docs/self-hosting/examples/azure-openai.zh-CN.mdx +0 -1
- package/docs/self-hosting/platform/docker-compose.mdx +0 -1
- package/docs/self-hosting/platform/docker-compose.zh-CN.mdx +0 -1
- package/docs/self-hosting/platform/docker.mdx +5 -3
- package/docs/self-hosting/platform/docker.zh-CN.mdx +5 -4
- package/docs/self-hosting/platform/dokploy.mdx +0 -2
- package/docs/self-hosting/platform/dokploy.zh-CN.mdx +0 -2
- package/docs/self-hosting/platform/vercel.mdx +0 -7
- package/docs/self-hosting/platform/vercel.zh-CN.mdx +0 -7
- package/e2e/src/steps/home/sidebarAgent.steps.ts +56 -24
- package/locales/ar/authError.json +1 -0
- package/locales/ar/models.json +25 -22
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +16 -0
- package/locales/bg-BG/authError.json +1 -0
- package/locales/bg-BG/models.json +18 -21
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +16 -0
- package/locales/de-DE/authError.json +1 -0
- package/locales/de-DE/models.json +20 -20
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +16 -0
- package/locales/en-US/auth.json +1 -0
- package/locales/en-US/models.json +22 -22
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/authError.json +1 -0
- package/locales/es-ES/models.json +84 -20
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +16 -0
- package/locales/fa-IR/authError.json +1 -0
- package/locales/fa-IR/models.json +43 -20
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +16 -0
- package/locales/fr-FR/authError.json +1 -0
- package/locales/fr-FR/models.json +19 -21
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +16 -0
- package/locales/it-IT/authError.json +1 -0
- package/locales/it-IT/models.json +17 -19
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +16 -0
- package/locales/ja-JP/authError.json +1 -0
- package/locales/ja-JP/models.json +43 -22
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +16 -0
- package/locales/ko-KR/authError.json +1 -0
- package/locales/ko-KR/models.json +41 -20
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +16 -0
- package/locales/nl-NL/authError.json +1 -0
- package/locales/nl-NL/models.json +48 -20
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +16 -0
- package/locales/pl-PL/authError.json +1 -0
- package/locales/pl-PL/models.json +19 -22
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +16 -0
- package/locales/pt-BR/authError.json +1 -0
- package/locales/pt-BR/models.json +21 -21
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +16 -0
- package/locales/ru-RU/authError.json +1 -0
- package/locales/ru-RU/models.json +23 -20
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +16 -0
- package/locales/tr-TR/authError.json +1 -0
- package/locales/tr-TR/models.json +37 -20
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +16 -0
- package/locales/vi-VN/authError.json +1 -0
- package/locales/vi-VN/models.json +15 -19
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +16 -0
- package/locales/zh-CN/auth.json +1 -0
- package/locales/zh-CN/models.json +20 -20
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/authError.json +1 -0
- package/locales/zh-TW/models.json +20 -20
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +16 -0
- package/netlify.toml +0 -1
- package/package.json +1 -1
- package/packages/model-bank/src/aiModels/google.ts +0 -19
- package/packages/model-bank/src/aiModels/moonshot.ts +56 -5
- package/packages/model-bank/src/aiModels/ollamacloud.ts +14 -0
- package/packages/model-bank/src/aiModels/openrouter.ts +0 -14
- package/packages/model-bank/src/aiModels/qwen.ts +105 -4
- package/packages/model-bank/src/aiModels/siliconcloud.ts +39 -0
- package/packages/model-bank/src/aiModels/wenxin.ts +0 -99
- package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +24 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.ts +22 -5
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +10 -3
- package/packages/model-runtime/src/core/streams/google/google-ai.test.ts +54 -13
- package/packages/model-runtime/src/core/streams/google/index.ts +1 -4
- package/packages/model-runtime/src/providers/moonshot/index.ts +24 -2
- package/packages/model-runtime/src/providers/qwen/index.ts +16 -15
- package/packages/types/src/serverConfig.ts +1 -0
- package/src/app/[variants]/(auth)/signin/SignInEmailStep.tsx +56 -49
- package/src/app/[variants]/(auth)/signin/page.tsx +2 -0
- package/src/app/[variants]/(auth)/signin/useSignIn.ts +2 -0
- package/src/app/[variants]/(auth)/signup/[[...signup]]/page.tsx +7 -0
- package/src/envs/app.ts +0 -2
- package/src/envs/auth.ts +3 -0
- package/src/libs/better-auth/define-config.ts +1 -1
- package/src/libs/next/proxy/define-config.ts +0 -1
- package/src/locales/default/auth.ts +2 -0
- package/src/server/globalConfig/index.ts +1 -0
- package/src/server/routers/lambda/__tests__/integration/aiAgent/execAgent.integration.test.ts +3 -2
- package/src/store/chat/slices/topic/action.ts +1 -1
- package/src/store/electron/actions/settings.ts +7 -7
- package/src/store/electron/actions/sync.ts +11 -11
- package/src/store/global/actions/general.ts +12 -12
- package/src/store/global/initialState.ts +11 -11
- package/src/store/global/selectors/clientDB.ts +1 -1
- package/src/store/global/selectors/systemStatus.ts +1 -1
- package/src/store/image/slices/generationConfig/action.ts +12 -12
- package/src/store/image/utils/size.ts +11 -11
- package/src/store/library/slices/ragEval/actions/dataset.ts +1 -1
- package/src/store/serverConfig/selectors.ts +1 -0
- package/src/store/session/slices/session/initialState.ts +6 -6
- package/src/store/session/slices/session/reducers.ts +1 -1
- package/src/store/session/slices/sessionGroup/initialState.ts +2 -2
- package/src/store/tool/slices/customPlugin/action.ts +2 -2
- package/src/store/tool/slices/oldStore/action.ts +5 -5
- package/src/store/userMemory/slices/preference/action.ts +6 -6
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "Модел с 7B параметри с по-високо качество от Phi-3-mini, фокусиран върху данни с високо качество и интензивно разсъждение.",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Актуализирана версия на модела Phi-3-mini.",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Актуализирана версия на модела Phi-3-vision.",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 е отворен модел с голям езиков капацитет, оптимизиран за агентни способности, с изключителни резултати в програмиране, използване на инструменти, следване на инструкции и дългосрочно планиране. Моделът поддържа многоезична разработка на софтуер и изпълнение на сложни многoетапни работни потоци, постигайки резултат от 74.0 в SWE-bench Verified и надминава Claude Sonnet 4.5 в многоезични сценарии.",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct е 7B модел с инструкции от серията Qwen2. Използва трансформерна архитектура със SwiGLU, QKV bias и групирано внимание, и обработва големи входове. Постига отлични резултати в езиково разбиране, генериране, многоезични задачи, програмиране, математика и разсъждение, надминавайки повечето отворени модели и конкурирайки се със затворени.",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct е част от най-новата серия LLM на Alibaba Cloud. Моделът с 7B параметри носи значителни подобрения в програмирането и математиката, поддържа над 29 езика и подобрява следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON).",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct е най-новият LLM на Alibaba Cloud, фокусиран върху програмиране. Изграден върху Qwen2.5 и обучен с 5.5T токена, значително подобрява генерирането на код, разсъждението и поправката, като същевременно запазва силни математически и общи способности, осигурявайки стабилна основа за кодови агенти.",
|
|
@@ -271,21 +272,21 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
|
|
272
273
|
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
273
274
|
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва подобрения във всички умения и надминава предишния водещ модел Claude 3 Opus в множество тестове за интелигентност.",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да предоставя почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни, визуални задачи и агентни приложения.",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен модел от серията Haiku на Anthropic, с мълниеносна скорост и разширено разсъждение.",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
|
|
283
|
-
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за
|
|
284
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за изключително сложни задачи, с превъзходна производителност, интелигентност, плавност и разбиране.",
|
|
285
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително сложни задачи, с отлична производителност, интелигентност, плавност и разбиране.",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
288
|
-
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да предоставя почти мигновени отговори или разширено поетапно мислене с видим процес.",
|
|
289
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
|
|
291
292
|
"codegemma.description": "CodeGemma е лек модел за разнообразни програмни задачи, позволяващ бърза итерация и интеграция.",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp е експериментална версия V3.2, която служи като мост към следващата архитектура. Добавя DeepSeek Sparse Attention (DSA) върху V3.1-Terminus за подобряване на ефективността при обучение и извеждане с дълъг контекст, с оптимизации за използване на инструменти, разбиране на дълги документи и многoетапно разсъждение. Идеален е за изследване на по-висока ефективност при разсъждение с големи контекстуални бюджети.",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 е MoE модел с 671 милиарда параметъра, използващ MLA и DeepSeekMoE с балансирано натоварване без загуби за ефективно обучение и извеждане. Предварително обучен върху 14.8 трилиона висококачествени токени със SFT и RL, той превъзхожда други отворени модели и се доближава до водещите затворени модели.",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) е иновативен модел, предлагащ дълбоко езиково разбиране и интеракция.",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "Модел от ново поколение с висока ефективност, силен в разсъждение, математика и програмиране.",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Нов отворен модел, който комбинира общи и програмни способности. Съчетава общуването на чат модел с мощното програмиране на кодов модел, с по-добро съответствие на предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
|
|
379
379
|
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "Режимът на мислене DeepSeek V3.2 генерира верига от разсъждения преди крайния отговор за повишена точност.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K е ултралек модел за прости QA, класификация и нискоразходно извеждане.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, създаден от ByteDance Seed, поддържа вход от текст и изображения за висококачествено и контролируемо генериране на изображения по подадени подсказки.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с високо качество и контролируемост. Генерира изображения по текстови подсказки.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen,
|
|
485
|
-
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, който поддържа семантични и визуални редакции, прецизно редактира китайски и английски текст и позволява висококачествени трансформации като смяна на стил и завъртане на обекти.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с впечатляващо визуализиране на китайски текст и разнообразни визуални стилове.",
|
|
486
485
|
"flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 1–4 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
|
|
488
487
|
"flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max е най-пълнофункционалната версия, поддържаща уеб търсене и множество вградени плъгини. Напълно оптимизираните основни възможности, системни роли и извикване на функции осигуряват отлична производителност в сложни приложения.",
|
|
544
541
|
"generalv3.description": "Spark Pro е високопроизводителен LLM, оптимизиран за професионални области като математика, програмиране, здравеопазване и образование. Поддържа уеб търсене и вградени плъгини като прогноза за времето и дата. Осигурява силна производителност и ефективност при сложни въпроси, езиково разбиране и напреднало текстово създаване, което го прави идеален за професионални приложения.",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520 е най-новата версия на модела, проектирана за изключително сложни и разнообразни задачи с отлична производителност.",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu AI. Той подобрява способностите за програмиране, дългосрочно планиране на задачи и сътрудничество с инструменти в сценарии за агентно програмиране, постигайки водещи резултати сред отворените модели в множество публични тестове. Общите способности са подобрени, с по-кратки и естествени отговори и по-завладяващо писане. При сложни агентни задачи следването на инструкции е по-силно при използване на инструменти, а естетиката на интерфейса и ефективността при изпълнение на дългосрочни задачи са допълнително подобрени.",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat се представя силно в семантика, математика, логика, програмиране и знания. Поддържа също така уеб браузване, изпълнение на код, извикване на персонализирани инструменти и логическо мислене върху дълги текстове, с поддръжка на 26 езика, включително японски, корейски и немски.",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air е високостойностен вариант с производителност, близка до GLM-4, висока скорост и по-ниска цена.",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air е високостойностен вариант с производителност, близка до GLM-4, висока скорост и по-ниска цена.",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking е най-силният известен ~10B VLM, покриващ SOTA задачи като разбиране на видео, QA по изображения, решаване на задачи, OCR, четене на документи и графики, GUI агенти, фронтенд програмиране и обоснованост. Надминава дори 8 пъти по-големия Qwen2.5-VL-72B в много задачи. С усъвършенствано RL, използва верижно мислене за подобрена точност и богатство, превъзхождайки традиционните модели без мислене както по резултати, така и по обяснимост.",
|
|
559
556
|
"glm-4.5-air.description": "GLM-4.5 лек вариант, който балансира производителност и цена, с гъвкави хибридни режими на мислене.",
|
|
560
557
|
"glm-4.5-airx.description": "GLM-4.5-Air бърз вариант с по-бързи отговори за мащабни и високоскоростни приложения.",
|
|
561
|
-
"glm-4.5-flash.description": "Безплатен GLM-4.5 слой с висока производителност при логическо мислене, програмиране и агентни задачи.",
|
|
562
558
|
"glm-4.5-x.description": "GLM-4.5 бърз вариант, осигуряващ силна производителност със скорост на генериране до 100 токена/секунда.",
|
|
563
559
|
"glm-4.5.description": "Флагманският модел на Zhipu с превключваем режим на мислене, осигуряващ SOTA производителност с отворен код и до 128K контекст.",
|
|
564
560
|
"glm-4.5v.description": "Следващото поколение MoE визуален логически модел на Zhipu с 106 милиарда общи параметъра и 12 милиарда активни, постигащ SOTA сред отворените мултимодални модели със сходен размер в задачи с изображения, видео, документи и GUI.",
|
|
565
561
|
"glm-4.6.description": "Най-новият флагмански модел на Zhipu GLM-4.6 (355B) напълно надминава предшествениците си в напреднало програмиране, обработка на дълги текстове, логическо мислене и агентни способности. Особено се доближава до Claude Sonnet 4 по програмиране, превръщайки се в най-добрия кодиращ модел в Китай.",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flash, като SOTA модел от 30B ниво, предлага нов избор, който балансира производителност и ефективност. Подобрява програмирането, дългосрочното планиране и сътрудничеството с инструменти в агентни сценарии, постигайки водещи резултати сред отворените модели със същия размер в актуалните класации.",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flash, като SOTA модел от 30B ниво, предлага нов избор, който балансира производителност и ефективност. Подобрява програмирането, дългосрочното планиране и сътрудничеството с инструменти в агентни сценарии, постигайки водещи резултати сред отворените модели със същия размер в актуалните класации.",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu, подобрен за сценарии с агентно програмиране с по-добри способности за кодиране, дългосрочно планиране на задачи и сътрудничество с инструменти. Постига водеща производителност сред отворените модели в множество публични бенчмаркове. Общите способности са подобрени с по-кратки и естествени отговори и по-завладяващо писане. При сложни агентни задачи следването на инструкции при извикване на инструменти е по-силно, а естетиката на интерфейса и ефективността при изпълнение на дългосрочни задачи в Artifacts и Agentic Coding са допълнително подобрени.",
|
|
567
565
|
"glm-4.description": "GLM-4 е по-старият флагман, пуснат през януари 2024 г., сега заменен от по-силния GLM-4-0520.",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash се фокусира върху ефективно разбиране на единични изображения за бързи анализи като обработка в реално време или на партиди.",
|
|
@@ -654,8 +652,8 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: по-малък и по-евтин вариант на Codex, оптимизиран за агентски задачи по програмиране.",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex: вариант на GPT-5.1, оптимизиран за агентски задачи по програмиране, за сложни кодови/агентски работни потоци в Responses API.",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 — водещ модел, оптимизиран за програмиране и агентски задачи с конфигурируемо усилие за разсъждение и по-дълъг контекст.",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat е вариантът на ChatGPT (chat-latest)
|
|
658
|
-
"gpt-5.2-pro.description": "GPT-5.2
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat е вариантът на ChatGPT (chat-latest) с най-новите подобрения в разговорите.",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 pro: по-интелигентен и прецизен вариант на GPT-5.2 (само чрез Responses API), подходящ за трудни задачи и дълги многоетапни разсъждения.",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2 е водещ модел за програмиране и агентски работни потоци с по-силно разсъждение и производителност при дълъг контекст.",
|
|
660
658
|
"gpt-5.description": "Най-добрият модел за междудисциплинарно програмиране и агентски задачи. GPT-5 прави скок в точността, скоростта, разсъждението, осъзнаването на контекста, структурираното мислене и решаването на проблеми.",
|
|
661
659
|
"gpt-audio.description": "GPT Audio е универсален чат модел за вход/изход на аудио, поддържан в Chat Completions API.",
|
|
@@ -957,7 +955,6 @@
|
|
|
957
955
|
"z-ai/glm-4.5-air.description": "GLM 4.5 Air е олекотен вариант на GLM 4.5 за сценарии, чувствителни към разходи, като същевременно запазва силни способности за разсъждение.",
|
|
958
956
|
"z-ai/glm-4.5.description": "GLM 4.5 е флагманският модел на Z.AI с хибридно разсъждение, оптимизиран за инженерни и задачи с дълъг контекст.",
|
|
959
957
|
"z-ai/glm-4.6.description": "GLM 4.6 е флагманският модел на Z.AI с разширен контекст и подобрени възможности за програмиране.",
|
|
960
|
-
"zai-glm-4.6.description": "Показва отлични резултати при задачи с програмиране и разсъждение, поддържа стрийминг и извикване на инструменти, подходящ за агентно програмиране и сложни логически задачи.",
|
|
961
958
|
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air е базов модел за агентни приложения с архитектура Mixture-of-Experts. Оптимизиран е за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и се интегрира с кодови агенти като Claude Code и Roo Code. Използва хибридно разсъждение за справяне както със сложни, така и с ежедневни задачи.",
|
|
962
959
|
"zai-org/GLM-4.5.description": "GLM-4.5 е базов модел, създаден за агентни приложения с архитектура Mixture-of-Experts. Дълбоко оптимизиран за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и се интегрира с кодови агенти като Claude Code и Roo Code. Използва хибридно разсъждение за справяне както със сложни, така и с ежедневни задачи.",
|
|
963
960
|
"zai-org/GLM-4.5V.description": "GLM-4.5V е най-новият визуален езиков модел (VLM) на Zhipu AI, изграден върху флагманския текстов модел GLM-4.5-Air (106B общо, 12B активни) с MoE архитектура за висока производителност при по-ниска цена. Следва пътя на GLM-4.1V-Thinking и добавя 3D-RoPE за подобрено пространствено разсъждение в 3D. Оптимизиран чрез предварително обучение, SFT и RL, обработва изображения, видео и дълги документи и е сред водещите отворени модели в 41 публични мултимодални бенчмарка. Режимът Thinking позволява на потребителите да балансират между скорост и дълбочина.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
|
|
30
30
|
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
|
|
31
31
|
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
|
|
33
32
|
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
|
|
35
34
|
"modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",
|
|
@@ -34,11 +34,20 @@
|
|
|
34
34
|
"agentCronJobs.empty.description": "Създайте първата си планирана задача, за да автоматизирате вашия агент",
|
|
35
35
|
"agentCronJobs.empty.title": "Все още няма планирани задачи",
|
|
36
36
|
"agentCronJobs.enable": "Активирай",
|
|
37
|
+
"agentCronJobs.form.at": "в",
|
|
37
38
|
"agentCronJobs.form.content.placeholder": "Въведете подкана или инструкция за агента",
|
|
39
|
+
"agentCronJobs.form.every": "Всеки",
|
|
40
|
+
"agentCronJobs.form.frequency": "Честота",
|
|
41
|
+
"agentCronJobs.form.hours": "час(а)",
|
|
42
|
+
"agentCronJobs.form.maxExecutions": "Спри след",
|
|
38
43
|
"agentCronJobs.form.maxExecutions.placeholder": "Оставете празно за неограничено",
|
|
39
44
|
"agentCronJobs.form.name.placeholder": "Въведете име на задачата",
|
|
45
|
+
"agentCronJobs.form.time": "Час",
|
|
40
46
|
"agentCronJobs.form.timeRange.end": "Крайно време",
|
|
41
47
|
"agentCronJobs.form.timeRange.start": "Начално време",
|
|
48
|
+
"agentCronJobs.form.times": "пъти",
|
|
49
|
+
"agentCronJobs.form.timezone": "Часова зона",
|
|
50
|
+
"agentCronJobs.form.unlimited": "Изпълнявай непрекъснато",
|
|
42
51
|
"agentCronJobs.form.validation.contentRequired": "Съдържанието на задачата е задължително",
|
|
43
52
|
"agentCronJobs.form.validation.invalidTimeRange": "Началното време трябва да е преди крайното",
|
|
44
53
|
"agentCronJobs.form.validation.nameRequired": "Името на задачата е задължително",
|
|
@@ -83,6 +92,13 @@
|
|
|
83
92
|
"agentCronJobs.weekday.tuesday": "Вторник",
|
|
84
93
|
"agentCronJobs.weekday.wednesday": "Сряда",
|
|
85
94
|
"agentCronJobs.weekdays": "Дни от седмицата",
|
|
95
|
+
"agentCronJobs.weekdays.fri": "Пет",
|
|
96
|
+
"agentCronJobs.weekdays.mon": "Пон",
|
|
97
|
+
"agentCronJobs.weekdays.sat": "Съб",
|
|
98
|
+
"agentCronJobs.weekdays.sun": "Нед",
|
|
99
|
+
"agentCronJobs.weekdays.thu": "Чет",
|
|
100
|
+
"agentCronJobs.weekdays.tue": "Вто",
|
|
101
|
+
"agentCronJobs.weekdays.wed": "Сря",
|
|
86
102
|
"agentInfoDescription.basic.avatar": "Аватар",
|
|
87
103
|
"agentInfoDescription.basic.description": "Описание",
|
|
88
104
|
"agentInfoDescription.basic.name": "Име",
|
|
@@ -8,6 +8,7 @@
|
|
|
8
8
|
"codes.DELETED_ACCOUNT_EMAIL": "Diese E-Mail-Adresse ist mit einem gelöschten Konto verknüpft und kann nicht für die Registrierung verwendet werden",
|
|
9
9
|
"codes.EMAIL_CAN_NOT_BE_UPDATED": "E-Mail-Adresse kann für dieses Konto nicht aktualisiert werden",
|
|
10
10
|
"codes.EMAIL_NOT_ALLOWED": "Diese E-Mail-Adresse ist für die Registrierung nicht zugelassen",
|
|
11
|
+
"codes.EMAIL_NOT_FOUND": "Keine E-Mail mit diesem Konto verknüpft. Bitte überprüfen Sie, ob Ihrem Konto eine E-Mail-Adresse zugeordnet ist.",
|
|
11
12
|
"codes.EMAIL_NOT_VERIFIED": "Bitte verifiziere zuerst deine E-Mail-Adresse",
|
|
12
13
|
"codes.FAILED_TO_CREATE_SESSION": "Sitzung konnte nicht erstellt werden",
|
|
13
14
|
"codes.FAILED_TO_CREATE_USER": "Benutzer konnte nicht erstellt werden",
|
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "Ein Modell mit 7 Milliarden Parametern, das qualitativ hochwertiger ist als Phi-3-mini und sich auf hochwertige, schlussfolgerungsintensive Daten konzentriert.",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Eine aktualisierte Version des Phi-3-mini-Modells.",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Eine aktualisierte Version des Phi-3-vision-Modells.",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 ist ein Open-Source-Sprachmodell der nächsten Generation, das für agentenbasierte Fähigkeiten optimiert wurde. Es überzeugt in den Bereichen Programmierung, Werkzeugnutzung, Befolgen von Anweisungen und langfristige Planung. Das Modell unterstützt mehrsprachige Softwareentwicklung und die Ausführung komplexer, mehrstufiger Arbeitsabläufe. Es erreichte 74,0 Punkte im SWE-bench Verified und übertrifft Claude Sonnet 4.5 in mehrsprachigen Szenarien.",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct ist ein 7B-Instruktionsmodell der Qwen2-Serie. Es verwendet eine Transformer-Architektur mit SwiGLU, Attention-QKV-Bias und Grouped-Query-Attention und verarbeitet große Eingaben. Es zeigt starke Leistungen in Sprachverständnis, Textgenerierung, Mehrsprachigkeit, Programmierung, Mathematik und logischem Denken, übertrifft die meisten Open-Source-Modelle und konkurriert mit proprietären Modellen. Es übertrifft Qwen1.5-7B-Chat in mehreren Benchmarks.",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct ist Teil der neuesten LLM-Serie von Alibaba Cloud. Das 7B-Modell bietet deutliche Verbesserungen in den Bereichen Programmierung und Mathematik, unterstützt über 29 Sprachen und verbessert das Befolgen von Anweisungen, das Verständnis strukturierter Daten und strukturierte Ausgaben (insbesondere JSON).",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct ist das neueste codefokussierte LLM von Alibaba Cloud. Basierend auf Qwen2.5 und trainiert mit 5,5 Billionen Tokens verbessert es die Codegenerierung, das logische Denken und die Fehlerbehebung erheblich, während es mathematische und allgemeine Stärken beibehält – eine solide Grundlage für Coding-Agenten.",
|
|
@@ -271,20 +272,20 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
|
|
272
273
|
"claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
273
274
|
"claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es kann nahezu sofortige Antworten oder ausführliche, schrittweise Denkprozesse liefern, die für Nutzer sichtbar sind. Sonnet ist besonders stark in den Bereichen Programmierung, Datenwissenschaft, visuelle Verarbeitung und agentenbasierte Aufgaben.",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic –
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
|
|
283
284
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und
|
|
285
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und zeichnet sich durch exzellente Leistung, Intelligenz, Sprachgewandtheit und Verständnis aus.",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder ausführliche, schrittweise Denkprozesse mit sichtbarem Ablauf liefern.",
|
|
288
289
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp ist eine experimentelle V3.2-Version, die zur nächsten Architektur überleitet. Sie ergänzt DeepSeek Sparse Attention (DSA) auf Basis von V3.1-Terminus zur Verbesserung von Training und Inferenz bei langen Kontexten. Optimiert für Toolnutzung, Dokumentenverständnis und mehrstufiges Denken – ideal zur Erforschung effizienteren Denkens bei großem Kontextbudget.",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell mit 671 Milliarden Parametern, das MLA und DeepSeekMoE mit verlustfreier Lastverteilung für effizientes Training und Inferenz nutzt. Vortrainiert auf 14,8 B hochwertigen Tokens mit SFT und RL übertrifft es andere offene Modelle und nähert sich führenden geschlossenen Modellen an.",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) ist ein innovatives Modell mit tiefem Sprachverständnis und Interaktionsfähigkeit.",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "Ein hochmodernes, effizientes LLM mit Stärken in logischem Denken, Mathematik und Programmierung.",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und programmierbezogene Fähigkeiten kombiniert. Es vereint die dialogorientierte Stärke eines Chatmodells mit der ausgeprägten Programmierleistung eines Codemodells und bietet eine verbesserte Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "Der Denkmodus DeepSeek V3.2 gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultra-leichtgewichtiges Modell für einfache Frage-Antwort-Aufgaben, Klassifikation und kostengünstige Inferenz.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für hochqualitative, kontrollierbare Bildgenerierung aus Prompts.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erstellt Bilder basierend auf Texteingaben.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen
|
|
485
|
-
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen unterstützt. Es bearbeitet chinesischen und englischen Text präzise und ermöglicht hochwertige Bearbeitungen wie Stilübertragungen und Objektrotationen.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
|
|
486
485
|
"flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 1–4 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
|
|
488
487
|
"flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview ist Googles kleinstes und kosteneffizientestes Modell für großflächige Nutzung.",
|
|
@@ -530,7 +527,7 @@
|
|
|
530
527
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
|
|
531
528
|
"gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das auf Geschwindigkeit ausgelegt ist – es vereint modernste Intelligenz mit exzellenter Suchverankerung.",
|
|
532
529
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Dialoge.",
|
|
533
|
-
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles
|
|
530
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodale Chats.",
|
|
534
531
|
"gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
|
|
535
532
|
"gemini-flash-latest.description": "Neueste Version von Gemini Flash",
|
|
536
533
|
"gemini-flash-lite-latest.description": "Neueste Version von Gemini Flash-Lite",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max ist die funktionsreichste Version mit Websuche und vielen integrierten Plugins. Die vollständig optimierten Kernfunktionen, Systemrollen und Funktionsaufrufe sorgen für exzellente Leistung in komplexen Anwendungsszenarien.",
|
|
544
541
|
"generalv3.description": "Spark Pro ist ein leistungsstarkes LLM, das für professionelle Bereiche wie Mathematik, Programmierung, Gesundheitswesen und Bildung optimiert ist. Es bietet Websuche und integrierte Plugins wie Wetter und Datum. Es überzeugt durch starke Leistung und Effizienz bei komplexen Wissensfragen, Sprachverständnis und fortgeschrittener Textgenerierung – ideal für professionelle Anwendungsfälle.",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520 ist die neueste Modellversion, entwickelt für hochkomplexe und vielfältige Aufgaben mit exzellenter Leistung.",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7 ist das neueste Flaggschiffmodell von Zhipu AI. Es verbessert die Programmierfähigkeiten, die langfristige Aufgabenplanung und die Werkzeugnutzung für agentenbasierte Codierungsszenarien und erzielt führende Leistungen unter Open-Source-Modellen in mehreren öffentlichen Benchmarks. Die allgemeinen Fähigkeiten wurden verbessert – mit prägnanteren, natürlicheren Antworten und immersiverem Schreibstil. Bei komplexen Agentenaufgaben ist das Befolgen von Anweisungen bei Werkzeugaufrufen stärker, und die Ästhetik sowie Effizienz bei der Erstellung von Artefakten und der agentenbasierten Codierung wurden weiter optimiert. • Verbesserte Programmierfähigkeiten: Deutlich verbesserte Mehrsprachen-Codierung und Terminal-Agent-Leistung; GLM-4.7 kann jetzt „erst denken, dann handeln“-Mechanismen in Programmierframeworks wie Claude Code, Kilo Code, TRAE, Cline und Roo Code umsetzen – mit stabilerer Leistung bei komplexen Aufgaben. • Verbesserte Frontend-Ästhetik: GLM-4.7 zeigt deutliche Fortschritte bei der Frontend-Generierung und kann Webseiten, Präsentationen und Poster mit höherem visuellen Anspruch erstellen. • Verbesserte Werkzeugnutzung: GLM-4.7 verbessert die Fähigkeit zum Werkzeugaufruf, erzielt 67 Punkte im BrowseComp-Webaufgabentest und 84,7 Punkte im τ²-Bench für interaktive Werkzeugnutzung – und übertrifft damit Claude Sonnet 4.5 als Open-Source-SOTA. • Verbesserte Denkfähigkeiten: Deutlich verbesserte mathematische und logische Fähigkeiten mit 42,8 % im HLE („Humanity’s Last Exam“) Benchmark – eine Steigerung um 41 % gegenüber GLM-4.6 und besser als GPT-5.1. • Allgemeine Verbesserungen: GLM-4.7 führt prägnantere, intelligentere und menschlichere Gespräche; Schreiben und Rollenspiel sind literarischer und immersiver.",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat überzeugt in Semantik, Mathematik, logischem Denken, Code und Wissen. Es unterstützt auch Web-Browsing, Codeausführung, benutzerdefinierte Tool-Nutzung und Langtext-Reasoning in 26 Sprachen, darunter Japanisch, Koreanisch und Deutsch.",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air ist eine kosteneffiziente Option mit Leistung nahe GLM-4, hoher Geschwindigkeit und geringeren Kosten.",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air ist eine kosteneffiziente Option mit Leistung nahe GLM-4, hoher Geschwindigkeit und geringeren Kosten.",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking ist das stärkste bekannte ~10B VLM und deckt SOTA-Aufgaben wie Videoverstehen, Bild-QA, Fachlösungen, OCR, Dokument- und Diagrammlesen, GUI-Agenten, Frontend-Coding und Grounding ab. Es übertrifft sogar das 8-fach größere Qwen2.5-VL-72B in vielen Aufgaben. Mit fortschrittlichem RL nutzt es Chain-of-Thought-Reasoning zur Verbesserung von Genauigkeit und Tiefe und übertrifft traditionelle Nicht-Denk-Modelle sowohl in Ergebnissen als auch in Erklärbarkeit.",
|
|
559
556
|
"glm-4.5-air.description": "GLM-4.5 Leichtversion, die Leistung und Kosten ausbalanciert, mit flexiblen hybriden Denkmodi.",
|
|
560
557
|
"glm-4.5-airx.description": "GLM-4.5-Air Schnellversion mit schnelleren Antworten für großflächige, hochfrequente Nutzung.",
|
|
561
|
-
"glm-4.5-flash.description": "Kostenlose GLM-4.5-Stufe mit starker Leistung in logischem Denken, Programmierung und Agentenaufgaben.",
|
|
562
558
|
"glm-4.5-x.description": "GLM-4.5 Schnellversion mit starker Leistung und Generierungsgeschwindigkeiten von bis zu 100 Token/Sekunde.",
|
|
563
559
|
"glm-4.5.description": "Zhipus Flaggschiffmodell mit umschaltbarem Denkmodus, bietet Open-Source-SOTA-Leistung und bis zu 128K Kontext.",
|
|
564
560
|
"glm-4.5v.description": "Zhipus nächste Generation eines MoE-Vision-Reasoning-Modells mit 106B Gesamtparametern und 12B aktiven. Es erreicht SOTA unter ähnlich großen Open-Source-Multimodalmodellen in Bild-, Video-, Dokumentenverständnis- und GUI-Aufgaben.",
|
|
565
561
|
"glm-4.6.description": "Zhipus neuestes Flaggschiffmodell GLM-4.6 (355B) übertrifft seine Vorgänger vollständig in den Bereichen fortgeschrittenes Programmieren, Verarbeitung langer Texte, logisches Denken und Agentenfähigkeiten. Besonders im Bereich Programmierung steht es auf Augenhöhe mit Claude Sonnet 4 und gilt als Chinas führendes Coding-Modell.",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flash ist ein SOTA-Modell auf 30B-Niveau und bietet eine neue Option, die Leistung und Effizienz ausbalanciert. Es verbessert die Programmierfähigkeiten, langfristige Aufgabenplanung und Werkzeugnutzung für agentenbasierte Codierungsszenarien und erzielt führende Leistungen unter Open-Source-Modellen vergleichbarer Größe in aktuellen Benchmarks. Bei der Ausführung komplexer intelligenter Agentenaufgaben zeigt es eine stärkere Einhaltung von Anweisungen bei Werkzeugaufrufen und verbessert weiter die Frontend-Ästhetik sowie die Effizienz bei der langfristigen Aufgabenbewältigung für Artefakte und agentenbasierte Codierung.",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flash ist ein SOTA-Modell auf 30B-Niveau und bietet eine neue Option, die Leistung und Effizienz ausbalanciert. Es verbessert die Programmierfähigkeiten, langfristige Aufgabenplanung und Werkzeugnutzung für agentenbasierte Codierungsszenarien und erzielt führende Leistungen unter Open-Source-Modellen vergleichbarer Größe in aktuellen Benchmarks. Bei der Ausführung komplexer intelligenter Agentenaufgaben zeigt es eine stärkere Einhaltung von Anweisungen bei Werkzeugaufrufen und verbessert weiter die Frontend-Ästhetik sowie die Effizienz bei der langfristigen Aufgabenbewältigung für Artefakte und agentenbasierte Codierung.",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7 ist Zhipus neuestes Flaggschiffmodell, optimiert für agentenbasiertes Programmieren mit verbesserten Codierungsfähigkeiten, langfristiger Aufgabenplanung und Werkzeugintegration. Es erzielt Spitzenleistungen unter Open-Source-Modellen in zahlreichen öffentlichen Benchmarks. Die allgemeinen Fähigkeiten wurden durch präzisere, natürlichere Antworten und ein immersiveres Schreibverhalten verbessert. Bei komplexen Agentenaufgaben ist die Befolgung von Anweisungen bei Werkzeugaufrufen robuster, und die visuelle Gestaltung sowie die Effizienz bei der langfristigen Aufgabenbearbeitung in Artifacts und Agentic Coding wurden weiter optimiert.",
|
|
567
565
|
"glm-4.description": "GLM-4 ist das ältere Flaggschiffmodell, das im Januar 2024 veröffentlicht wurde und nun durch das stärkere GLM-4-0520 ersetzt wurde.",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash konzentriert sich auf effizientes Einzelbildverständnis für schnelle Analyseanwendungen wie Echtzeit- oder Batch-Bildverarbeitung.",
|
|
@@ -654,8 +652,8 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex Mini: eine kleinere, kostengünstigere Codex-Variante, optimiert für agentenbasiertes Programmieren.",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex: eine GPT-5.1-Variante, optimiert für agentenbasiertes Programmieren und komplexe Code-/Agenten-Workflows in der Responses API.",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 – ein Spitzenmodell, optimiert für Programmier- und Agentenaufgaben mit konfigurierbarem Denkaufwand und erweitertem Kontext.",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat ist die ChatGPT-Variante (chat-latest)
|
|
658
|
-
"gpt-5.2-pro.description": "GPT-5.2 Pro: eine intelligentere, präzisere GPT-5.2-Variante (nur über die Responses API), geeignet für schwierige Probleme und
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat ist die ChatGPT-Variante (chat-latest) mit den neuesten Verbesserungen für Konversationen.",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro: eine intelligentere, präzisere GPT-5.2-Variante (nur über die Responses API), geeignet für schwierige Probleme und längere, mehrstufige Denkprozesse.",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2 ist ein Spitzenmodell für Programmier- und agentenbasierte Workflows mit verbessertem Denkvermögen und Langkontextleistung.",
|
|
660
658
|
"gpt-5.description": "Das beste Modell für domänenübergreifendes Programmieren und Agentenaufgaben. GPT-5 bietet große Fortschritte in Genauigkeit, Geschwindigkeit, logischem Denken, Kontextverständnis, strukturiertem Denken und Problemlösung.",
|
|
661
659
|
"gpt-audio.description": "GPT Audio ist ein allgemeines Chat-Modell mit Audioein- und -ausgabe, unterstützt durch die Chat Completions API.",
|
|
@@ -966,6 +964,9 @@
|
|
|
966
964
|
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini ist eine kleinere, schnellere Version von GPT-5.1-Codex, ideal für latenz- und kostenkritische Programmieraufgaben.",
|
|
967
965
|
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex ist eine GPT-5.1-Variante, optimiert für Softwareentwicklung und Programmier-Workflows – geeignet für große Refactorings, komplexes Debugging und lange autonome Codierungsaufgaben.",
|
|
968
966
|
"openai/gpt-5.1.description": "GPT-5.1 ist das neueste Flaggschiff der GPT-5-Serie mit deutlichen Verbesserungen in logischem Denken, Anweisungsbefolgung und natürlicher Konversation – geeignet für vielfältige Aufgaben.",
|
|
967
|
+
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat ist die ChatGPT-Variante zur Nutzung der neuesten Verbesserungen im Dialogverhalten.",
|
|
968
|
+
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: eine intelligentere, präzisere GPT-5.2-Variante (nur über die Responses API), geeignet für komplexe Probleme und längere, mehrstufige Denkprozesse.",
|
|
969
|
+
"openai/gpt-5.2.description": "GPT-5.2 ist ein Flaggschiffmodell für Programmierung und agentenbasierte Arbeitsabläufe mit verbesserter Denkfähigkeit und Leistung bei langen Kontexten.",
|
|
969
970
|
"openai/gpt-5.description": "GPT-5 ist OpenAIs leistungsstarkes Modell für ein breites Spektrum an Produktions- und Forschungsaufgaben.",
|
|
970
971
|
"openai/gpt-oss-120b.description": "Ein hochleistungsfähiges, vielseitiges Sprachmodell mit starker, kontrollierbarer Argumentation.",
|
|
971
972
|
"openai/gpt-oss-20b.description": "Ein kompaktes Sprachmodell mit offenen Gewichten, optimiert für geringe Latenz und ressourcenschonende Umgebungen – auch lokal und am Edge einsetzbar.",
|
|
@@ -1223,7 +1224,6 @@
|
|
|
1223
1224
|
"z-ai/glm-4.5.description": "GLM 4.5 ist Z.AIs Flaggschiffmodell mit hybridem Reasoning, optimiert für Engineering- und Langkontextaufgaben.",
|
|
1224
1225
|
"z-ai/glm-4.6.description": "GLM 4.6 ist Z.AIs Flaggschiffmodell mit erweitertem Kontextumfang und Codierungsfähigkeiten.",
|
|
1225
1226
|
"z-ai/glm-4.7.description": "GLM-4.7 ist das neueste Flaggschiffmodell von Zhipu mit verbesserten allgemeinen Fähigkeiten, natürlicheren und einfacheren Antworten sowie einem immersiveren Schreiberlebnis.",
|
|
1226
|
-
"zai-glm-4.6.description": "Leistungsstark bei Codierungs- und Reasoning-Aufgaben, unterstützt Streaming und Toolaufrufe – ideal für agentenbasiertes Codieren und komplexes Denken.",
|
|
1227
1227
|
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air ist ein Basismodell für Agentenanwendungen mit Mixture-of-Experts-Architektur. Es ist optimiert für Toolnutzung, Web-Browsing, Softwareentwicklung und Frontend-Codierung und integriert sich mit Code-Agenten wie Claude Code und Roo Code. Es nutzt hybrides Reasoning für komplexe und alltägliche Szenarien.",
|
|
1228
1228
|
"zai-org/GLM-4.5.description": "GLM-4.5 ist ein Basismodell für Agentenanwendungen mit Mixture-of-Experts-Architektur. Es ist tiefgreifend optimiert für Toolnutzung, Web-Browsing, Softwareentwicklung und Frontend-Codierung und integriert sich mit Code-Agenten wie Claude Code und Roo Code. Es nutzt hybrides Reasoning für komplexe und alltägliche Szenarien.",
|
|
1229
1229
|
"zai-org/GLM-4.5V.description": "GLM-4.5V ist Zhipu AIs neuestes VLM, basierend auf dem GLM-4.5-Air-Textmodell (106B gesamt, 12B aktiv) mit MoE-Architektur für starke Leistung bei geringeren Kosten. Es folgt dem GLM-4.1V-Thinking-Ansatz und fügt 3D-RoPE zur Verbesserung des 3D-Räumlichkeitsdenkens hinzu. Optimiert durch Pretraining, SFT und RL, verarbeitet es Bilder, Videos und lange Dokumente und belegt Spitzenplätze unter offenen Modellen in 41 öffentlichen multimodalen Benchmarks. Ein Thinking-Modus-Schalter ermöglicht die Balance zwischen Geschwindigkeit und Tiefe.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
|
|
30
30
|
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
|
|
31
31
|
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
|
|
33
32
|
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.",
|
|
35
34
|
"modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",
|
|
@@ -34,11 +34,20 @@
|
|
|
34
34
|
"agentCronJobs.empty.description": "Erstellen Sie Ihre erste geplante Aufgabe, um Ihren Agenten zu automatisieren",
|
|
35
35
|
"agentCronJobs.empty.title": "Noch keine geplanten Aufgaben",
|
|
36
36
|
"agentCronJobs.enable": "Aktivieren",
|
|
37
|
+
"agentCronJobs.form.at": "um",
|
|
37
38
|
"agentCronJobs.form.content.placeholder": "Geben Sie die Eingabeaufforderung oder Anweisung für den Agenten ein",
|
|
39
|
+
"agentCronJobs.form.every": "Jede",
|
|
40
|
+
"agentCronJobs.form.frequency": "Häufigkeit",
|
|
41
|
+
"agentCronJobs.form.hours": "Stunde(n)",
|
|
42
|
+
"agentCronJobs.form.maxExecutions": "Beenden nach",
|
|
38
43
|
"agentCronJobs.form.maxExecutions.placeholder": "Leer lassen für unbegrenzt",
|
|
39
44
|
"agentCronJobs.form.name.placeholder": "Aufgabennamen eingeben",
|
|
45
|
+
"agentCronJobs.form.time": "Uhrzeit",
|
|
40
46
|
"agentCronJobs.form.timeRange.end": "Endzeit",
|
|
41
47
|
"agentCronJobs.form.timeRange.start": "Startzeit",
|
|
48
|
+
"agentCronJobs.form.times": "Mal",
|
|
49
|
+
"agentCronJobs.form.timezone": "Zeitzone",
|
|
50
|
+
"agentCronJobs.form.unlimited": "Kontinuierlich ausführen",
|
|
42
51
|
"agentCronJobs.form.validation.contentRequired": "Aufgabeninhalt ist erforderlich",
|
|
43
52
|
"agentCronJobs.form.validation.invalidTimeRange": "Die Startzeit muss vor der Endzeit liegen",
|
|
44
53
|
"agentCronJobs.form.validation.nameRequired": "Aufgabenname ist erforderlich",
|
|
@@ -83,6 +92,13 @@
|
|
|
83
92
|
"agentCronJobs.weekday.tuesday": "Dienstag",
|
|
84
93
|
"agentCronJobs.weekday.wednesday": "Mittwoch",
|
|
85
94
|
"agentCronJobs.weekdays": "Wochentage",
|
|
95
|
+
"agentCronJobs.weekdays.fri": "Fr",
|
|
96
|
+
"agentCronJobs.weekdays.mon": "Mo",
|
|
97
|
+
"agentCronJobs.weekdays.sat": "Sa",
|
|
98
|
+
"agentCronJobs.weekdays.sun": "So",
|
|
99
|
+
"agentCronJobs.weekdays.thu": "Do",
|
|
100
|
+
"agentCronJobs.weekdays.tue": "Di",
|
|
101
|
+
"agentCronJobs.weekdays.wed": "Mi",
|
|
86
102
|
"agentInfoDescription.basic.avatar": "Avatar",
|
|
87
103
|
"agentInfoDescription.basic.description": "Beschreibung",
|
|
88
104
|
"agentInfoDescription.basic.name": "Name",
|
package/locales/en-US/auth.json
CHANGED
|
@@ -98,6 +98,7 @@
|
|
|
98
98
|
"betterAuth.signin.signupLink": "Sign up now",
|
|
99
99
|
"betterAuth.signin.socialError": "Social sign in failed, please try again",
|
|
100
100
|
"betterAuth.signin.socialOnlyHint": "This email was registered via a third-party social account. Sign in with that provider, or",
|
|
101
|
+
"betterAuth.signin.ssoOnlyNoProviders": "Email registration is disabled and no SSO providers are configured. Please contact your administrator.",
|
|
101
102
|
"betterAuth.signin.submit": "Sign In",
|
|
102
103
|
"betterAuth.signup.confirmPasswordPlaceholder": "Confirm your password",
|
|
103
104
|
"betterAuth.signup.emailPlaceholder": "Enter your email address",
|