@lobehub/lobehub 2.1.3 → 2.1.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.env.example +0 -3
- package/.env.example.development +0 -3
- package/CHANGELOG.md +34 -0
- package/changelog/v2.json +9 -0
- package/docker-compose/deploy/.env.example +3 -1
- package/docker-compose/deploy/.env.zh-CN.example +4 -1
- package/docker-compose/local/.env.example +0 -1
- package/docker-compose/local/.env.zh-CN.example +0 -1
- package/docker-compose/local/grafana/.env.example +0 -1
- package/docker-compose/local/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/local/logto/docker-compose.yml +0 -1
- package/docker-compose/local/zitadel/.env.example +1 -2
- package/docker-compose/local/zitadel/.env.zh-CN.example +1 -2
- package/docker-compose/production/grafana/.env.example +0 -1
- package/docker-compose/production/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/production/logto/.env.example +0 -2
- package/docker-compose/production/logto/.env.zh-CN.example +0 -2
- package/docker-compose/production/zitadel/.env.example +0 -2
- package/docker-compose/production/zitadel/.env.zh-CN.example +0 -2
- package/docker-compose/setup.sh +16 -2
- package/docs/development/basic/folder-structure.mdx +23 -14
- package/docs/development/basic/folder-structure.zh-CN.mdx +23 -14
- package/docs/development/basic/work-with-server-side-database.mdx +0 -1
- package/docs/development/basic/work-with-server-side-database.zh-CN.mdx +0 -1
- package/docs/development/start.mdx +19 -12
- package/docs/development/start.zh-CN.mdx +19 -12
- package/docs/self-hosting/advanced/s3/cloudflare-r2.mdx +0 -5
- package/docs/self-hosting/advanced/s3/cloudflare-r2.zh-CN.mdx +0 -5
- package/docs/self-hosting/advanced/s3/rustfs.mdx +0 -2
- package/docs/self-hosting/advanced/s3/rustfs.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3/tencent-cloud.mdx +0 -1
- package/docs/self-hosting/advanced/s3/tencent-cloud.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3.mdx +0 -9
- package/docs/self-hosting/advanced/s3.zh-CN.mdx +0 -8
- package/docs/self-hosting/environment-variables/s3.mdx +0 -7
- package/docs/self-hosting/environment-variables/s3.zh-CN.mdx +0 -7
- package/docs/self-hosting/platform/docker-compose.mdx +0 -1
- package/docs/self-hosting/platform/docker-compose.zh-CN.mdx +0 -1
- package/docs/self-hosting/platform/docker.mdx +5 -3
- package/docs/self-hosting/platform/docker.zh-CN.mdx +5 -4
- package/docs/self-hosting/platform/dokploy.mdx +0 -2
- package/docs/self-hosting/platform/dokploy.zh-CN.mdx +0 -2
- package/docs/self-hosting/platform/vercel.mdx +0 -7
- package/docs/self-hosting/platform/vercel.zh-CN.mdx +0 -7
- package/e2e/src/steps/home/sidebarAgent.steps.ts +56 -24
- package/locales/ar/authError.json +1 -0
- package/locales/ar/models.json +25 -22
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +16 -0
- package/locales/bg-BG/authError.json +1 -0
- package/locales/bg-BG/models.json +18 -21
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +16 -0
- package/locales/de-DE/authError.json +1 -0
- package/locales/de-DE/models.json +20 -20
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +16 -0
- package/locales/en-US/models.json +22 -22
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/authError.json +1 -0
- package/locales/es-ES/models.json +84 -20
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +16 -0
- package/locales/fa-IR/authError.json +1 -0
- package/locales/fa-IR/models.json +43 -20
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +16 -0
- package/locales/fr-FR/authError.json +1 -0
- package/locales/fr-FR/models.json +19 -21
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +16 -0
- package/locales/it-IT/authError.json +1 -0
- package/locales/it-IT/models.json +17 -19
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +16 -0
- package/locales/ja-JP/authError.json +1 -0
- package/locales/ja-JP/models.json +43 -22
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +16 -0
- package/locales/ko-KR/authError.json +1 -0
- package/locales/ko-KR/models.json +41 -20
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +16 -0
- package/locales/nl-NL/authError.json +1 -0
- package/locales/nl-NL/models.json +48 -20
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +16 -0
- package/locales/pl-PL/authError.json +1 -0
- package/locales/pl-PL/models.json +19 -22
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +16 -0
- package/locales/pt-BR/authError.json +1 -0
- package/locales/pt-BR/models.json +21 -21
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +16 -0
- package/locales/ru-RU/authError.json +1 -0
- package/locales/ru-RU/models.json +23 -20
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +16 -0
- package/locales/tr-TR/authError.json +1 -0
- package/locales/tr-TR/models.json +37 -20
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +16 -0
- package/locales/vi-VN/authError.json +1 -0
- package/locales/vi-VN/models.json +15 -19
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +16 -0
- package/locales/zh-CN/models.json +20 -20
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/authError.json +1 -0
- package/locales/zh-TW/models.json +20 -20
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +16 -0
- package/package.json +1 -1
- package/packages/model-bank/src/aiModels/google.ts +0 -19
- package/packages/model-bank/src/aiModels/moonshot.ts +56 -5
- package/packages/model-bank/src/aiModels/ollamacloud.ts +14 -0
- package/packages/model-bank/src/aiModels/openrouter.ts +0 -14
- package/packages/model-bank/src/aiModels/qwen.ts +105 -4
- package/packages/model-bank/src/aiModels/siliconcloud.ts +39 -0
- package/packages/model-bank/src/aiModels/wenxin.ts +0 -99
- package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +24 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.ts +22 -5
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +10 -3
- package/packages/model-runtime/src/core/streams/google/google-ai.test.ts +54 -13
- package/packages/model-runtime/src/core/streams/google/index.ts +1 -4
- package/packages/model-runtime/src/providers/moonshot/index.ts +24 -2
- package/packages/model-runtime/src/providers/qwen/index.ts +16 -15
- package/src/server/routers/lambda/__tests__/integration/aiAgent/execAgent.integration.test.ts +3 -2
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "Модель с 7B параметрами, обеспечивающая более высокое качество, чем Phi-3-mini, с акцентом на данные, требующие глубокого рассуждения.",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Обновлённая версия модели Phi-3-mini.",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Обновлённая версия модели Phi-3-vision.",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 — это модель большого языка с открытым исходным кодом, оптимизированная для агентных возможностей. Она превосходно справляется с программированием, использованием инструментов, следованием инструкциям и долгосрочным планированием. Модель поддерживает многоязычную разработку программного обеспечения и выполнение сложных многошаговых рабочих процессов, набирая 74.0 балла на SWE-bench Verified и превосходя Claude Sonnet 4.5 в многоязычных сценариях.",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct — это 7B модель с настройкой на инструкции из серии Qwen2. Использует архитектуру Transformer с SwiGLU, смещением QKV внимания и групповым вниманием по запросу, обрабатывает большие входные данные. Демонстрирует высокие результаты в понимании языка, генерации, многоязычных задачах, программировании, математике и рассуждении, превосходя большинство открытых моделей и конкурируя с закрытыми.",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct входит в последнюю серию LLM от Alibaba Cloud. Модель на 7B параметров демонстрирует значительный прогресс в программировании и математике, поддерживает более 29 языков и улучшает следование инструкциям, понимание структурированных данных и структурированный вывод (особенно JSON).",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct — последняя модель от Alibaba Cloud, ориентированная на программирование. Построена на базе Qwen2.5 и обучена на 5.5T токенов, значительно улучшает генерацию кода, рассуждение и исправление ошибок, сохраняя при этом сильные стороны в математике и общем интеллекте, обеспечивая надёжную основу для кодирующих агентов.",
|
|
@@ -271,20 +272,20 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
|
|
272
273
|
"claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
|
|
273
274
|
"claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic,
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, она демонстрирует улучшения во всех навыках и превосходит предыдущую крупнейшую модель Claude 3 Opus по многим интеллектуальным метрикам.",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель рассуждения. Она способна выдавать почти мгновенные ответы или пошаговые рассуждения, видимые пользователю. Особенно сильна в программировании, науке о данных, компьютерном зрении и агентных задачах.",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель Haiku от Anthropic, сочетающая молниеносную скорость и расширенные возможности рассуждения.",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
|
|
283
|
-
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 — новейшая и самая мощная модель от Anthropic для
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для
|
|
284
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 — новейшая и самая мощная модель от Anthropic для выполнения высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
|
|
285
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для выполнения высоко сложных задач, демонстрирующая выдающиеся результаты в производительности, интеллекте, беглости и понимании.",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 способен выдавать почти мгновенные ответы или пошаговые рассуждения с видимым процессом.",
|
|
288
289
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp — экспериментальный выпуск V3.2, переходный к следующей архитектуре. Добавляет DeepSeek Sparse Attention (DSA) поверх V3.1-Terminus для повышения эффективности обучения и вывода на длинных контекстах, с оптимизациями для использования инструментов, понимания длинных документов и многошагового рассуждения. Идеально подходит для изучения более эффективного рассуждения при больших объёмах контекста.",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 — модель MoE с 671 миллиардами параметров, использующая MLA и DeepSeekMoE с балансировкой нагрузки без потерь для эффективного обучения и вывода. Предобучена на 14.8 триллионах высококачественных токенов с использованием SFT и RL, превосходит другие открытые модели и приближается к ведущим закрытым решениям.",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) — инновационная модель с глубоким пониманием языка и возможностью взаимодействия.",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "Современная эффективная LLM, сильная в рассуждениях, математике и программировании.",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается в задачах визуального QA, OCR, понимания документов/таблиц/диаграмм и визуального связывания.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Новая модель с открытым исходным кодом, сочетающая общие и программные способности. Сохраняет диалоговые возможности чат-модели и сильные навыки кодирования модели-программиста, с улучшенным соответствием предпочтениям. DeepSeek-V2.5 также улучшает навыки письма и следование инструкциям.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.",
|
|
379
379
|
"deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выводит цепочку рассуждений перед финальным ответом для повышения точности.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K — ультралегкая модель для простых задач Вопрос-Ответ, классификации и недорогого вывода.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, разработанная ByteDance Seed, поддерживает ввод текста и изображений для высококачественной генерации изображений с высокой степенью управляемости.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высокой управляемостью и качеством. Генерирует изображения по текстовым подсказкам.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "Модель FLUX.1, ориентированная на редактирование изображений, поддерживает ввод текста и изображений.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] принимает текст и эталонные изображения, позволяя выполнять локальные правки и сложные глобальные трансформации сцены.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] — модель генерации изображений с эстетическим уклоном в сторону более реалистичных и естественных изображений.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "Мощная нативная мультимодальная модель генерации изображений.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "Модель генерации изображений высокого качества от Google.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая
|
|
485
|
-
"fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантическое и визуальное редактирование, точную правку китайского и английского текста, а также высококачественные изменения, такие как перенос стиля и поворот объектов.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с впечатляющим отображением китайского текста и разнообразными визуальными стилями.",
|
|
486
485
|
"flux-1-schnell.description": "Модель преобразования текста в изображение с 12 миллиардами параметров от Black Forest Labs, использующая латентную диффузию с дистилляцией для генерации качественных изображений за 1–4 шага. Конкурирует с закрытыми аналогами и распространяется по лицензии Apache-2.0 для личного, исследовательского и коммерческого использования.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] — модель с открытыми весами для некоммерческого использования. Сохраняет почти профессиональное качество изображений и следование инструкциям при более эффективной работе и лучшем использовании ресурсов по сравнению со стандартными моделями аналогичного размера.",
|
|
488
487
|
"flux-kontext-max.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash предлагает функции следующего поколения, включая исключительную скорость, нативное использование инструментов, мультимодальную генерацию и контекст до 1 миллиона токенов.",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, обеспечивающая генерацию и редактирование изображений в диалоговом формате.",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, обеспечивающая генерацию и редактирование изображений в диалоговом формате.",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview — самая компактная и экономичная модель от Google, предназначенная для масштабного использования.",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max — самая функциональная версия, поддерживающая веб-поиск и множество встроенных плагинов. Оптимизированные базовые возможности, системные роли и вызов функций обеспечивают отличную производительность в сложных сценариях.",
|
|
544
541
|
"generalv3.description": "Spark Pro — высокопроизводительная языковая модель, оптимизированная для профессиональных областей, таких как математика, программирование, здравоохранение и образование. Поддерживает веб-поиск и встроенные плагины (погода, дата и др.). Обеспечивает высокую эффективность в сложных задачах, понимании языка и создании текста, идеально подходит для профессионального использования.",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520 — последняя версия модели, разработанная для сложных и разнообразных задач с отличной производительностью.",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7 — флагманская модель от Zhipu AI. Улучшает возможности программирования, долгосрочного планирования задач и взаимодействия с инструментами в сценариях Agentic Coding, достигая лидирующих результатов среди моделей с открытым исходным кодом в различных публичных бенчмарках. Общие способности улучшены: ответы стали более лаконичными и естественными, а письмо — более захватывающим. В сложных агентных задачах улучшено следование инструкциям при вызове инструментов, а также эстетика интерфейса и эффективность выполнения долгосрочных задач. • Улучшенные возможности программирования: значительно улучшена многозадачная поддержка языков программирования и производительность терминальных агентов; GLM-4.7 реализует механизм «сначала подумай, потом действуй» в таких фреймворках, как Claude Code, Kilo Code, TRAE, Cline и Roo Code, с более стабильной работой на сложных задачах. • Улучшение эстетики интерфейса: GLM-4.7 демонстрирует значительный прогресс в качестве генерации интерфейсов, способна создавать сайты, презентации и постеры с лучшей визуальной привлекательностью. • Улучшенные вызовы инструментов: GLM-4.7 усиливает возможности вызова инструментов, набирая 67 баллов в оценке BrowseComp и 84.7 в τ²-Bench, превосходя Claude Sonnet 4.5 как SOTA среди open-source моделей. • Улучшенные способности к рассуждению: значительно улучшены математические и логические способности, 42.8% в HLE (\"Последний экзамен человечества\"), что на 41% выше, чем у GLM-4.6, и выше GPT-5.1. • Общие улучшения: диалоги GLM-4.7 стали более лаконичными, интеллектуальными и человечными; письмо и ролевая игра — более литературными и захватывающими.",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat демонстрирует высокие результаты в семантике, математике, логике, программировании и знаниях. Поддерживает веб-браузинг, выполнение кода, вызов пользовательских инструментов и рассуждение над длинными текстами. Поддерживает 26 языков, включая японский, корейский и немецкий.",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air — выгодный вариант с производительностью, близкой к GLM-4, высокой скоростью и низкой стоимостью.",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air — выгодный вариант с производительностью, близкой к GLM-4, высокой скоростью и низкой стоимостью.",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking — самая мощная известная ~10B VLM, охватывающая передовые задачи, такие как понимание видео, визуальные вопросы и ответы, решение предметных задач, OCR, чтение документов и графиков, GUI-агенты, фронтенд-кодирование и привязка. Превосходит даже 8 раз более крупную Qwen2.5-VL-72B по многим задачам. Использует цепочку рассуждений для повышения точности и объяснимости, превосходя традиционные модели без мышления.",
|
|
559
556
|
"glm-4.5-air.description": "Облегчённая версия GLM-4.5, обеспечивающая баланс между производительностью и стоимостью, с гибкими режимами гибридного мышления.",
|
|
560
557
|
"glm-4.5-airx.description": "GLM-4.5-AirX — ускоренная версия с быстрым откликом для масштабных и высокоскоростных сценариев.",
|
|
561
|
-
"glm-4.5-flash.description": "Бесплатная версия GLM-4.5 с высокой производительностью в задачах логики, программирования и агентных сценариев.",
|
|
562
558
|
"glm-4.5-x.description": "GLM-4.5 Fast — быстрая версия с производительностью до 100 токенов в секунду.",
|
|
563
559
|
"glm-4.5.description": "Флагманская модель Zhipu с переключаемыми режимами мышления, открытым исходным кодом и поддержкой контекста до 128K.",
|
|
564
560
|
"glm-4.5v.description": "Модель визуального логического вывода нового поколения от Zhipu с архитектурой MoE: 106B параметров, 12B активных. Достигает SOTA среди моделей аналогичного размера в задачах обработки изображений, видео, документов и GUI.",
|
|
565
561
|
"glm-4.6.description": "GLM-4.6 (355B) — последняя флагманская модель Zhipu, превосходящая предшественников в программировании, обработке длинных текстов, логике и агентных задачах. Особенно сопоставима с Claude Sonnet 4 по программированию, став лучшей кодовой моделью Китая.",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flash — модель уровня 30B SOTA, предлагающая баланс между производительностью и эффективностью. Улучшает программирование, долгосрочное планирование задач и взаимодействие с инструментами в сценариях Agentic Coding, достигая лидирующих результатов среди моделей аналогичного размера с открытым исходным кодом. При выполнении сложных задач интеллектуальных агентов демонстрирует лучшее следование инструкциям при вызове инструментов, а также улучшает эстетику интерфейса и эффективность выполнения долгосрочных задач в Artifacts и Agentic Coding.",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flash — модель уровня 30B SOTA, предлагающая баланс между производительностью и эффективностью. Улучшает программирование, долгосрочное планирование задач и взаимодействие с инструментами в сценариях Agentic Coding, достигая лидирующих результатов среди моделей аналогичного размера с открытым исходным кодом. При выполнении сложных задач интеллектуальных агентов демонстрирует лучшее следование инструкциям при вызове инструментов, а также улучшает эстетику интерфейса и эффективность выполнения долгосрочных задач в Artifacts и Agentic Coding.",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7 — новейшая флагманская модель Zhipu, оптимизированная для сценариев агентного программирования с улучшенными возможностями кода, долгосрочного планирования задач и взаимодействия с инструментами. Демонстрирует лидирующую производительность среди open-source моделей на множестве публичных бенчмарков. Общие возможности улучшены: ответы стали более лаконичными и естественными, а тексты — более выразительными. В сложных агентных задачах улучшено следование инструкциям при вызове инструментов, а также эстетика интерфейса и эффективность выполнения долгосрочных задач в Artifacts и Agentic Coding.",
|
|
567
565
|
"glm-4.description": "GLM-4 — предыдущая флагманская модель, выпущенная в январе 2024 года, теперь заменена более мощной GLM-4-0520.",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash ориентирована на эффективное понимание одиночных изображений в сценариях быстрого анализа, таких как обработка изображений в реальном времени или пакетная обработка.",
|
|
@@ -654,8 +652,8 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: уменьшенный и более дешевый вариант Codex, оптимизированный для агентных задач программирования.",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex: вариант GPT-5.1, оптимизированный для агентных задач программирования, включая сложные рабочие процессы с кодом и агентами в API ответов.",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 — флагманская модель, оптимизированная для программирования и агентных задач с настраиваемой глубиной рассуждений и поддержкой длинного контекста.",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat — вариант ChatGPT
|
|
658
|
-
"gpt-5.2-pro.description": "GPT-5.2
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat — это вариант ChatGPT (chat-latest) с последними улучшениями в области диалогов.",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 pro: более умный и точный вариант GPT-5.2 (только через Responses API), подходит для сложных задач и многошагового рассуждения.",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2 — флагманская модель для программирования и агентных рабочих процессов с улучшенными логическими способностями и поддержкой длинного контекста.",
|
|
660
658
|
"gpt-5.description": "Лучшая модель для междисциплинарного программирования и агентных задач. GPT-5 делает скачок в точности, скорости, логике, понимании контекста, структурированном мышлении и решении проблем.",
|
|
661
659
|
"gpt-audio.description": "GPT Audio — универсальная модель общения с поддержкой ввода и вывода аудио, доступная через API завершения чата.",
|
|
@@ -817,6 +815,12 @@
|
|
|
817
815
|
"meta-llama/llama-3.1-70b-instruct.description": "Последняя серия Meta Llama 3.1, вариант с 70 миллиардами параметров, обученный на инструкциях и оптимизированный для высококачественных диалогов. В отраслевых оценках показывает отличные результаты по сравнению с ведущими закрытыми моделями. (Доступна только для проверенных корпоративных клиентов.)",
|
|
818
816
|
"meta-llama/llama-3.1-8b-instruct.description": "Последняя серия Meta Llama 3.1, вариант с 8 миллиардами параметров, обученный на инструкциях, особенно быстр и эффективен. В отраслевых оценках демонстрирует отличные результаты, превосходя многие ведущие закрытые модели. (Доступна только для проверенных корпоративных клиентов.)",
|
|
819
817
|
"meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 поддерживает многоязычие и является одной из ведущих генеративных моделей.",
|
|
818
|
+
"meta-llama/llama-3.2-11b-vision-instruct.description": "LLaMA 3.2 разработан для задач, сочетающих зрение и текст. Превосходно справляется с описанием изображений и визуальными вопросами-ответами, объединяя генерацию языка и визуальное рассуждение.",
|
|
819
|
+
"meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
|
|
820
|
+
"meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2 разработан для задач, сочетающих зрение и текст. Превосходно справляется с описанием изображений и визуальными вопросами-ответами, объединяя генерацию языка и визуальное рассуждение.",
|
|
821
|
+
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 — самая продвинутая многоязычная модель Llama с открытым исходным кодом, обеспечивающая производительность, близкую к 405B, при очень низкой стоимости. Основана на архитектуре Transformer и улучшена с помощью SFT и RLHF для повышения полезности и безопасности. Вариант, настроенный на инструкции, оптимизирован для многоязычного чата и превосходит многие открытые и закрытые модели в отраслевых бенчмарках. Дата отсечения знаний: декабрь 2023.",
|
|
822
|
+
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 — самая продвинутая многоязычная модель Llama с открытым исходным кодом, обеспечивающая производительность, близкую к 405B, при очень низкой стоимости. Основана на архитектуре Transformer и улучшена с помощью SFT и RLHF для повышения полезности и безопасности. Вариант, настроенный на инструкции, оптимизирован для многоязычного чата и превосходит многие открытые и закрытые модели в отраслевых бенчмарках. Дата отсечения знаний: декабрь 2023.",
|
|
823
|
+
"meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct — самая крупная и мощная модель Llama 3.1 Instruct, высокоразвитая модель для диалогового рассуждения и генерации синтетических данных, а также прочная основа для дообучения в конкретных доменах. Многоязычные LLM Llama 3.1 — это набор предварительно обученных и настроенных на инструкции моделей генерации в размерах 8B, 70B и 405B (ввод текста/вывод текста). Модели, настроенные на инструкции, оптимизированы для многоязычного диалога и превосходят многие доступные открытые чат-модели в отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на разных языках. Модели, настроенные на инструкции, подходят для чатов в стиле помощника, а предварительно обученные модели — для более широких задач генерации естественного языка. Выводы Llama 3.1 также можно использовать для улучшения других моделей, включая генерацию и доработку синтетических данных. Llama 3.1 — это авторегрессионная модель Transformer с оптимизированной архитектурой. Настроенные версии используют SFT и RLHF для соответствия человеческим предпочтениям в полезности и безопасности.",
|
|
820
824
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
|
|
821
825
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
|
|
822
826
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
|
|
@@ -1043,7 +1047,6 @@
|
|
|
1043
1047
|
"z-ai/glm-4.5-air.description": "GLM 4.5 Air — легковесный вариант GLM 4.5 для сценариев с ограниченным бюджетом, при этом сохраняет сильные способности к рассуждению.",
|
|
1044
1048
|
"z-ai/glm-4.5.description": "GLM 4.5 — флагманская модель Z.AI с гибридным рассуждением, оптимизированная для инженерных задач и задач с длинным контекстом.",
|
|
1045
1049
|
"z-ai/glm-4.6.description": "GLM 4.6 — флагманская модель Z.AI с расширенной длиной контекста и улучшенными возможностями программирования.",
|
|
1046
|
-
"zai-glm-4.6.description": "Отлично справляется с задачами программирования и рассуждений, поддерживает потоковую передачу и вызов инструментов, подходит для агентного программирования и сложных рассуждений.",
|
|
1047
1050
|
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air — базовая модель для агентных приложений с архитектурой Mixture-of-Experts. Оптимизирована для использования инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, интегрируется с агентами кода, такими как Claude Code и Roo Code. Использует гибридное рассуждение для решения как сложных, так и повседневных задач.",
|
|
1048
1051
|
"zai-org/GLM-4.5.description": "GLM-4.5 — базовая модель, созданная для агентных приложений с архитектурой Mixture-of-Experts. Глубоко оптимизирована для использования инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, интегрируется с агентами кода, такими как Claude Code и Roo Code. Использует гибридное рассуждение для решения как сложных, так и повседневных задач.",
|
|
1049
1052
|
"zai-org/GLM-4.5V.description": "GLM-4.5V — последняя мультимодальная модель Zhipu AI, построенная на флагманской текстовой модели GLM-4.5-Air (106B всего, 12B активно) с архитектурой MoE для высокой производительности при низкой стоимости. Следует пути GLM-4.1V-Thinking и добавляет 3D-RoPE для улучшения пространственного 3D-рассуждения. Оптимизирована через предобучение, SFT и RL, обрабатывает изображения, видео и длинные документы, занимает лидирующие позиции среди открытых моделей на 41 мультимодальном бенчмарке. Переключатель Thinking mode позволяет пользователям выбирать между скоростью и глубиной.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
|
|
30
30
|
"jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
|
|
31
31
|
"lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
|
|
33
32
|
"minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
|
|
35
34
|
"modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",
|
|
@@ -34,11 +34,20 @@
|
|
|
34
34
|
"agentCronJobs.empty.description": "Создайте свою первую запланированную задачу для автоматизации агента",
|
|
35
35
|
"agentCronJobs.empty.title": "Запланированные задачи отсутствуют",
|
|
36
36
|
"agentCronJobs.enable": "Включить",
|
|
37
|
+
"agentCronJobs.form.at": "в",
|
|
37
38
|
"agentCronJobs.form.content.placeholder": "Введите запрос или инструкцию для агента",
|
|
39
|
+
"agentCronJobs.form.every": "Каждый",
|
|
40
|
+
"agentCronJobs.form.frequency": "Частота",
|
|
41
|
+
"agentCronJobs.form.hours": "час(ов)",
|
|
42
|
+
"agentCronJobs.form.maxExecutions": "Остановить после",
|
|
38
43
|
"agentCronJobs.form.maxExecutions.placeholder": "Оставьте пустым для неограниченного количества",
|
|
39
44
|
"agentCronJobs.form.name.placeholder": "Введите название задачи",
|
|
45
|
+
"agentCronJobs.form.time": "Время",
|
|
40
46
|
"agentCronJobs.form.timeRange.end": "Время окончания",
|
|
41
47
|
"agentCronJobs.form.timeRange.start": "Время начала",
|
|
48
|
+
"agentCronJobs.form.times": "раз(а)",
|
|
49
|
+
"agentCronJobs.form.timezone": "Часовой пояс",
|
|
50
|
+
"agentCronJobs.form.unlimited": "Выполнять непрерывно",
|
|
42
51
|
"agentCronJobs.form.validation.contentRequired": "Необходимо указать содержимое задачи",
|
|
43
52
|
"agentCronJobs.form.validation.invalidTimeRange": "Время начала должно быть раньше времени окончания",
|
|
44
53
|
"agentCronJobs.form.validation.nameRequired": "Необходимо указать название задачи",
|
|
@@ -83,6 +92,13 @@
|
|
|
83
92
|
"agentCronJobs.weekday.tuesday": "Вторник",
|
|
84
93
|
"agentCronJobs.weekday.wednesday": "Среда",
|
|
85
94
|
"agentCronJobs.weekdays": "Будние дни",
|
|
95
|
+
"agentCronJobs.weekdays.fri": "Пт",
|
|
96
|
+
"agentCronJobs.weekdays.mon": "Пн",
|
|
97
|
+
"agentCronJobs.weekdays.sat": "Сб",
|
|
98
|
+
"agentCronJobs.weekdays.sun": "Вс",
|
|
99
|
+
"agentCronJobs.weekdays.thu": "Чт",
|
|
100
|
+
"agentCronJobs.weekdays.tue": "Вт",
|
|
101
|
+
"agentCronJobs.weekdays.wed": "Ср",
|
|
86
102
|
"agentInfoDescription.basic.avatar": "Аватар",
|
|
87
103
|
"agentInfoDescription.basic.description": "Описание",
|
|
88
104
|
"agentInfoDescription.basic.name": "Имя",
|
|
@@ -8,6 +8,7 @@
|
|
|
8
8
|
"codes.DELETED_ACCOUNT_EMAIL": "Bu e-posta silinmiş bir hesapla ilişkilendirilmiş ve kayıt için kullanılamaz",
|
|
9
9
|
"codes.EMAIL_CAN_NOT_BE_UPDATED": "Bu hesabın e-posta adresi güncellenemez",
|
|
10
10
|
"codes.EMAIL_NOT_ALLOWED": "Bu e-posta adresi kayıt için uygun değil",
|
|
11
|
+
"codes.EMAIL_NOT_FOUND": "Bu hesaba bağlı bir e-posta bulunamadı. Lütfen hesabınıza bir e-posta adresi bağlı olup olmadığını kontrol edin.",
|
|
11
12
|
"codes.EMAIL_NOT_VERIFIED": "Lütfen önce e-posta adresinizi doğrulayın",
|
|
12
13
|
"codes.FAILED_TO_CREATE_SESSION": "Oturum oluşturulamadı",
|
|
13
14
|
"codes.FAILED_TO_CREATE_USER": "Kullanıcı oluşturulamadı",
|
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "7B parametreli bir model olup, Phi-3-mini'den daha yüksek kaliteye sahiptir ve akıl yürütme yoğun veriler üzerine odaklanır.",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Phi-3-mini modelinin güncellenmiş versiyonudur.",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Phi-3-vision modelinin güncellenmiş versiyonudur.",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1, açık kaynaklı bir büyük dil modeli olup, ajan yetenekleri için optimize edilmiştir. Programlama, araç kullanımı, talimatlara uyum ve uzun vadeli planlama konularında üstün performans sergiler. Model, çok dilli yazılım geliştirme ve karmaşık çok adımlı iş akışlarını yürütme desteği sunar. SWE-bench Verified testinde 74.0 puan alarak Claude Sonnet 4.5’i çok dilli senaryolarda geride bırakmıştır.",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct, Qwen2 serisinde yer alan 7B parametreli, yönergeye göre ayarlanmış bir büyük dil modelidir. Transformer mimarisi, SwiGLU, dikkat QKV önyargısı ve gruplandırılmış sorgu dikkat mekanizması kullanır; büyük girişleri işleyebilir. Dil anlama, üretim, çok dilli görevler, kodlama, matematik ve akıl yürütme alanlarında güçlü performans gösterir. Çoğu açık modeli geride bırakır ve özel modellerle rekabet eder. Qwen1.5-7B-Chat modelini birçok ölçüt üzerinde geçmiştir.",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct, Alibaba Cloud’un en yeni büyük dil modeli serisinin bir parçasıdır. 7B modeli, kodlama ve matematikte önemli kazanımlar sağlar, 29'dan fazla dili destekler ve yönerge takibi, yapılandırılmış veri anlama ve yapılandırılmış çıktı (özellikle JSON) üretiminde gelişmiştir.",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct, Alibaba Cloud’un en yeni kod odaklı büyük dil modelidir. Qwen2.5 üzerine inşa edilmiştir ve 5.5T token ile eğitilmiştir. Kod üretimi, akıl yürütme ve hata düzeltmede önemli gelişmeler sunar; matematik ve genel yetenekleri koruyarak kodlama ajanları için sağlam bir temel sağlar.",
|
|
@@ -271,21 +272,21 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.",
|
|
272
273
|
"claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
|
|
273
274
|
"claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic’in en hızlı yeni nesil modelidir. Claude 3 Haiku’ya kıyasla tüm yeteneklerde gelişme gösterir ve önceki en büyük model olan Claude 3 Opus’u birçok zeka testinde geride bırakır.",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet, Anthropic’in en zeki modeli olup, piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar verebilir veya kullanıcıların görebileceği şekilde adım adım akıl yürütme sunabilir. Özellikle kodlama, veri bilimi, görsel analiz ve ajan görevlerinde güçlüdür.",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic’in en hızlı ve en zeki Haiku modelidir; yıldırım hızında yanıtlar ve gelişmiş akıl yürütme sunar.",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
|
|
283
|
-
"claude-opus-4-1-20250805.description": "Claude Opus 4.1, Anthropic
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4, Anthropic
|
|
284
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1, Anthropic’in en yeni ve en yetenekli modelidir. Karmaşık görevlerde üstün performans, zeka, akıcılık ve anlama kabiliyeti sunar.",
|
|
285
|
+
"claude-opus-4-20250514.description": "Claude Opus 4, Anthropic’in karmaşık görevler için en güçlü modelidir. Performans, zeka, akıcılık ve kavrama açısından üst düzeydir.",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4,
|
|
288
|
-
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar verebilir veya görünür adımlarla derinlemesine düşünme süreci sunabilir.",
|
|
289
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic’in bugüne kadarki en zeki modelidir.",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
|
|
291
292
|
"codegemma.description": "CodeGemma, hızlı yineleme ve entegrasyon sağlayan hafif bir programlama modelidir.",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp, bir sonraki mimariye geçişi sağlayan deneysel V3.2 sürümüdür. V3.1-Terminus üzerine DeepSeek Sparse Attention (DSA) ekleyerek uzun bağlamlı eğitim ve çıkarım verimliliğini artırır. Araç kullanımı, uzun belge anlama ve çok adımlı akıl yürütme için optimize edilmiştir. Geniş bağlam bütçeleriyle daha yüksek akıl yürütme verimliliğini keşfetmek için idealdir.",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3, MLA ve DeepSeekMoE kullanan 671B parametreli bir MoE modelidir. Kayıpsız yük dengelemesiyle verimli eğitim ve çıkarım sağlar. 14.8T yüksek kaliteli token ile önceden eğitilmiş, SFT ve RL ile güçlendirilmiştir; diğer açık modelleri geride bırakır ve önde gelen kapalı modellere yaklaşır.",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B), derin dil anlama ve etkileşim sunan yenilikçi bir modeldir.",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "Akıl yürütme, matematik ve programlamada güçlü, son teknoloji verimli bir LLM.",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2, DeepSeekMoE-27B tabanlı, seyrek etkinleştirme kullanan bir MoE görsel-dil modelidir. Sadece 4.5B aktif parametreyle güçlü performans sunar. Görsel Soru-Cevap, OCR, belge/tablo/grafik anlama ve görsel eşleme konularında öne çıkar.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Genel ve kodlama yeteneklerini birleştiren yeni bir açık kaynaklı model. Sohbet modelinin genel diyalog yeteneklerini ve kodlayıcı modelin güçlü kodlama becerilerini korur, tercih uyumunu geliştirir. DeepSeek-V2.5 ayrıca yazma ve talimatlara uyum konularında da gelişmiştir.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar; proje düzeyinde kod tamamlama ve kod parçacığı doldurma sağlar.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenek ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.",
|
|
379
379
|
"deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramasına sahip DeepSeek R1 tam sürüm; güçlü anlama ve üretim sunar.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verileri kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans sunar.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 düşünme modu, doğruluğu artırmak için nihai cevaptan önce düşünce zinciri üretir.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi sunan DeepSeek’in kod odaklı modelidir.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K, basit QA, sınıflandırma ve düşük maliyetli çıkarım için ultra hafif bir modeldir.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K, karmaşık akıl yürütme ve çoklu dönüşlü sohbetler için 32K bağlamlı hızlı düşünme modelidir.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Önizleme, değerlendirme ve test için bir düşünme modeli önizlemesidir.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "ByteDance Seed tarafından geliştirilen Seedream 4.0, metin ve görsel girdileri destekleyerek yönlendirmelerden yüksek kaliteli ve kontrol edilebilir görseller üretir.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ByteDance Seed tarafından geliştirilen bir görsel üretim modelidir. Metin ve görsel girdileri destekler, yüksek kaliteli ve kontrol edilebilir görseller üretir. Metin istemlerinden görseller oluşturur.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 modeli, metin ve görsel girdileri destekleyen görsel düzenleme odaklı bir modeldir.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro], metin ve referans görselleri girdi olarak alarak hedefe yönelik yerel düzenlemeler ve karmaşık sahne dönüşümleri sağlar.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev], daha gerçekçi ve doğal görseller üretmeye eğilimli estetik önyargıya sahip bir görsel üretim modelidir.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "Güçlü bir yerel çok modlu görsel üretim modelidir.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "Google tarafından geliştirilen yüksek kaliteli görsel üretim modeli.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma yoluyla görsel üretim ve düzenleme sağlar.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Qwen
|
|
485
|
-
"fal-ai/qwen-image.description": "Qwen ekibinden güçlü bir görsel üretim modeli
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Qwen ekibi tarafından geliştirilen profesyonel bir görsel düzenleme modelidir. Anlamsal ve görsel düzenlemeleri destekler, Çince ve İngilizce metinleri hassas şekilde düzenler, stil aktarımı ve nesne döndürme gibi yüksek kaliteli düzenlemeler yapabilir.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Qwen ekibinden güçlü bir görsel üretim modeli. Çince metin işleme ve çeşitli görsel stillerde etkileyici performans sunar.",
|
|
486
485
|
"flux-1-schnell.description": "Black Forest Labs tarafından geliştirilen 12 milyar parametreli metinden görsele model. Latent adversarial diffusion distillation yöntemiyle 1-4 adımda yüksek kaliteli görseller üretir. Kapalı kaynaklı alternatiflerle rekabet eder ve kişisel, araştırma ve ticari kullanım için Apache-2.0 lisansı ile sunulur.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev], açık ağırlıklı ve ticari olmayan kullanım için damıtılmış bir modeldir. Neredeyse profesyonel görsel kalitesini ve yönerge takibini korurken daha verimli çalışır ve aynı boyuttaki standart modellere göre kaynakları daha iyi kullanır.",
|
|
488
487
|
"flux-kontext-max.description": "Metin ve görselleri birleştirerek hassas ve tutarlı sonuçlar sunan son teknoloji bağlamsal görsel üretim ve düzenleme.",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash, olağanüstü hız, yerel araç kullanımı, çok modlu üretim ve 1M-token bağlam penceresi gibi yeni nesil özellikler sunar.",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; sohbet tabanlı görsel üretim ve düzenlemeyi mümkün kılar.",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; sohbet tabanlı görsel üretim ve düzenlemeyi mümkün kılar.",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma tabanlı görsel üretim ve düzenleme sağlar.",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma tabanlı görsel üretim ve düzenleme sağlar.",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview, Google’ın büyük ölçekli kullanım için tasarlanmış en küçük ve en uygun fiyatlı modelidir.",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max, web arama ve birçok yerleşik eklentiyi destekleyen en kapsamlı sürümdür. Tam optimize edilmiş çekirdek yetenekleri, sistem rolleri ve işlev çağrıları sayesinde karmaşık uygulama senaryolarında mükemmel performans sunar.",
|
|
544
541
|
"generalv3.description": "Spark Pro, profesyonel alanlar için optimize edilmiş yüksek performanslı bir LLM'dir. Matematik, programlama, sağlık ve eğitim alanlarına odaklanır; hava durumu ve tarih gibi yerleşik eklentilerle birlikte web aramasını destekler. Karmaşık bilgi soruları, dil anlama ve ileri düzey metin üretiminde güçlü performans ve verimlilik sunar, bu da onu profesyonel kullanım senaryoları için ideal kılar.",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520, son derece karmaşık ve çeşitli görevler için tasarlanmış en yeni model sürümüdür ve üstün performans sunar.",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7, Zhipu AI’nin en yeni amiral gemisi modelidir. Kodlama yetenekleri, uzun vadeli görev planlaması ve araç iş birliği konularında gelişmiştir. Açık kaynaklı modeller arasında birçok kamuya açık testte lider performans sergiler. Genel yetenekleri artırılmış, yanıtlar daha doğal ve yazım daha etkileyici hale getirilmiştir. Karmaşık ajan görevlerinde araç çağrısı sırasında talimatlara uyum güçlendirilmiş, Artifacts ve Agentic Coding arayüzlerinin estetiği ve uzun vadeli görev tamamlama verimliliği artırılmıştır. • Gelişmiş programlama yetenekleri: Çok dilli kodlama ve terminal ajan performansı önemli ölçüde iyileştirilmiştir. GLM-4.7, Claude Code, Kilo Code, TRAE, Cline ve Roo Code gibi çerçevelerde \"önce düşün, sonra uygula\" mekanizmalarını destekler. • Arayüz estetiği: Web sitesi, sunum ve afiş gibi ön yüz içeriklerinde daha iyi görsel kalite sunar. • Gelişmiş araç çağırma: BrowseComp testinde 67, τ²-Bench testinde 84.7 puan alarak Claude Sonnet 4.5’i geride bırakmıştır. • Akıl yürütme yeteneği: HLE testinde %42.8 başarı ile GLM-4.6’ya göre %41 artış göstermiş, GPT-5.1’i geçmiştir. • Genel yetenekler: Sohbetler daha kısa, zeki ve insancıl; yazım ve rol yapma daha edebi ve etkileyicidir.",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat, anlambilim, matematik, akıl yürütme, kodlama ve bilgi alanlarında güçlü performans gösterir. Web tarama, kod yürütme, özel araç çağırma ve uzun metin akıl yürütme desteği sunar. Japonca, Korece ve Almanca dahil olmak üzere 26 dili destekler.",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air, GLM-4'e yakın performans, yüksek hız ve düşük maliyet sunan yüksek değerli bir seçenektir.",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air, GLM-4'e yakın performans, yüksek hız ve düşük maliyet sunan yüksek değerli bir seçenektir.",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking, bilinen en güçlü ~10B VLM'dir. Video anlama, görsel soru-cevap, konu çözme, OCR, belge ve grafik okuma, GUI ajanları, ön yüz kodlama ve temellendirme gibi SOTA görevleri kapsar. 8 kat daha büyük olan Qwen2.5-VL-72B'yi birçok görevde geride bırakır. Gelişmiş pekiştirmeli öğrenme ile düşünce zinciri akıl yürütmesi kullanarak doğruluk ve zenginliği artırır. Geleneksel düşünmeyen modellere göre hem sonuçlarda hem de açıklanabilirlikte üstündür.",
|
|
559
556
|
"glm-4.5-air.description": "GLM-4.5 hafif sürümüdür. Performans ve maliyet arasında denge sağlar ve esnek hibrit düşünme modları sunar.",
|
|
560
557
|
"glm-4.5-airx.description": "GLM-4.5-Air hızlı sürümüdür. Yüksek ölçekli ve yüksek hızlı kullanım için daha hızlı yanıtlar sunar.",
|
|
561
|
-
"glm-4.5-flash.description": "GLM-4.5'in ücretsiz katmanı; akıl yürütme, kodlama ve ajan görevlerinde güçlü performans sunar.",
|
|
562
558
|
"glm-4.5-x.description": "GLM-4.5 hızlı sürümüdür. 100 token/sn'ye kadar üretim hızıyla güçlü performans sunar.",
|
|
563
559
|
"glm-4.5.description": "Zhipu'nun amiral gemisi modeli; değiştirilebilir düşünme moduna sahiptir. Açık kaynaklı SOTA genel performans sunar ve 128K bağlam desteği sağlar.",
|
|
564
560
|
"glm-4.5v.description": "Zhipu’nun yeni nesil MoE görsel akıl yürütme modeli; toplam 106B parametreye ve 12B aktif parametreye sahiptir. Görüntü, video, belge anlama ve GUI görevlerinde benzer boyuttaki açık kaynaklı çok modlu modeller arasında SOTA başarımı elde eder.",
|
|
565
561
|
"glm-4.6.description": "Zhipu'nun en yeni amiral gemisi modeli GLM-4.6 (355B), gelişmiş kodlama, uzun metin işleme, akıl yürütme ve ajan yeteneklerinde önceki sürümleri tamamen geride bırakır. Özellikle Claude Sonnet 4 ile programlama yeteneği açısından uyumludur ve Çin'in en iyi Kodlama modeli haline gelmiştir.",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flash, 30B seviyesinde SOTA bir model olarak performans ve verimlilik arasında denge sunar. Kodlama, uzun vadeli görev planlaması ve araç iş birliği konularında gelişmiştir. Karmaşık ajan görevlerinde araç çağrısı sırasında daha güçlü talimat uyumu sağlar, ön yüz estetiğini ve uzun vadeli görev tamamlama verimliliğini artırır.",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flash, 30B seviyesinde SOTA bir model olarak performans ve verimlilik arasında denge sunar. Kodlama, uzun vadeli görev planlaması ve araç iş birliği konularında gelişmiştir. Karmaşık ajan görevlerinde araç çağrısı sırasında daha güçlü talimat uyumu sağlar, ön yüz estetiğini ve uzun vadeli görev tamamlama verimliliğini artırır.",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7, Zhipu'nun en yeni amiral gemisi modelidir. Ajan Tabanlı Kodlama senaryoları için geliştirilmiş kodlama yetenekleri, uzun vadeli görev planlaması ve araç iş birliği sunar. Birçok kamuya açık ölçüt üzerinde açık kaynaklı modeller arasında lider performans sergiler. Genel yetenekleri daha özlü ve doğal yanıtlar ile daha etkileyici yazım deneyimiyle geliştirilmiştir. Karmaşık ajan görevlerinde, araç çağrısı sırasında talimatlara uyum daha güçlüdür. Artifacts ve Ajan Tabanlı Kodlama'nın ön yüz estetiği ve uzun vadeli görev tamamlama verimliliği daha da iyileştirilmiştir.",
|
|
567
565
|
"glm-4.description": "GLM-4, Ocak 2024'te piyasaya sürülen eski amiral gemisidir. Şimdi daha güçlü GLM-4-0520 ile değiştirilmiştir.",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash, tek görüntü anlama üzerine odaklanır. Gerçek zamanlı veya toplu görüntü işleme gibi hızlı analiz senaryoları için uygundur.",
|
|
@@ -654,8 +652,8 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: ajan tabanlı kodlama görevleri için optimize edilmiş daha küçük ve düşük maliyetli Codex varyantı.",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex: Yanıtlar API'sinde karmaşık kod/ajan iş akışları için ajan tabanlı kodlama görevlerine optimize edilmiş bir GPT-5.1 varyantı.",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 — kodlama ve ajan görevleri için optimize edilmiş, yapılandırılabilir akıl yürütme gücüne ve uzun bağlam desteğine sahip amiral gemisi model.",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat, en
|
|
658
|
-
"gpt-5.2-pro.description": "GPT-5.2
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat, en son sohbet geliştirmeleri için optimize edilmiş ChatGPT varyantıdır (chat-latest).",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 pro: Daha zeki ve hassas bir GPT-5.2 varyantı (yalnızca Responses API), zorlu problemler ve uzun çok adımlı akıl yürütme için uygundur.",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2, güçlü akıl yürütme ve uzun bağlam performansı ile kodlama ve ajan iş akışları için amiral gemisi modeldir.",
|
|
660
658
|
"gpt-5.description": "Alanlar arası kodlama ve ajan görevleri için en iyi model. GPT-5, doğruluk, hız, akıl yürütme, bağlam farkındalığı, yapılandırılmış düşünme ve problem çözmede büyük ilerlemeler sunar.",
|
|
661
659
|
"gpt-audio.description": "GPT Audio, Chat Completions API'de ses girdi/çıktısını destekleyen genel bir sohbet modelidir.",
|
|
@@ -916,6 +914,25 @@
|
|
|
916
914
|
"moonshot-v1-8k-vision-preview.description": "Kimi görsel modelleri (moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview dahil) metin, renkler ve nesne şekilleri gibi görüntü içeriklerini anlayabilir.",
|
|
917
915
|
"moonshot-v1-8k.description": "Moonshot V1 8K, kısa sohbetler, notlar ve hızlı içerikler için 8.192 tokene kadar kısa metin üretimiyle optimize edilmiştir.",
|
|
918
916
|
"moonshot-v1-auto.description": "Moonshot V1 Auto, mevcut bağlam token kullanımına göre uygun modeli otomatik olarak seçer.",
|
|
917
|
+
"moonshotai/Kimi-Dev-72B.description": "Kimi-Dev-72B, büyük ölçekli pekiştirmeli öğrenme ile optimize edilmiş açık kaynaklı bir kod LLM’dir. SWE-bench Verified testinde %60.4 puan alarak hata düzeltme ve kod inceleme gibi otomatik yazılım mühendisliği görevlerinde açık model rekoru kırmıştır.",
|
|
918
|
+
"moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905, Kimi K2 serisinin en yeni ve en güçlü modelidir. 1T toplam ve 32B aktif parametreye sahip üst düzey bir MoE modelidir. Gelişmiş ajan kodlama zekası, ön yüz kodlama estetiği ve kullanılabilirliği ile öne çıkar.",
|
|
919
|
+
"moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking, çok adımlı akıl yürütme derinliğini büyük ölçüde artıran ve 200–300 ardışık araç çağrısında kararlılığı koruyan en yeni ve en güçlü açık kaynaklı düşünme modelidir. Kodlama, matematik, mantık ve ajan senaryolarında üstündür. ~1T parametreli MoE mimarisi üzerine kuruludur, 256K bağlam penceresi ve araç çağırma desteği sunar.",
|
|
920
|
+
"moonshotai/kimi-k2-0711.description": "Kimi K2 0711, Kimi serisinin talimat odaklı varyantıdır; yüksek kaliteli kodlama ve araç kullanımı için uygundur.",
|
|
921
|
+
"moonshotai/kimi-k2-0905.description": "Kimi K2 0905, bağlam ve akıl yürütme performansını artıran, kodlama optimizasyonları içeren bir güncellemedir.",
|
|
922
|
+
"moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-preview modeli, 256K bağlam penceresini destekler; daha güçlü ajan kodlama, daha rafine ve pratik ön yüz kodu ve daha iyi bağlam anlama sunar.",
|
|
923
|
+
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo, Kimi K2 Thinking’in yüksek hızlı versiyonudur; gecikmeyi önemli ölçüde azaltırken derin akıl yürütmeyi korur.",
|
|
924
|
+
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking, Moonshot’un derin akıl yürütme görevleri için optimize edilmiş düşünme modelidir; genel ajan yeteneklerine sahiptir.",
|
|
925
|
+
"moonshotai/kimi-k2.description": "Kimi K2, Moonshot AI tarafından geliştirilen büyük bir MoE modelidir. 1T toplam parametre ve her geçişte 32B aktif parametre ile gelişmiş araç kullanımı, akıl yürütme ve kod üretimi gibi ajan yetenekleri için optimize edilmiştir.",
|
|
926
|
+
"morph/morph-v3-fast.description": "Morph, öncü modellerin (ör. Claude veya GPT-4o) önerdiği kod değişikliklerini mevcut dosyalarınıza uygulayan özel bir modeldir. FAST 4500+ token/sn hızında çalışır. 16k giriş/çıkış token desteğiyle AI kodlama iş akışının son adımıdır.",
|
|
927
|
+
"morph/morph-v3-large.description": "Morph, öncü modellerin (ör. Claude veya GPT-4o) önerdiği kod değişikliklerini mevcut dosyalarınıza uygulayan özel bir modeldir. FAST 2500+ token/sn hızında çalışır. 16k giriş/çıkış token desteğiyle AI kodlama iş akışının son adımıdır.",
|
|
928
|
+
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B, en son dahili veri kümeleriyle güncellenmiş Nous Hermes 2 sürümüdür.",
|
|
929
|
+
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B, NVIDIA tarafından özelleştirilmiş bir LLM’dir. Arena Hard, AlpacaEval 2 LC ve GPT-4-Turbo MT-Bench testlerinde 1. sırada yer alır. Llama-3.1-70B-Instruct modelinden RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward ve HelpSteer2-Preference istemleriyle eğitilmiştir.",
|
|
930
|
+
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Olağanüstü doğruluk ve verimlilik sunan özgün bir dil modelidir.",
|
|
931
|
+
"nvidia/llama-3.1-nemotron-70b-instruct.description": "Llama-3.1-Nemotron-70B-Instruct, LLM yanıtlarının yardımseverliğini artırmak için NVIDIA tarafından özelleştirilmiş bir modeldir.",
|
|
932
|
+
"o1-mini.description": "o1-preview'den daha küçük ve hızlıdır, %80 daha düşük maliyetlidir. Kod üretimi ve kısa bağlamlı görevlerde güçlüdür.",
|
|
933
|
+
"o1-preview.description": "İleri düzey akıl yürütme ve karmaşık problem çözme (matematik ve bilim dahil) odaklıdır. Derin bağlam anlayışı ve otonom iş akışları gerektiren uygulamalar için idealdir.",
|
|
934
|
+
"o1-pro.description": "o1 serisi, yanıtlamadan önce düşünmek ve karmaşık akıl yürütmeyi yönetmek için pekiştirmeli öğrenme ile eğitilmiştir. o1-pro, daha fazla hesaplama gücü kullanarak daha derin düşünme ve tutarlı yüksek kaliteli yanıtlar sunar.",
|
|
935
|
+
"o1.description": "o1, metin+görsel girdi ve metin çıktısı ile çalışan, karmaşık görevler için geniş bilgi gerektiren OpenAI’nin yeni akıl yürütme modelidir. 200K bağlam penceresi ve Ekim 2023 bilgi kesimi vardır.",
|
|
919
936
|
"openai/gpt-5-codex.description": "GPT-5-Codex, kodlama ve büyük ölçekli kod iş akışları için daha da optimize edilmiş bir GPT-5 varyantıdır.",
|
|
920
937
|
"openai/gpt-5-mini.description": "GPT-5 Mini, düşük gecikme süresi ve düşük maliyetli senaryolar için daha küçük bir GPT-5 varyantıdır.",
|
|
921
938
|
"openai/gpt-5-nano.description": "GPT-5 Nano, maliyet ve gecikme açısından katı kısıtlamalara sahip senaryolar için ultra küçük varyanttır.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Büyük model araştırmaları ve araçları üzerine odaklanan açık kaynaklı bir organizasyon. En son modelleri ve algoritmaları erişilebilir kılan verimli ve kullanıcı dostu bir platform sağlar.",
|
|
30
30
|
"jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.",
|
|
31
31
|
"lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud, yapay zeka modellerine erişmek için resmi API'leri kullanır ve kullanım miktarını model jetonlarına bağlı Krediler ile ölçer.",
|
|
33
32
|
"minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.",
|
|
34
33
|
"mistral.description": "Mistral, karmaşık akıl yürütme, çok dilli görevler ve kod üretimi için gelişmiş genel, özel ve araştırma modelleri sunar. Özelleştirilmiş entegrasyonlar için işlev çağrısını destekler.",
|
|
35
34
|
"modelscope.description": "ModelScope, Alibaba Cloud’un model-hizmet olarak sunduğu platformudur. Geniş bir yapay zeka modeli ve çıkarım hizmeti yelpazesi sunar.",
|
|
@@ -34,11 +34,20 @@
|
|
|
34
34
|
"agentCronJobs.empty.description": "Ajanınızı otomatikleştirmek için ilk zamanlanmış görevinizi oluşturun",
|
|
35
35
|
"agentCronJobs.empty.title": "Henüz zamanlanmış görev yok",
|
|
36
36
|
"agentCronJobs.enable": "Etkinleştir",
|
|
37
|
+
"agentCronJobs.form.at": "saat",
|
|
37
38
|
"agentCronJobs.form.content.placeholder": "Ajan için komut veya talimat girin",
|
|
39
|
+
"agentCronJobs.form.every": "Her",
|
|
40
|
+
"agentCronJobs.form.frequency": "Sıklık",
|
|
41
|
+
"agentCronJobs.form.hours": "saat",
|
|
42
|
+
"agentCronJobs.form.maxExecutions": "Şu kadar çalışmadan sonra dur",
|
|
38
43
|
"agentCronJobs.form.maxExecutions.placeholder": "Sınırsız için boş bırakın",
|
|
39
44
|
"agentCronJobs.form.name.placeholder": "Görev adını girin",
|
|
45
|
+
"agentCronJobs.form.time": "Zaman",
|
|
40
46
|
"agentCronJobs.form.timeRange.end": "Bitiş Zamanı",
|
|
41
47
|
"agentCronJobs.form.timeRange.start": "Başlangıç Zamanı",
|
|
48
|
+
"agentCronJobs.form.times": "kez",
|
|
49
|
+
"agentCronJobs.form.timezone": "Zaman dilimi",
|
|
50
|
+
"agentCronJobs.form.unlimited": "Sürekli çalıştır",
|
|
42
51
|
"agentCronJobs.form.validation.contentRequired": "Görev içeriği gereklidir",
|
|
43
52
|
"agentCronJobs.form.validation.invalidTimeRange": "Başlangıç zamanı, bitiş zamanından önce olmalıdır",
|
|
44
53
|
"agentCronJobs.form.validation.nameRequired": "Görev adı gereklidir",
|
|
@@ -83,6 +92,13 @@
|
|
|
83
92
|
"agentCronJobs.weekday.tuesday": "Salı",
|
|
84
93
|
"agentCronJobs.weekday.wednesday": "Çarşamba",
|
|
85
94
|
"agentCronJobs.weekdays": "Haftaiçi Günleri",
|
|
95
|
+
"agentCronJobs.weekdays.fri": "Cum",
|
|
96
|
+
"agentCronJobs.weekdays.mon": "Pzt",
|
|
97
|
+
"agentCronJobs.weekdays.sat": "Cmt",
|
|
98
|
+
"agentCronJobs.weekdays.sun": "Paz",
|
|
99
|
+
"agentCronJobs.weekdays.thu": "Per",
|
|
100
|
+
"agentCronJobs.weekdays.tue": "Sal",
|
|
101
|
+
"agentCronJobs.weekdays.wed": "Çar",
|
|
86
102
|
"agentInfoDescription.basic.avatar": "Avatar",
|
|
87
103
|
"agentInfoDescription.basic.description": "Açıklama",
|
|
88
104
|
"agentInfoDescription.basic.name": "İsim",
|
|
@@ -8,6 +8,7 @@
|
|
|
8
8
|
"codes.DELETED_ACCOUNT_EMAIL": "Email này đã được liên kết với một tài khoản đã bị xóa và không thể sử dụng để đăng ký",
|
|
9
9
|
"codes.EMAIL_CAN_NOT_BE_UPDATED": "Không thể cập nhật email cho tài khoản này",
|
|
10
10
|
"codes.EMAIL_NOT_ALLOWED": "Email này không được phép sử dụng để đăng ký",
|
|
11
|
+
"codes.EMAIL_NOT_FOUND": "Không tìm thấy email liên kết với tài khoản này. Vui lòng kiểm tra xem tài khoản của bạn đã được liên kết với email chưa.",
|
|
11
12
|
"codes.EMAIL_NOT_VERIFIED": "Vui lòng xác minh email trước",
|
|
12
13
|
"codes.FAILED_TO_CREATE_SESSION": "Không thể tạo phiên đăng nhập",
|
|
13
14
|
"codes.FAILED_TO_CREATE_USER": "Không thể tạo người dùng",
|