@lobehub/lobehub 2.0.0-next.201 → 2.0.0-next.202
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/chat.json +2 -0
- package/locales/ar/models.json +64 -7
- package/locales/ar/plugin.json +2 -1
- package/locales/ar/providers.json +1 -0
- package/locales/bg-BG/chat.json +2 -0
- package/locales/bg-BG/models.json +49 -5
- package/locales/bg-BG/plugin.json +2 -1
- package/locales/bg-BG/providers.json +1 -0
- package/locales/de-DE/chat.json +2 -0
- package/locales/de-DE/models.json +36 -7
- package/locales/de-DE/plugin.json +2 -1
- package/locales/de-DE/providers.json +1 -0
- package/locales/en-US/chat.json +2 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/plugin.json +2 -1
- package/locales/en-US/providers.json +1 -0
- package/locales/es-ES/chat.json +2 -0
- package/locales/es-ES/models.json +106 -7
- package/locales/es-ES/plugin.json +2 -1
- package/locales/es-ES/providers.json +1 -0
- package/locales/fa-IR/chat.json +2 -0
- package/locales/fa-IR/models.json +83 -5
- package/locales/fa-IR/plugin.json +2 -1
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fr-FR/chat.json +2 -0
- package/locales/fr-FR/models.json +38 -7
- package/locales/fr-FR/plugin.json +2 -1
- package/locales/fr-FR/providers.json +1 -0
- package/locales/it-IT/chat.json +2 -0
- package/locales/it-IT/models.json +40 -5
- package/locales/it-IT/plugin.json +2 -1
- package/locales/it-IT/providers.json +1 -0
- package/locales/ja-JP/chat.json +2 -0
- package/locales/ja-JP/models.json +84 -7
- package/locales/ja-JP/plugin.json +2 -1
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ko-KR/chat.json +2 -0
- package/locales/ko-KR/models.json +65 -7
- package/locales/ko-KR/plugin.json +2 -1
- package/locales/ko-KR/providers.json +1 -0
- package/locales/nl-NL/chat.json +2 -0
- package/locales/nl-NL/models.json +62 -5
- package/locales/nl-NL/plugin.json +2 -1
- package/locales/nl-NL/providers.json +1 -0
- package/locales/pl-PL/chat.json +2 -0
- package/locales/pl-PL/models.json +85 -0
- package/locales/pl-PL/plugin.json +2 -1
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pt-BR/chat.json +2 -0
- package/locales/pt-BR/models.json +37 -6
- package/locales/pt-BR/plugin.json +2 -1
- package/locales/pt-BR/providers.json +1 -0
- package/locales/ru-RU/chat.json +2 -0
- package/locales/ru-RU/models.json +36 -7
- package/locales/ru-RU/plugin.json +2 -1
- package/locales/ru-RU/providers.json +1 -0
- package/locales/tr-TR/chat.json +2 -0
- package/locales/tr-TR/models.json +28 -7
- package/locales/tr-TR/plugin.json +2 -1
- package/locales/tr-TR/providers.json +1 -0
- package/locales/vi-VN/chat.json +2 -0
- package/locales/vi-VN/models.json +62 -5
- package/locales/vi-VN/plugin.json +2 -1
- package/locales/vi-VN/providers.json +1 -0
- package/locales/zh-CN/chat.json +2 -0
- package/locales/zh-CN/models.json +87 -6
- package/locales/zh-CN/plugin.json +2 -1
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-TW/chat.json +2 -0
- package/locales/zh-TW/models.json +71 -7
- package/locales/zh-TW/plugin.json +2 -1
- package/locales/zh-TW/providers.json +1 -0
- package/package.json +1 -1
- package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +30 -15
- package/packages/builtin-tool-gtd/src/manifest.ts +1 -1
- package/packages/model-runtime/src/core/ModelRuntime.test.ts +44 -86
- package/packages/types/src/aiChat.ts +0 -1
- package/packages/types/src/message/ui/chat.ts +1 -1
- package/src/app/(backend)/middleware/auth/index.ts +16 -2
- package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +30 -15
- package/src/app/(backend)/webapi/chat/[provider]/route.ts +44 -40
- package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +4 -3
- package/src/app/(backend)/webapi/models/[provider]/route.test.ts +36 -13
- package/src/app/(backend)/webapi/models/[provider]/route.ts +4 -11
- package/src/features/Conversation/Messages/AssistantGroup/Tool/Render/index.tsx +21 -23
- package/src/features/Conversation/Messages/AssistantGroup/components/ContentBlock.tsx +16 -3
- package/src/features/Conversation/Messages/Task/TaskDetailPanel/index.tsx +17 -20
- package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +16 -11
- package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +6 -20
- package/src/features/Conversation/Messages/Tasks/shared/ProcessingState.tsx +10 -20
- package/src/features/User/DataStatistics.tsx +4 -4
- package/src/hooks/useQueryParam.ts +0 -2
- package/src/libs/trpc/async/asyncAuth.ts +0 -2
- package/src/libs/trpc/async/context.ts +3 -11
- package/src/locales/default/chat.ts +2 -0
- package/src/locales/default/plugin.ts +2 -1
- package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +6 -6
- package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +3 -3
- package/src/server/modules/AgentRuntime/factory.ts +39 -20
- package/src/server/modules/ModelRuntime/index.ts +138 -1
- package/src/server/routers/async/__tests__/caller.test.ts +22 -27
- package/src/server/routers/async/caller.ts +4 -6
- package/src/server/routers/async/file.ts +10 -5
- package/src/server/routers/async/image.ts +5 -4
- package/src/server/routers/async/ragEval.ts +7 -5
- package/src/server/routers/lambda/__tests__/aiChat.test.ts +8 -37
- package/src/server/routers/lambda/aiChat.ts +5 -21
- package/src/server/routers/lambda/chunk.ts +9 -28
- package/src/server/routers/lambda/image.ts +1 -7
- package/src/server/routers/lambda/ragEval.ts +1 -1
- package/src/server/routers/lambda/userMemories/reembed.ts +4 -1
- package/src/server/routers/lambda/userMemories/search.ts +7 -7
- package/src/server/routers/lambda/userMemories/shared.ts +8 -10
- package/src/server/routers/lambda/userMemories/tools.ts +140 -118
- package/src/server/routers/lambda/userMemories.test.ts +3 -7
- package/src/server/routers/lambda/userMemories.ts +44 -29
- package/src/server/services/agentRuntime/AgentRuntimeService.test.ts +87 -0
- package/src/server/services/agentRuntime/AgentRuntimeService.ts +53 -2
- package/src/server/services/agentRuntime/__tests__/executeSync.test.ts +2 -6
- package/src/server/services/agentRuntime/__tests__/stepLifecycleCallbacks.test.ts +1 -1
- package/src/server/services/chunk/index.ts +6 -5
- package/src/server/services/toolExecution/types.ts +1 -2
- package/src/services/__tests__/_url.test.ts +0 -1
- package/src/services/_url.ts +0 -3
- package/src/services/aiChat.ts +5 -12
- package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +0 -2
- package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +0 -74
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Plano criado: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Criar tarefas",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Executar tarefa",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Tarefa criada: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Criando tarefa: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Executar tarefas",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Excluir tarefas",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Atualizar plano",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
|
|
30
30
|
"jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
|
|
31
31
|
"lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
|
|
32
|
+
"lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
|
|
32
33
|
"minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
|
|
33
34
|
"mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
|
|
34
35
|
"modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
|
package/locales/ru-RU/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} пакетных подзадач",
|
|
296
296
|
"task.metrics.stepsShort": "шагов",
|
|
297
297
|
"task.metrics.toolCallsShort": "вызовов",
|
|
298
|
+
"task.status.cancelled": "Задача отменена",
|
|
299
|
+
"task.status.failed": "Ошибка выполнения задачи",
|
|
298
300
|
"task.status.initializing": "Инициализация задачи...",
|
|
299
301
|
"task.subtask": "Подзадача",
|
|
300
302
|
"thread.divider": "Подтема",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, демонстрирующая улучшенные навыки и превосходящая предыдущий флагман Claude 3 Opus по многим метрикам.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель рассуждения, обеспечивающая как мгновенные ответы, так и углублённое пошаговое мышление с тонкой настройкой.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, сочетающая молниеносную скорость с возможностью углублённого мышления.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высокосложных задач, превосходящая
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высокосложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 — самая интеллектуальная модель Anthropic на сегодняшний день, обеспечивающая мгновенные ответы или пошаговое мышление с тонкой настройкой для пользователей API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями сложного анализа и цепочечного мышления.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями сложного анализа и цепочечного мышления.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается выдающимися результатами в визуальном QA, OCR, понимании документов/таблиц/диаграмм и визуальной привязке.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 сочетает в себе рассуждение и длину вывода для повседневных задач вопросов-ответов и агентов. На публичных бенчмарках достигает уровня GPT-5 и первым интегрирует мышление в использование инструментов, лидируя в оценках open-source агентов.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Полная версия DeepSeek R1 с быстрым откликом и поиском в реальном времени, сочетающая возможности масштаба 671B и высокую скорость.",
|
|
379
379
|
"deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671 миллиардами параметров и поиском в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа обучения с подкреплением и демонстрирует сопоставимую с OpenAI-o1 производительность в задачах математики, программирования и логического вывода.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking — модель глубокого рассуждения, которая генерирует цепочку размышлений перед выводом для повышения точности. Демонстрирует лучшие результаты в соревнованиях и уровень рассуждения, сопоставимый с Gemini-3.0-Pro.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 — это эффективная модель MoE для экономичной обработки данных.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B — модель, ориентированная на программирование, с высокой способностью к генерации кода.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671 миллиардами параметров, обладающая выдающимися возможностями в программировании, техническом анализе, понимании контекста и работе с длинными текстами.",
|
|
@@ -413,6 +413,35 @@
|
|
|
413
413
|
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B — дистиллированная модель на основе Llama-3.3-70B-Instruct. Является частью серии DeepSeek-R1, дообучена на выборках, сгенерированных DeepSeek-R1, и демонстрирует высокие результаты в математике, программировании и логике.",
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B — дистиллированная модель на основе Qwen2.5-14B, дообученная на 800 тысячах отобранных выборок, сгенерированных DeepSeek-R1, обеспечивая высокое качество рассуждений.",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B — дистиллированная модель на основе Qwen2.5-32B, дообученная на 800 тысячах отобранных выборок, сгенерированных DeepSeek-R1, превосходя в задачах математики, программирования и логики.",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B превосходно использует инструменты для анализа кодовой базы, редактирования нескольких файлов и поддержки агентов в сфере программной инженерии.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite — новая облегчённая модель с ультрабыстрым откликом, обеспечивающая высокое качество и низкую задержку.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k — комплексное обновление модели Doubao-1.5-Pro, повышающее общую производительность на 10%. Поддерживает контекстное окно 256k и до 12k токенов вывода, обеспечивая высокую производительность, расширенное окно и отличную ценность для широкого спектра задач.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro — флагманская модель нового поколения с улучшениями по всем направлениям, превосходящая в знаниях, программировании и рассуждении.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 — новая модель глубокого рассуждения (версия m включает нативное мультимодальное глубокое мышление), превосходящая в математике, программировании, научном анализе и общих задачах, таких как креативное письмо. Достигает или приближается к топовым результатам на бенчмарках AIME 2024, Codeforces и GPQA. Поддерживает контекстное окно 128k и вывод до 16k токенов.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 — новая модель глубокого рассуждения, превосходящая в математике, программировании, научном анализе и общих задачах, таких как креативное письмо. Достигает или приближается к топовым результатам на бенчмарках AIME 2024, Codeforces и GPQA. Поддерживает контекстное окно 128k и вывод до 16k токенов.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "Новая визуальная модель глубокого рассуждения с улучшенным мультимодальным пониманием и анализом, достигающая SOTA-результатов на 37 из 59 публичных бенчмарков.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS — нативная модель-агент, ориентированная на графический интерфейс, которая взаимодействует с интерфейсами с помощью человекоподобного восприятия, рассуждения и действий.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям. Поддерживает контекстное окно 128k и до 16k токенов вывода.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям.",
|
|
427
|
+
"doubao-lite-128k.description": "Ультрабыстрый отклик с лучшей ценностью, предлагающий более гибкие варианты для различных сценариев. Поддерживает рассуждение и дообучение с контекстным окном 128k.",
|
|
428
|
+
"doubao-lite-32k.description": "Ультрабыстрый отклик с лучшей ценностью, предлагающий более гибкие варианты для различных сценариев. Поддерживает рассуждение и дообучение с контекстным окном 32k.",
|
|
429
|
+
"doubao-lite-4k.description": "Ультрабыстрый отклик с лучшей ценностью, предлагающий более гибкие варианты для различных сценариев. Поддерживает рассуждение и дообучение с контекстным окном 4k.",
|
|
430
|
+
"doubao-pro-256k.description": "Флагманская модель с наилучшей производительностью для сложных задач, демонстрирующая отличные результаты в вопросах с ссылками, суммировании, создании контента, классификации текста и ролевых играх. Поддерживает рассуждение и дообучение с контекстным окном 256k.",
|
|
431
|
+
"doubao-pro-32k.description": "Флагманская модель с наилучшей производительностью для сложных задач, демонстрирующая отличные результаты в вопросах с ссылками, суммировании, создании контента, классификации текста и ролевых играх. Поддерживает рассуждение и дообучение с контекстным окном 32k.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash — ультрабыстрая мультимодальная модель глубокого рассуждения с TPOT до 10 мс. Поддерживает текст и изображения, превосходит предыдущую lite-модель в понимании текста и сопоставима с pro-моделями в области зрения. Поддерживает контекстное окно 256k и до 16k токенов вывода.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite — новая мультимодальная модель глубокого рассуждения с регулируемой степенью мышления (минимальная, низкая, средняя, высокая), обеспечивающая лучшую ценность и отличный выбор для повседневных задач. Поддерживает контекст до 256k.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 значительно усиливает рассуждение, улучшая ключевые способности в программировании, математике и логике по сравнению с Doubao-1.5-thinking-pro, а также добавляет понимание изображений. Поддерживает контекстное окно 256k и до 16k токенов вывода.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision — визуальная модель глубокого рассуждения с улучшенным мультимодальным пониманием и анализом для образования, проверки изображений, безопасности и визуального поиска. Поддерживает контекст до 256k и до 64k токенов вывода.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 — новая мультимодальная модель глубокого рассуждения с режимами авто, мышления и без мышления. В режиме без мышления значительно превосходит Doubao-1.5-pro/250115. Поддерживает контекст до 256k и до 16k токенов вывода.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 обладает улучшенными возможностями мультимодального понимания и работы агентов, поддерживает ввод текста/изображений/видео и кэширование контекста, обеспечивая выдающуюся производительность в сложных задачах.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code глубоко оптимизирован для агентного программирования, поддерживает мультимодальный ввод (текст/изображение/видео) и контекст 256k, совместим с API Anthropic и подходит для программирования, визуального анализа и агентных рабочих процессов.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "Модель изображений Doubao от ByteDance Seed поддерживает ввод текста и изображений с высококачественной, управляемой генерацией изображений. Поддерживает редактирование изображений по тексту с размерами вывода от 512 до 1536 по длинной стороне.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высококачественной, управляемой генерацией. Генерирует изображения по текстовым подсказкам.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высококачественной, управляемой генерацией. Генерирует изображения по текстовым подсказкам.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision — мультимодальная модель от Doubao с сильным пониманием изображений и рассуждением, а также точным следованием инструкциям. Отлично справляется с извлечением информации из изображений и задачами визуального анализа, расширяя возможности визуального Q&A.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision — мультимодальная модель от Doubao с сильным пониманием изображений и рассуждением, а также точным следованием инструкциям. Отлично справляется с извлечением информации из изображений и задачами визуального анализа, расширяя возможности визуального Q&A.",
|
|
444
|
+
"emohaa.description": "Emohaa — это модель психического здоровья с профессиональными консультационными возможностями, помогающая пользователям разобраться в эмоциональных проблемах.",
|
|
416
445
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
|
|
417
446
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
|
|
418
447
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Создан план: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Создать задачи",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Выполнить задачу",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Задача создана: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Создание задачи: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Выполнить задачи",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Удалить задачи",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Обновить план",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
|
|
30
30
|
"jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
|
|
31
31
|
"lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
|
|
32
33
|
"minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
|
|
34
35
|
"modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",
|
package/locales/tr-TR/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} Toplu Alt Görev",
|
|
296
296
|
"task.metrics.stepsShort": "adım",
|
|
297
297
|
"task.metrics.toolCallsShort": "araç kullanımı",
|
|
298
|
+
"task.status.cancelled": "Görev İptal Edildi",
|
|
299
|
+
"task.status.failed": "Görev Başarısız Oldu",
|
|
298
300
|
"task.status.initializing": "Görev başlatılıyor...",
|
|
299
301
|
"task.subtask": "Alt Görev",
|
|
300
302
|
"thread.divider": "Alt Konu",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.",
|
|
272
272
|
"claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
|
|
273
273
|
"claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modeli olup, yeteneklerde gelişme sağlar ve birçok ölçüt açısından önceki amiral gemisi Claude 3 Opus'u geride bırakır.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7, Anthropic'in en zeki modeli olup, pazardaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar veya ayrıntılı düşünme süreçlerini hassas kontrolle destekler.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en zeki Haiku modelidir; yıldırım hızında çalışır ve derinlemesine düşünme yeteneğine sahiptir.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4, karmaşık görevler için Anthropic
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4, karmaşık görevler için Anthropic'in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstünlük sağlar.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar veya adım adım düşünme
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, Anthropic'in bugüne kadarki en zeki modelidir. API kullanıcıları için hassas kontrolle anında yanıtlar veya adım adım düşünme süreçleri sunar.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic’in bugüne kadarki en zeki modelidir.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir akıl yürütme modelidir.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir akıl yürütme modelidir.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2, yalnızca 4.5B aktif parametreyle güçlü performans sunan, DeepSeekMoE-27B tabanlı MoE görsel-dil modelidir. Görsel Soru-Cevap, OCR, belge/tablo/grafik anlama ve görsel eşleme konularında öne çıkar.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2, günlük Soru-Cevap ve ajan görevleri için akıl yürütme ve çıktı uzunluğu arasında denge kurar. Kamuya açık kıyaslamalarda GPT-5 seviyelerine ulaşır ve araç kullanımına düşünmeyi entegre eden ilk modeldir; bu da açık kaynaklı ajan değerlendirmelerinde öncülük etmesini sağlar.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar, proje düzeyinde kod tamamlama ve kod parçası doldurma sağlar.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenekleri ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.",
|
|
379
379
|
"deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramalı DeepSeek R1 tam sürüm, güçlü anlama ve üretim sunar.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verisi kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans gösterir.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking, çıktılardan önce düşünce zinciri oluşturarak daha yüksek doğruluk sağlayan derin akıl yürütme modelidir. En iyi yarışma sonuçlarına ulaşır ve akıl yürütme yeteneği Gemini-3.0-Pro ile karşılaştırılabilir düzeydedir.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi yeteneklerine sahip DeepSeek’in kod odaklı modelidir.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.",
|
|
@@ -392,6 +392,27 @@
|
|
|
392
392
|
"deepseek-v3.description": "DeepSeek-V3, 671B toplam parametreli ve token başına 37B aktif parametreli güçlü bir MoE modelidir.",
|
|
393
393
|
"deepseek-vl2-small.description": "DeepSeek VL2 Small, kaynak kısıtlı ve yüksek eşzamanlı kullanım için hafif bir çok modlu modeldir.",
|
|
394
394
|
"deepseek-vl2.description": "DeepSeek VL2, görüntü-metin anlama ve ayrıntılı görsel Soru-Cevap için çok modlu bir modeldir.",
|
|
395
|
+
"deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3, 685 milyar parametreli bir MoE modelidir ve DeepSeek’in amiral gemisi sohbet serisinin en son sürümüdür.\n\n[DeepSeek V3](/deepseek/deepseek-chat-v3) üzerine inşa edilmiştir ve görevler genelinde güçlü performans sergiler.",
|
|
396
|
+
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3, 685 milyar parametreli bir MoE modelidir ve DeepSeek’in amiral gemisi sohbet serisinin en son sürümüdür.\n\n[DeepSeek V3](/deepseek/deepseek-chat-v3) üzerine inşa edilmiştir ve görevler genelinde güçlü performans sergiler.",
|
|
397
|
+
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1, DeepSeek’in uzun bağlam destekli hibrit akıl yürütme modelidir. Düşünme/düşünmeme modlarını ve araç entegrasyonunu destekler.",
|
|
398
|
+
"deepseek/deepseek-chat.description": "DeepSeek-V3, karmaşık görevler ve araç entegrasyonu için yüksek performanslı hibrit akıl yürütme modelidir.",
|
|
399
|
+
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528, açık erişim ve derin akıl yürütmeye odaklanan güncellenmiş bir varyanttır.",
|
|
400
|
+
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1, minimum etiketli veriyle akıl yürütmeyi büyük ölçüde geliştirir ve nihai cevaptan önce düşünce zinciri üreterek doğruluğu artırır.",
|
|
401
|
+
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B, Llama 3.3 70B tabanlı damıtılmış bir LLM’dir. DeepSeek R1 çıktılarıyla ince ayar yapılarak büyük öncü modellerle rekabetçi performans elde edilmiştir.",
|
|
402
|
+
"deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B, Llama-3.1-8B-Instruct tabanlı damıtılmış bir LLM’dir. DeepSeek R1 çıktılarıyla eğitilmiştir.",
|
|
403
|
+
"deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B, Qwen 2.5 14B tabanlı damıtılmış bir LLM’dir. DeepSeek R1 çıktılarıyla eğitilmiştir. OpenAI o1-mini’yi birçok kıyaslamada geride bırakır ve yoğun modeller arasında en iyi sonuçları elde eder. Öne çıkan kıyaslamalar:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Puanı: 1481\nDeepSeek R1 çıktılarıyla yapılan ince ayar, büyük öncü modellerle rekabetçi performans sağlar.",
|
|
404
|
+
"deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B, Qwen 2.5 32B tabanlı damıtılmış bir LLM’dir. DeepSeek R1 çıktılarıyla eğitilmiştir. OpenAI o1-mini’yi birçok kıyaslamada geride bırakır ve yoğun modeller arasında en iyi sonuçları elde eder. Öne çıkan kıyaslamalar:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Puanı: 1691\nDeepSeek R1 çıktılarıyla yapılan ince ayar, büyük öncü modellerle rekabetçi performans sağlar.",
|
|
405
|
+
"deepseek/deepseek-r1.description": "DeepSeek R1, DeepSeek-R1-0528 olarak güncellenmiştir. Daha fazla hesaplama gücü ve eğitim sonrası algoritmik iyileştirmelerle akıl yürütme derinliği ve yeteneği önemli ölçüde artırılmıştır. Matematik, programlama ve genel mantık kıyaslamalarında güçlü performans sergiler; o3 ve Gemini 2.5 Pro gibi lider modellere yaklaşır.",
|
|
406
|
+
"deepseek/deepseek-r1/community.description": "DeepSeek R1, DeepSeek ekibi tarafından yayımlanan en yeni açık kaynaklı modeldir. Özellikle matematik, kodlama ve akıl yürütme görevlerinde çok güçlü performans gösterir ve OpenAI o1 ile karşılaştırılabilir düzeydedir.",
|
|
407
|
+
"deepseek/deepseek-r1:free.description": "DeepSeek-R1, minimum etiketli veriyle akıl yürütmeyi büyük ölçüde geliştirir ve nihai cevaptan önce düşünce zinciri üreterek doğruluğu artırır.",
|
|
408
|
+
"deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner), DeepSeek’in deneysel akıl yürütme modelidir ve yüksek karmaşıklıktaki akıl yürütme görevleri için uygundur.",
|
|
409
|
+
"deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base, DeepSeek V3 modelinin geliştirilmiş bir versiyonudur.",
|
|
410
|
+
"deepseek/deepseek-v3.description": "Geliştirilmiş akıl yürütme yeteneğine sahip hızlı, genel amaçlı bir LLM.",
|
|
411
|
+
"deepseek/deepseek-v3/community.description": "DeepSeek-V3, önceki modellere kıyasla akıl yürütme hızında büyük bir atılım sağlar. Açık kaynaklı modeller arasında birinci sırada yer alır ve en gelişmiş kapalı modellerle rekabet eder. DeepSeek-V3, DeepSeek-V2’de tamamen doğrulanan Multi-Head Latent Attention (MLA) ve DeepSeekMoE mimarisini benimser. Ayrıca yük dengeleme için kayıpsız yardımcı strateji ve daha güçlü performans için çoklu token tahmin eğitim hedefi sunar.",
|
|
412
|
+
"deepseek_r1.description": "DeepSeek-R1, tekrar ve okunabilirlik sorunlarını ele alan pekiştirmeli öğrenme odaklı bir akıl yürütme modelidir. RL öncesinde, soğuk başlangıç verileriyle akıl yürütme performansı daha da artırılır. Matematik, kodlama ve akıl yürütme görevlerinde OpenAI-o1 ile eşleşir; dikkatle tasarlanmış eğitim süreci genel sonuçları iyileştirir.",
|
|
413
|
+
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B, Llama-3.3-70B-Instruct’tan damıtılmıştır. DeepSeek-R1 serisinin bir parçası olarak, DeepSeek-R1 tarafından üretilen örneklerle ince ayar yapılmıştır ve matematik, kodlama ve akıl yürütme alanlarında güçlü performans sergiler.",
|
|
414
|
+
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B, Qwen2.5-14B’den damıtılmıştır ve DeepSeek-R1 tarafından üretilen 800K seçilmiş örnekle ince ayar yapılmıştır. Güçlü akıl yürütme yeteneği sunar.",
|
|
415
|
+
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B, Qwen2.5-32B’den damıtılmıştır ve DeepSeek-R1 tarafından üretilen 800K seçilmiş örnekle ince ayar yapılmıştır. Matematik, kodlama ve akıl yürütme alanlarında üstün performans gösterir.",
|
|
395
416
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
|
|
396
417
|
"mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
|
|
397
418
|
"mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Plan oluşturuldu: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Yapılacaklar oluştur",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Görevi çalıştır",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Görev oluşturuldu: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Görev oluşturuluyor: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Görevleri çalıştır",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Yapılacakları sil",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Planı güncelle",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Büyük model araştırmaları ve araçları üzerine odaklanan açık kaynaklı bir organizasyon. En son modelleri ve algoritmaları erişilebilir kılan verimli ve kullanıcı dostu bir platform sağlar.",
|
|
30
30
|
"jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.",
|
|
31
31
|
"lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud, yapay zeka modellerine erişmek için resmi API'leri kullanır ve kullanım miktarını model jetonlarına bağlı Krediler ile ölçer.",
|
|
32
33
|
"minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.",
|
|
33
34
|
"mistral.description": "Mistral, karmaşık akıl yürütme, çok dilli görevler ve kod üretimi için gelişmiş genel, özel ve araştırma modelleri sunar. Özelleştirilmiş entegrasyonlar için işlev çağrısını destekler.",
|
|
34
35
|
"modelscope.description": "ModelScope, Alibaba Cloud’un model-hizmet olarak sunduğu platformudur. Geniş bir yapay zeka modeli ve çıkarım hizmeti yelpazesi sunar.",
|
package/locales/vi-VN/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} nhiệm vụ hàng loạt",
|
|
296
296
|
"task.metrics.stepsShort": "bước",
|
|
297
297
|
"task.metrics.toolCallsShort": "lượt dùng công cụ",
|
|
298
|
+
"task.status.cancelled": "Nhiệm vụ đã hủy",
|
|
299
|
+
"task.status.failed": "Nhiệm vụ thất bại",
|
|
298
300
|
"task.status.initializing": "Đang khởi tạo nhiệm vụ...",
|
|
299
301
|
"task.subtask": "Nhiệm vụ phụ",
|
|
300
302
|
"thread.divider": "Chủ đề phụ",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực, kết hợp khả năng hiểu và sinh văn bản mạnh mẽ cho các tình huống sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic, cải thiện toàn diện các kỹ năng và vượt qua mô hình hàng đầu trước đó Claude 3 Opus trên nhiều tiêu chuẩn đánh giá.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku cung cấp phản hồi nhanh cho các tác vụ nhẹ.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 là mô hình thông minh nhất của Anthropic và là mô hình lai đầu tiên trên thị trường hỗ trợ phản hồi gần như tức thì hoặc tư duy kéo dài với khả năng kiểm soát chi tiết.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn và triển khai quy mô lớn đáng tin cậy.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic,
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, kết hợp tốc độ chớp nhoáng với khả năng tư duy sâu.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu ngôn ngữ.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 là mô hình thông minh nhất của Anthropic tính đến hiện tại, cung cấp phản hồi gần như tức thì hoặc tư duy từng bước kéo dài với khả năng kiểm soát chi tiết dành cho người dùng API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.",
|
|
@@ -335,6 +335,63 @@
|
|
|
335
335
|
"computer-use-preview.description": "computer-use-preview là mô hình chuyên biệt cho công cụ \"sử dụng máy tính\", được huấn luyện để hiểu và thực hiện các tác vụ liên quan đến máy tính.",
|
|
336
336
|
"dall-e-2.description": "DALL·E thế hệ thứ hai với khả năng tạo hình ảnh chân thực, chính xác hơn và độ phân giải gấp 4 lần thế hệ đầu tiên.",
|
|
337
337
|
"dall-e-3.description": "Mô hình DALL·E mới nhất, phát hành tháng 11 năm 2023, hỗ trợ tạo hình ảnh chân thực, chính xác hơn với chi tiết mạnh mẽ hơn.",
|
|
338
|
+
"databricks/dbrx-instruct.description": "DBRX Instruct cung cấp khả năng xử lý hướng dẫn đáng tin cậy cao trong nhiều ngành công nghiệp.",
|
|
339
|
+
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR là mô hình thị giác-ngôn ngữ từ DeepSeek AI tập trung vào OCR và \"nén quang học theo ngữ cảnh.\" Mô hình này khám phá cách nén ngữ cảnh từ hình ảnh, xử lý tài liệu hiệu quả và chuyển đổi chúng thành văn bản có cấu trúc (ví dụ: Markdown). Nó nhận diện văn bản trong hình ảnh một cách chính xác, phù hợp cho số hóa tài liệu, trích xuất văn bản và xử lý có cấu trúc.",
|
|
340
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B chắt lọc chuỗi tư duy từ DeepSeek-R1-0528 vào Qwen3 8B Base. Mô hình đạt SOTA trong số các mô hình mã nguồn mở, vượt Qwen3 8B 10% trên AIME 2024 và ngang bằng hiệu suất tư duy của Qwen3-235B. Nó vượt trội trong suy luận toán học, lập trình và các bài kiểm tra logic tổng quát. Mô hình sử dụng kiến trúc Qwen3-8B nhưng dùng tokenizer của DeepSeek-R1-0528.",
|
|
341
|
+
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 tận dụng sức mạnh tính toán bổ sung và tối ưu hóa thuật toán sau huấn luyện để tăng cường khả năng suy luận. Mô hình thể hiện hiệu suất mạnh mẽ trên các tiêu chuẩn toán học, lập trình và logic tổng quát, tiệm cận các mô hình hàng đầu như o3 và Gemini 2.5 Pro.",
|
|
342
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Các mô hình chắt lọc DeepSeek-R1 sử dụng học tăng cường (RL) và dữ liệu khởi đầu lạnh để cải thiện khả năng suy luận và thiết lập các tiêu chuẩn mới cho mô hình mã nguồn mở đa nhiệm.",
|
|
343
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Các mô hình chắt lọc DeepSeek-R1 sử dụng học tăng cường (RL) và dữ liệu khởi đầu lạnh để cải thiện khả năng suy luận và thiết lập các tiêu chuẩn mới cho mô hình mã nguồn mở đa nhiệm.",
|
|
344
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Các mô hình chắt lọc DeepSeek-R1 sử dụng học tăng cường (RL) và dữ liệu khởi đầu lạnh để cải thiện khả năng suy luận và thiết lập các tiêu chuẩn mới cho mô hình mã nguồn mở đa nhiệm.",
|
|
345
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B được chắt lọc từ Qwen2.5-32B và tinh chỉnh trên 800K mẫu DeepSeek-R1 được tuyển chọn. Mô hình vượt trội trong toán học, lập trình và suy luận, đạt kết quả cao trên AIME 2024, MATH-500 (độ chính xác 94.3%) và GPQA Diamond.",
|
|
346
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B được chắt lọc từ Qwen2.5-Math-7B và tinh chỉnh trên 800K mẫu DeepSeek-R1 được tuyển chọn. Mô hình đạt hiệu suất cao với 92.8% trên MATH-500, 55.5% trên AIME 2024 và xếp hạng CodeForces 1189 cho mô hình 7B.",
|
|
347
|
+
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 cải thiện khả năng suy luận với học tăng cường và dữ liệu khởi đầu lạnh, thiết lập các tiêu chuẩn mới cho mô hình mã nguồn mở đa nhiệm và vượt qua OpenAI-o1-mini.",
|
|
348
|
+
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 nâng cấp từ DeepSeek-V2-Chat và DeepSeek-Coder-V2-Instruct, kết hợp khả năng tổng quát và lập trình. Mô hình cải thiện khả năng viết và tuân theo hướng dẫn để phù hợp hơn với sở thích người dùng, và đạt tiến bộ đáng kể trên các tiêu chuẩn như AlpacaEval 2.0, ArenaHard, AlignBench và MT-Bench.",
|
|
349
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus là phiên bản cập nhật của mô hình V3.1, định vị như một mô hình đại lý lai. Mô hình khắc phục các vấn đề do người dùng báo cáo, cải thiện độ ổn định, tính nhất quán ngôn ngữ và giảm ký tự bất thường hoặc trộn lẫn Trung/Anh. Nó tích hợp chế độ Tư duy và Không tư duy với mẫu trò chuyện để chuyển đổi linh hoạt. Ngoài ra, nó còn nâng cao hiệu suất của Code Agent và Search Agent để sử dụng công cụ đáng tin cậy hơn và xử lý tác vụ nhiều bước.",
|
|
350
|
+
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 sử dụng kiến trúc suy luận lai và hỗ trợ cả chế độ tư duy và không tư duy.",
|
|
351
|
+
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp là bản phát hành thử nghiệm của V3.2, làm cầu nối đến kiến trúc tiếp theo. Mô hình bổ sung DeepSeek Sparse Attention (DSA) trên nền V3.1-Terminus để cải thiện hiệu quả huấn luyện và suy luận với ngữ cảnh dài, tối ưu hóa cho việc sử dụng công cụ, hiểu tài liệu dài và suy luận nhiều bước. Đây là lựa chọn lý tưởng để khám phá hiệu quả suy luận cao hơn với ngân sách ngữ cảnh lớn.",
|
|
352
|
+
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 là mô hình MoE với 671 tỷ tham số, sử dụng MLA và DeepSeekMoE với cân bằng tải không tổn thất để huấn luyện và suy luận hiệu quả. Được huấn luyện trước trên 14.8T token chất lượng cao với SFT và RL, mô hình vượt trội so với các mô hình mã nguồn mở khác và tiệm cận các mô hình đóng hàng đầu.",
|
|
353
|
+
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) là mô hình sáng tạo cung cấp khả năng hiểu ngôn ngữ sâu và tương tác hiệu quả.",
|
|
354
|
+
"deepseek-ai/deepseek-r1.description": "Một mô hình ngôn ngữ tiên tiến, hiệu quả, mạnh về lập luận, toán học và lập trình.",
|
|
355
|
+
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 là mô hình lập luận thế hệ mới với khả năng suy luận phức tạp và chuỗi tư duy mạnh mẽ, phù hợp cho các tác vụ phân tích chuyên sâu.",
|
|
356
|
+
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 là mô hình lập luận thế hệ mới với khả năng suy luận phức tạp và chuỗi tư duy mạnh mẽ, phù hợp cho các tác vụ phân tích chuyên sâu.",
|
|
357
|
+
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 là mô hình thị giác-ngôn ngữ MoE dựa trên DeepSeekMoE-27B với kích hoạt thưa, đạt hiệu suất cao chỉ với 4.5B tham số hoạt động. Mô hình vượt trội trong các tác vụ hỏi đáp hình ảnh, OCR, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh.",
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 cân bằng giữa khả năng lập luận và độ dài đầu ra, phù hợp cho hỏi đáp hàng ngày và tác vụ tác nhân. Trên các chuẩn đánh giá công khai, mô hình đạt mức tương đương GPT-5 và là mô hình mã nguồn mở đầu tiên tích hợp tư duy vào việc sử dụng công cụ, dẫn đầu trong các đánh giá tác nhân mã nguồn mở.",
|
|
359
|
+
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B là mô hình ngôn ngữ lập trình được huấn luyện trên 2 nghìn tỷ token (87% mã nguồn, 13% văn bản tiếng Trung/Anh). Mô hình hỗ trợ cửa sổ ngữ cảnh 16K và nhiệm vụ điền vào giữa, cung cấp khả năng hoàn thành mã ở cấp độ dự án và chèn đoạn mã.",
|
|
360
|
+
"deepseek-coder-v2.description": "DeepSeek Coder V2 là mô hình mã nguồn mở MoE chuyên về lập trình, đạt hiệu suất tương đương GPT-4 Turbo.",
|
|
361
|
+
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 là mô hình mã nguồn mở MoE chuyên về lập trình, đạt hiệu suất tương đương GPT-4 Turbo.",
|
|
362
|
+
"deepseek-ocr.description": "DeepSeek-OCR là mô hình thị giác-ngôn ngữ từ DeepSeek AI tập trung vào OCR và \"nén quang học theo ngữ cảnh\". Mô hình khám phá cách nén thông tin ngữ cảnh từ hình ảnh, xử lý tài liệu hiệu quả và chuyển đổi chúng thành định dạng văn bản có cấu trúc như Markdown. Mô hình nhận diện văn bản trong hình ảnh chính xác, lý tưởng cho số hóa tài liệu, trích xuất văn bản và xử lý có cấu trúc.",
|
|
363
|
+
"deepseek-r1-0528.description": "Mô hình đầy đủ 685B được phát hành vào ngày 28-05-2025. DeepSeek-R1 sử dụng học tăng cường quy mô lớn trong giai đoạn hậu huấn luyện, cải thiện đáng kể khả năng lập luận với dữ liệu gán nhãn tối thiểu, và thể hiện mạnh mẽ trong toán học, lập trình và lập luận ngôn ngữ tự nhiên.",
|
|
364
|
+
"deepseek-r1-250528.description": "DeepSeek R1 250528 là mô hình lập luận đầy đủ DeepSeek-R1 dành cho các tác vụ toán học và logic khó.",
|
|
365
|
+
"deepseek-r1-70b-fast-online.description": "Phiên bản nhanh DeepSeek R1 70B với tìm kiếm web thời gian thực, mang lại phản hồi nhanh hơn mà vẫn duy trì hiệu suất.",
|
|
366
|
+
"deepseek-r1-70b-online.description": "Phiên bản tiêu chuẩn DeepSeek R1 70B với tìm kiếm web thời gian thực, phù hợp cho trò chuyện và tác vụ văn bản cập nhật.",
|
|
367
|
+
"deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B kết hợp khả năng lập luận của R1 với hệ sinh thái Llama.",
|
|
368
|
+
"deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B được chưng cất từ Llama-3.1-8B sử dụng đầu ra từ DeepSeek R1.",
|
|
369
|
+
"deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama được chưng cất từ DeepSeek-R1 trên nền tảng Llama.",
|
|
370
|
+
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B là phiên bản chưng cất R1 dựa trên Qianfan-70B với giá trị cao.",
|
|
371
|
+
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B là phiên bản chưng cất R1 dựa trên Qianfan-8B, phù hợp cho ứng dụng quy mô nhỏ và trung bình.",
|
|
372
|
+
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B là phiên bản chưng cất R1 dựa trên Llama-70B.",
|
|
373
|
+
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B là mô hình chưng cất siêu nhẹ dành cho môi trường tài nguyên rất thấp.",
|
|
374
|
+
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B là mô hình chưng cất cỡ trung cho triển khai đa kịch bản.",
|
|
375
|
+
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B là phiên bản chưng cất R1 dựa trên Qwen-32B, cân bằng giữa hiệu suất và chi phí.",
|
|
376
|
+
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B là mô hình chưng cất nhẹ dành cho môi trường biên và doanh nghiệp riêng tư.",
|
|
377
|
+
"deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen được chưng cất từ DeepSeek-R1 trên nền tảng Qwen.",
|
|
378
|
+
"deepseek-r1-fast-online.description": "Phiên bản đầy đủ DeepSeek R1 nhanh với tìm kiếm web thời gian thực, kết hợp khả năng 671B và phản hồi nhanh hơn.",
|
|
379
|
+
"deepseek-r1-online.description": "Phiên bản đầy đủ DeepSeek R1 với 671B tham số và tìm kiếm web thời gian thực, mang lại khả năng hiểu và tạo nội dung mạnh mẽ hơn.",
|
|
380
|
+
"deepseek-r1.description": "DeepSeek-R1 sử dụng dữ liệu khởi động lạnh trước học tăng cường và đạt hiệu suất tương đương OpenAI-o1 trong toán học, lập trình và lập luận.",
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking là mô hình lập luận sâu tạo chuỗi tư duy trước khi đưa ra kết quả nhằm tăng độ chính xác, đạt kết quả hàng đầu trong các cuộc thi và khả năng lập luận tương đương Gemini-3.0-Pro.",
|
|
382
|
+
"deepseek-v2.description": "DeepSeek V2 là mô hình MoE hiệu quả cho xử lý tiết kiệm chi phí.",
|
|
383
|
+
"deepseek-v2:236b.description": "DeepSeek V2 236B là mô hình tập trung vào mã nguồn của DeepSeek với khả năng tạo mã mạnh mẽ.",
|
|
384
|
+
"deepseek-v3-0324.description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật về lập trình, khả năng kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài.",
|
|
385
|
+
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus là mô hình LLM tối ưu cho thiết bị đầu cuối từ DeepSeek.",
|
|
386
|
+
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 là mô hình tư duy sâu tương ứng với phiên bản Terminus, được xây dựng cho lập luận hiệu suất cao.",
|
|
387
|
+
"deepseek-v3.1.description": "DeepSeek-V3.1 là mô hình lập luận lai mới từ DeepSeek, hỗ trợ cả chế độ tư duy và không tư duy, mang lại hiệu quả tư duy cao hơn so với DeepSeek-R1-0528. Tối ưu hóa sau huấn luyện giúp cải thiện đáng kể việc sử dụng công cụ và hiệu suất tác vụ tác nhân. Mô hình hỗ trợ cửa sổ ngữ cảnh 128k và tối đa 64k token đầu ra.",
|
|
388
|
+
"deepseek-v3.1:671b.description": "DeepSeek V3.1 là mô hình lập luận thế hệ mới với khả năng suy luận phức tạp và chuỗi tư duy được cải thiện, phù hợp cho các tác vụ phân tích chuyên sâu.",
|
|
389
|
+
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp giới thiệu attention thưa để cải thiện hiệu quả huấn luyện và suy luận trên văn bản dài, với chi phí thấp hơn deepseek-v3.1.",
|
|
390
|
+
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think là mô hình tư duy sâu đầy đủ với khả năng lập luận chuỗi dài mạnh mẽ hơn.",
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 là mô hình lập luận lai đầu tiên của DeepSeek tích hợp tư duy vào việc sử dụng công cụ, kết hợp kiến trúc hiệu quả để tiết kiệm tài nguyên, học tăng cường quy mô lớn để nâng cao năng lực, và dữ liệu nhiệm vụ tổng hợp quy mô lớn để tăng khả năng tổng quát. Hiệu suất tổng thể tương đương GPT-5-High, độ dài đầu ra giảm đáng kể, giúp tiết kiệm chi phí tính toán và thời gian chờ của người dùng.",
|
|
392
|
+
"deepseek-v3.description": "DeepSeek-V3 là mô hình MoE mạnh mẽ với tổng cộng 671B tham số và 37B tham số hoạt động mỗi token.",
|
|
393
|
+
"deepseek-vl2-small.description": "DeepSeek VL2 Small là phiên bản đa phương thức nhẹ, phù hợp cho môi trường hạn chế tài nguyên và yêu cầu đồng thời cao.",
|
|
394
|
+
"deepseek-vl2.description": "DeepSeek VL2 là mô hình đa phương thức cho hiểu hình ảnh-văn bản và hỏi đáp hình ảnh chi tiết.",
|
|
338
395
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 là một mô hình ngôn ngữ mở dành cho nhà phát triển, nhà nghiên cứu và doanh nghiệp, được thiết kế để hỗ trợ xây dựng, thử nghiệm và mở rộng các ý tưởng AI sinh ngữ một cách có trách nhiệm. Là một phần trong nền tảng đổi mới cộng đồng toàn cầu, mô hình này phù hợp với môi trường có tài nguyên hạn chế, thiết bị biên và yêu cầu thời gian huấn luyện nhanh hơn.",
|
|
339
396
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Khả năng suy luận hình ảnh mạnh mẽ trên ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu thị giác.",
|
|
340
397
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng tác tử hiểu thị giác.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Tạo kế hoạch: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Tạo việc cần làm",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Thực hiện nhiệm vụ",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Đã tạo nhiệm vụ: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Đang tạo nhiệm vụ: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Thực hiện các nhiệm vụ",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Xóa việc cần làm",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Cập nhật kế hoạch",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Tổ chức mã nguồn mở tập trung vào nghiên cứu mô hình lớn và công cụ, cung cấp nền tảng hiệu quả, dễ sử dụng để tiếp cận các mô hình và thuật toán tiên tiến.",
|
|
30
30
|
"jina.description": "Thành lập năm 2020, Jina AI là công ty hàng đầu về AI tìm kiếm. Bộ công cụ tìm kiếm của họ bao gồm mô hình vector, bộ xếp hạng lại và mô hình ngôn ngữ nhỏ để xây dựng ứng dụng tìm kiếm sinh và đa phương thức chất lượng cao.",
|
|
31
31
|
"lmstudio.description": "LM Studio là ứng dụng máy tính để phát triển và thử nghiệm LLM ngay trên máy của bạn.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud sử dụng API chính thức để truy cập các mô hình AI và tính mức sử dụng bằng Tín dụng dựa trên số lượng token của mô hình.",
|
|
32
33
|
"minimax.description": "Thành lập năm 2021, MiniMax xây dựng AI đa năng với các mô hình nền tảng đa phương thức, bao gồm mô hình văn bản MoE hàng nghìn tỷ tham số, mô hình giọng nói và thị giác, cùng các ứng dụng như Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral cung cấp các mô hình tổng quát, chuyên biệt và nghiên cứu tiên tiến cho suy luận phức tạp, tác vụ đa ngôn ngữ và tạo mã, với khả năng gọi hàm cho tích hợp tùy chỉnh.",
|
|
34
35
|
"modelscope.description": "ModelScope là nền tảng mô hình dưới dạng dịch vụ của Alibaba Cloud, cung cấp nhiều mô hình AI và dịch vụ suy luận.",
|
package/locales/zh-CN/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} 个批量子任务",
|
|
296
296
|
"task.metrics.stepsShort": "步",
|
|
297
297
|
"task.metrics.toolCallsShort": "次技能调用",
|
|
298
|
+
"task.status.cancelled": "任务已取消",
|
|
299
|
+
"task.status.failed": "任务失败",
|
|
298
300
|
"task.status.initializing": "任务启动中…",
|
|
299
301
|
"task.subtask": "子任务",
|
|
300
302
|
"thread.divider": "子话题",
|