@lobehub/lobehub 2.0.0-next.201 → 2.0.0-next.203
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +2 -0
- package/locales/ar/models.json +104 -6
- package/locales/ar/plugin.json +2 -1
- package/locales/bg-BG/chat.json +2 -0
- package/locales/bg-BG/models.json +46 -4
- package/locales/bg-BG/plugin.json +2 -1
- package/locales/de-DE/chat.json +2 -0
- package/locales/de-DE/models.json +74 -4
- package/locales/de-DE/plugin.json +2 -1
- package/locales/en-US/chat.json +2 -0
- package/locales/en-US/plugin.json +2 -1
- package/locales/es-ES/chat.json +2 -0
- package/locales/es-ES/models.json +129 -4
- package/locales/es-ES/plugin.json +2 -1
- package/locales/fa-IR/chat.json +2 -0
- package/locales/fa-IR/models.json +80 -4
- package/locales/fa-IR/plugin.json +2 -1
- package/locales/fr-FR/chat.json +2 -0
- package/locales/fr-FR/models.json +67 -7
- package/locales/fr-FR/plugin.json +2 -1
- package/locales/it-IT/chat.json +2 -0
- package/locales/it-IT/models.json +39 -6
- package/locales/it-IT/plugin.json +2 -1
- package/locales/ja-JP/chat.json +2 -0
- package/locales/ja-JP/models.json +123 -7
- package/locales/ja-JP/plugin.json +2 -1
- package/locales/ko-KR/chat.json +2 -0
- package/locales/ko-KR/models.json +104 -5
- package/locales/ko-KR/plugin.json +2 -1
- package/locales/nl-NL/chat.json +2 -0
- package/locales/nl-NL/models.json +62 -5
- package/locales/nl-NL/plugin.json +2 -1
- package/locales/pl-PL/chat.json +2 -0
- package/locales/pl-PL/models.json +110 -0
- package/locales/pl-PL/plugin.json +2 -1
- package/locales/pt-BR/chat.json +2 -0
- package/locales/pt-BR/models.json +81 -5
- package/locales/pt-BR/plugin.json +2 -1
- package/locales/ru-RU/chat.json +2 -0
- package/locales/ru-RU/models.json +33 -6
- package/locales/ru-RU/plugin.json +2 -1
- package/locales/tr-TR/chat.json +2 -0
- package/locales/tr-TR/models.json +26 -7
- package/locales/tr-TR/plugin.json +2 -1
- package/locales/vi-VN/chat.json +2 -0
- package/locales/vi-VN/models.json +59 -4
- package/locales/vi-VN/plugin.json +2 -1
- package/locales/zh-CN/chat.json +2 -0
- package/locales/zh-CN/models.json +141 -5
- package/locales/zh-CN/plugin.json +2 -1
- package/locales/zh-TW/chat.json +2 -0
- package/locales/zh-TW/models.json +96 -7
- package/locales/zh-TW/plugin.json +2 -1
- package/package.json +1 -1
- package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +30 -15
- package/packages/builtin-tool-gtd/src/manifest.ts +1 -1
- package/packages/model-runtime/src/core/ModelRuntime.test.ts +44 -86
- package/packages/types/src/aiChat.ts +0 -1
- package/packages/types/src/message/ui/chat.ts +1 -1
- package/src/app/(backend)/middleware/auth/index.ts +16 -2
- package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +30 -15
- package/src/app/(backend)/webapi/chat/[provider]/route.ts +44 -40
- package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +4 -3
- package/src/app/(backend)/webapi/models/[provider]/route.test.ts +36 -13
- package/src/app/(backend)/webapi/models/[provider]/route.ts +4 -11
- package/src/features/Conversation/Messages/AssistantGroup/Tool/Render/index.tsx +21 -23
- package/src/features/Conversation/Messages/AssistantGroup/components/ContentBlock.tsx +16 -3
- package/src/features/Conversation/Messages/Task/TaskDetailPanel/index.tsx +17 -20
- package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +16 -11
- package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +6 -20
- package/src/features/Conversation/Messages/Tasks/shared/ProcessingState.tsx +10 -20
- package/src/features/User/DataStatistics.tsx +4 -4
- package/src/hooks/useQueryParam.ts +0 -2
- package/src/libs/trpc/async/asyncAuth.ts +0 -2
- package/src/libs/trpc/async/context.ts +3 -11
- package/src/locales/default/chat.ts +2 -0
- package/src/locales/default/plugin.ts +2 -1
- package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +6 -6
- package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +3 -3
- package/src/server/modules/AgentRuntime/factory.ts +39 -20
- package/src/server/modules/ModelRuntime/index.ts +138 -1
- package/src/server/routers/async/__tests__/caller.test.ts +22 -27
- package/src/server/routers/async/caller.ts +4 -6
- package/src/server/routers/async/file.ts +10 -5
- package/src/server/routers/async/image.ts +5 -4
- package/src/server/routers/async/ragEval.ts +7 -5
- package/src/server/routers/lambda/__tests__/aiChat.test.ts +8 -37
- package/src/server/routers/lambda/aiChat.ts +5 -21
- package/src/server/routers/lambda/chunk.ts +9 -28
- package/src/server/routers/lambda/image.ts +1 -7
- package/src/server/routers/lambda/ragEval.ts +1 -1
- package/src/server/routers/lambda/userMemories/reembed.ts +4 -1
- package/src/server/routers/lambda/userMemories/search.ts +7 -7
- package/src/server/routers/lambda/userMemories/shared.ts +8 -10
- package/src/server/routers/lambda/userMemories/tools.ts +140 -118
- package/src/server/routers/lambda/userMemories.test.ts +3 -7
- package/src/server/routers/lambda/userMemories.ts +44 -29
- package/src/server/services/agentRuntime/AgentRuntimeService.test.ts +87 -0
- package/src/server/services/agentRuntime/AgentRuntimeService.ts +53 -2
- package/src/server/services/agentRuntime/__tests__/executeSync.test.ts +2 -6
- package/src/server/services/agentRuntime/__tests__/stepLifecycleCallbacks.test.ts +1 -1
- package/src/server/services/chunk/index.ts +6 -5
- package/src/server/services/toolExecution/types.ts +1 -2
- package/src/services/__tests__/_url.test.ts +0 -1
- package/src/services/_url.ts +0 -3
- package/src/services/aiChat.ts +5 -12
- package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +0 -2
- package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +0 -74
|
@@ -271,9 +271,9 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, она демонстрирует
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, она демонстрирует улучшенные навыки и превосходит предыдущую крупнейшую модель Claude 3 Opus по многим интеллектуальным метрикам.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель рассуждения. Она может мгновенно выдавать ответы или пошагово рассуждать с видимым процессом. Особенно сильна в программировании, анализе данных, компьютерном зрении и задачах для агентов.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
|
|
@@ -281,10 +281,10 @@
|
|
|
281
281
|
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель Haiku от Anthropic, сочетающая молниеносную скорость и расширенные возможности рассуждения.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 может выдавать мгновенные ответы или пошаговые рассуждения с наглядным процессом.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
|
|
@@ -355,7 +355,6 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями сложного анализа и цепочечного мышления.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями сложного анализа и цепочечного мышления.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается выдающимися результатами в визуальном QA, OCR, понимании документов/таблиц/диаграмм и визуальной привязке.",
|
|
358
|
-
"deepseek-chat.description": "Новая модель с открытым исходным кодом, объединяющая общие и программные способности. Сохраняет универсальность диалоговой модели и мощные возможности кодирования, с улучшенным соответствием предпочтениям. DeepSeek-V2.5 также улучшает написание текстов и следование инструкциям.",
|
|
359
358
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
|
|
360
359
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
|
|
361
360
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
|
|
@@ -378,7 +377,6 @@
|
|
|
378
377
|
"deepseek-r1-fast-online.description": "Полная версия DeepSeek R1 с быстрым откликом и поиском в реальном времени, сочетающая возможности масштаба 671B и высокую скорость.",
|
|
379
378
|
"deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671 миллиардами параметров и поиском в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
|
|
380
379
|
"deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа обучения с подкреплением и демонстрирует сопоставимую с OpenAI-o1 производительность в задачах математики, программирования и логического вывода.",
|
|
381
|
-
"deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выводит цепочку рассуждений перед финальным ответом для повышения точности.",
|
|
382
380
|
"deepseek-v2.description": "DeepSeek V2 — это эффективная модель MoE для экономичной обработки данных.",
|
|
383
381
|
"deepseek-v2:236b.description": "DeepSeek V2 236B — модель, ориентированная на программирование, с высокой способностью к генерации кода.",
|
|
384
382
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671 миллиардами параметров, обладающая выдающимися возможностями в программировании, техническом анализе, понимании контекста и работе с длинными текстами.",
|
|
@@ -413,6 +411,35 @@
|
|
|
413
411
|
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B — дистиллированная модель на основе Llama-3.3-70B-Instruct. Является частью серии DeepSeek-R1, дообучена на выборках, сгенерированных DeepSeek-R1, и демонстрирует высокие результаты в математике, программировании и логике.",
|
|
414
412
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B — дистиллированная модель на основе Qwen2.5-14B, дообученная на 800 тысячах отобранных выборок, сгенерированных DeepSeek-R1, обеспечивая высокое качество рассуждений.",
|
|
415
413
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B — дистиллированная модель на основе Qwen2.5-32B, дообученная на 800 тысячах отобранных выборок, сгенерированных DeepSeek-R1, превосходя в задачах математики, программирования и логики.",
|
|
414
|
+
"devstral-2:123b.description": "Devstral 2 123B превосходно использует инструменты для анализа кодовой базы, редактирования нескольких файлов и поддержки агентов в сфере программной инженерии.",
|
|
415
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite — новая облегчённая модель с ультрабыстрым откликом, обеспечивающая высокое качество и низкую задержку.",
|
|
416
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k — комплексное обновление модели Doubao-1.5-Pro, повышающее общую производительность на 10%. Поддерживает контекстное окно 256k и до 12k токенов вывода, обеспечивая высокую производительность, расширенное окно и отличную ценность для широкого спектра задач.",
|
|
417
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro — флагманская модель нового поколения с улучшениями по всем направлениям, превосходящая в знаниях, программировании и рассуждении.",
|
|
418
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 — новая модель глубокого рассуждения (версия m включает нативное мультимодальное глубокое мышление), превосходящая в математике, программировании, научном анализе и общих задачах, таких как креативное письмо. Достигает или приближается к топовым результатам на бенчмарках AIME 2024, Codeforces и GPQA. Поддерживает контекстное окно 128k и вывод до 16k токенов.",
|
|
419
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 — новая модель глубокого рассуждения, превосходящая в математике, программировании, научном анализе и общих задачах, таких как креативное письмо. Достигает или приближается к топовым результатам на бенчмарках AIME 2024, Codeforces и GPQA. Поддерживает контекстное окно 128k и вывод до 16k токенов.",
|
|
420
|
+
"doubao-1.5-thinking-vision-pro.description": "Новая визуальная модель глубокого рассуждения с улучшенным мультимодальным пониманием и анализом, достигающая SOTA-результатов на 37 из 59 публичных бенчмарков.",
|
|
421
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS — нативная модель-агент, ориентированная на графический интерфейс, которая взаимодействует с интерфейсами с помощью человекоподобного восприятия, рассуждения и действий.",
|
|
422
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям. Поддерживает контекстное окно 128k и до 16k токенов вывода.",
|
|
423
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям.",
|
|
424
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям.",
|
|
425
|
+
"doubao-lite-128k.description": "Ультрабыстрый отклик с лучшей ценностью, предлагающий более гибкие варианты для различных сценариев. Поддерживает рассуждение и дообучение с контекстным окном 128k.",
|
|
426
|
+
"doubao-lite-32k.description": "Ультрабыстрый отклик с лучшей ценностью, предлагающий более гибкие варианты для различных сценариев. Поддерживает рассуждение и дообучение с контекстным окном 32k.",
|
|
427
|
+
"doubao-lite-4k.description": "Ультрабыстрый отклик с лучшей ценностью, предлагающий более гибкие варианты для различных сценариев. Поддерживает рассуждение и дообучение с контекстным окном 4k.",
|
|
428
|
+
"doubao-pro-256k.description": "Флагманская модель с наилучшей производительностью для сложных задач, демонстрирующая отличные результаты в вопросах с ссылками, суммировании, создании контента, классификации текста и ролевых играх. Поддерживает рассуждение и дообучение с контекстным окном 256k.",
|
|
429
|
+
"doubao-pro-32k.description": "Флагманская модель с наилучшей производительностью для сложных задач, демонстрирующая отличные результаты в вопросах с ссылками, суммировании, создании контента, классификации текста и ролевых играх. Поддерживает рассуждение и дообучение с контекстным окном 32k.",
|
|
430
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash — ультрабыстрая мультимодальная модель глубокого рассуждения с TPOT до 10 мс. Поддерживает текст и изображения, превосходит предыдущую lite-модель в понимании текста и сопоставима с pro-моделями в области зрения. Поддерживает контекстное окно 256k и до 16k токенов вывода.",
|
|
431
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite — новая мультимодальная модель глубокого рассуждения с регулируемой степенью мышления (минимальная, низкая, средняя, высокая), обеспечивающая лучшую ценность и отличный выбор для повседневных задач. Поддерживает контекст до 256k.",
|
|
432
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 значительно усиливает рассуждение, улучшая ключевые способности в программировании, математике и логике по сравнению с Doubao-1.5-thinking-pro, а также добавляет понимание изображений. Поддерживает контекстное окно 256k и до 16k токенов вывода.",
|
|
433
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision — визуальная модель глубокого рассуждения с улучшенным мультимодальным пониманием и анализом для образования, проверки изображений, безопасности и визуального поиска. Поддерживает контекст до 256k и до 64k токенов вывода.",
|
|
434
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 — новая мультимодальная модель глубокого рассуждения с режимами авто, мышления и без мышления. В режиме без мышления значительно превосходит Doubao-1.5-pro/250115. Поддерживает контекст до 256k и до 16k токенов вывода.",
|
|
435
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 обладает улучшенными возможностями мультимодального понимания и работы агентов, поддерживает ввод текста/изображений/видео и кэширование контекста, обеспечивая выдающуюся производительность в сложных задачах.",
|
|
436
|
+
"doubao-seed-code.description": "Doubao-Seed-Code глубоко оптимизирован для агентного программирования, поддерживает мультимодальный ввод (текст/изображение/видео) и контекст 256k, совместим с API Anthropic и подходит для программирования, визуального анализа и агентных рабочих процессов.",
|
|
437
|
+
"doubao-seededit-3-0-i2i-250628.description": "Модель изображений Doubao от ByteDance Seed поддерживает ввод текста и изображений с высококачественной, управляемой генерацией изображений. Поддерживает редактирование изображений по тексту с размерами вывода от 512 до 1536 по длинной стороне.",
|
|
438
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высококачественной, управляемой генерацией. Генерирует изображения по текстовым подсказкам.",
|
|
439
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высококачественной, управляемой генерацией. Генерирует изображения по текстовым подсказкам.",
|
|
440
|
+
"doubao-vision-lite-32k.description": "Doubao-vision — мультимодальная модель от Doubao с сильным пониманием изображений и рассуждением, а также точным следованием инструкциям. Отлично справляется с извлечением информации из изображений и задачами визуального анализа, расширяя возможности визуального Q&A.",
|
|
441
|
+
"doubao-vision-pro-32k.description": "Doubao-vision — мультимодальная модель от Doubao с сильным пониманием изображений и рассуждением, а также точным следованием инструкциям. Отлично справляется с извлечением информации из изображений и задачами визуального анализа, расширяя возможности визуального Q&A.",
|
|
442
|
+
"emohaa.description": "Emohaa — это модель психического здоровья с профессиональными консультационными возможностями, помогающая пользователям разобраться в эмоциональных проблемах.",
|
|
416
443
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
|
|
417
444
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
|
|
418
445
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Создан план: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Создать задачи",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Выполнить задачу",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Задача создана: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Создание задачи: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Выполнить задачи",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Удалить задачи",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Обновить план",
|
package/locales/tr-TR/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} Toplu Alt Görev",
|
|
296
296
|
"task.metrics.stepsShort": "adım",
|
|
297
297
|
"task.metrics.toolCallsShort": "araç kullanımı",
|
|
298
|
+
"task.status.cancelled": "Görev İptal Edildi",
|
|
299
|
+
"task.status.failed": "Görev Başarısız Oldu",
|
|
298
300
|
"task.status.initializing": "Görev başlatılıyor...",
|
|
299
301
|
"task.subtask": "Alt Görev",
|
|
300
302
|
"thread.divider": "Alt Konu",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.",
|
|
272
272
|
"claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
|
|
273
273
|
"claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modelidir. Claude 3 Haiku'ya kıyasla yeteneklerinde gelişme gösterir ve birçok zeka testinde önceki en büyük model olan Claude 3 Opus'u geride bırakır.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet, Anthropic
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet, Anthropic'in en zeki modeli olup piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar verebilir veya kullanıcıların adım adım akıl yürütme sürecini görebileceği şekilde uzun açıklamalar sunabilir. Sonnet, özellikle kodlama, veri bilimi, görsel analiz ve ajan görevlerinde güçlüdür.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en akıllı Haiku modelidir; yıldırım hızında çalışır ve gelişmiş akıl yürütme yeteneklerine sahiptir.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4, Anthropic'in en güçlü modelidir ve yüksek karmaşıklıktaki görevlerde üstün performans, zeka, akıcılık ve anlama kabiliyeti sunar.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar veya adım adım düşünme
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar verebilir veya görünür bir süreçle adım adım düşünme sunabilir.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic’in bugüne kadarki en zeki modelidir.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
|
|
@@ -355,7 +355,6 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir akıl yürütme modelidir.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir akıl yürütme modelidir.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2, yalnızca 4.5B aktif parametreyle güçlü performans sunan, DeepSeekMoE-27B tabanlı MoE görsel-dil modelidir. Görsel Soru-Cevap, OCR, belge/tablo/grafik anlama ve görsel eşleme konularında öne çıkar.",
|
|
358
|
-
"deepseek-chat.description": "Genel ve kodlama yeteneklerini birleştiren yeni açık kaynaklı model. Sohbet modelinin genel diyalog yeteneklerini ve kodlayıcı modelin güçlü kodlama becerilerini korur, tercih uyumunu geliştirir. DeepSeek-V2.5 ayrıca yazma ve talimat takibini iyileştirir.",
|
|
359
358
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar, proje düzeyinde kod tamamlama ve kod parçası doldurma sağlar.",
|
|
360
359
|
"deepseek-coder-v2.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
|
|
361
360
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
|
|
@@ -378,7 +377,6 @@
|
|
|
378
377
|
"deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenekleri ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.",
|
|
379
378
|
"deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramalı DeepSeek R1 tam sürüm, güçlü anlama ve üretim sunar.",
|
|
380
379
|
"deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verisi kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans gösterir.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2 düşünme modu, doğruluğu artırmak için nihai cevaptan önce düşünce zinciri üretir.",
|
|
382
380
|
"deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.",
|
|
383
381
|
"deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi yeteneklerine sahip DeepSeek’in kod odaklı modelidir.",
|
|
384
382
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.",
|
|
@@ -392,6 +390,27 @@
|
|
|
392
390
|
"deepseek-v3.description": "DeepSeek-V3, 671B toplam parametreli ve token başına 37B aktif parametreli güçlü bir MoE modelidir.",
|
|
393
391
|
"deepseek-vl2-small.description": "DeepSeek VL2 Small, kaynak kısıtlı ve yüksek eşzamanlı kullanım için hafif bir çok modlu modeldir.",
|
|
394
392
|
"deepseek-vl2.description": "DeepSeek VL2, görüntü-metin anlama ve ayrıntılı görsel Soru-Cevap için çok modlu bir modeldir.",
|
|
393
|
+
"deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3, 685 milyar parametreli bir MoE modelidir ve DeepSeek’in amiral gemisi sohbet serisinin en son sürümüdür.\n\n[DeepSeek V3](/deepseek/deepseek-chat-v3) üzerine inşa edilmiştir ve görevler genelinde güçlü performans sergiler.",
|
|
394
|
+
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3, 685 milyar parametreli bir MoE modelidir ve DeepSeek’in amiral gemisi sohbet serisinin en son sürümüdür.\n\n[DeepSeek V3](/deepseek/deepseek-chat-v3) üzerine inşa edilmiştir ve görevler genelinde güçlü performans sergiler.",
|
|
395
|
+
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1, DeepSeek’in uzun bağlam destekli hibrit akıl yürütme modelidir. Düşünme/düşünmeme modlarını ve araç entegrasyonunu destekler.",
|
|
396
|
+
"deepseek/deepseek-chat.description": "DeepSeek-V3, karmaşık görevler ve araç entegrasyonu için yüksek performanslı hibrit akıl yürütme modelidir.",
|
|
397
|
+
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528, açık erişim ve derin akıl yürütmeye odaklanan güncellenmiş bir varyanttır.",
|
|
398
|
+
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1, minimum etiketli veriyle akıl yürütmeyi büyük ölçüde geliştirir ve nihai cevaptan önce düşünce zinciri üreterek doğruluğu artırır.",
|
|
399
|
+
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B, Llama 3.3 70B tabanlı damıtılmış bir LLM’dir. DeepSeek R1 çıktılarıyla ince ayar yapılarak büyük öncü modellerle rekabetçi performans elde edilmiştir.",
|
|
400
|
+
"deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B, Llama-3.1-8B-Instruct tabanlı damıtılmış bir LLM’dir. DeepSeek R1 çıktılarıyla eğitilmiştir.",
|
|
401
|
+
"deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B, Qwen 2.5 14B tabanlı damıtılmış bir LLM’dir. DeepSeek R1 çıktılarıyla eğitilmiştir. OpenAI o1-mini’yi birçok kıyaslamada geride bırakır ve yoğun modeller arasında en iyi sonuçları elde eder. Öne çıkan kıyaslamalar:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Puanı: 1481\nDeepSeek R1 çıktılarıyla yapılan ince ayar, büyük öncü modellerle rekabetçi performans sağlar.",
|
|
402
|
+
"deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B, Qwen 2.5 32B tabanlı damıtılmış bir LLM’dir. DeepSeek R1 çıktılarıyla eğitilmiştir. OpenAI o1-mini’yi birçok kıyaslamada geride bırakır ve yoğun modeller arasında en iyi sonuçları elde eder. Öne çıkan kıyaslamalar:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Puanı: 1691\nDeepSeek R1 çıktılarıyla yapılan ince ayar, büyük öncü modellerle rekabetçi performans sağlar.",
|
|
403
|
+
"deepseek/deepseek-r1.description": "DeepSeek R1, DeepSeek-R1-0528 olarak güncellenmiştir. Daha fazla hesaplama gücü ve eğitim sonrası algoritmik iyileştirmelerle akıl yürütme derinliği ve yeteneği önemli ölçüde artırılmıştır. Matematik, programlama ve genel mantık kıyaslamalarında güçlü performans sergiler; o3 ve Gemini 2.5 Pro gibi lider modellere yaklaşır.",
|
|
404
|
+
"deepseek/deepseek-r1/community.description": "DeepSeek R1, DeepSeek ekibi tarafından yayımlanan en yeni açık kaynaklı modeldir. Özellikle matematik, kodlama ve akıl yürütme görevlerinde çok güçlü performans gösterir ve OpenAI o1 ile karşılaştırılabilir düzeydedir.",
|
|
405
|
+
"deepseek/deepseek-r1:free.description": "DeepSeek-R1, minimum etiketli veriyle akıl yürütmeyi büyük ölçüde geliştirir ve nihai cevaptan önce düşünce zinciri üreterek doğruluğu artırır.",
|
|
406
|
+
"deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner), DeepSeek’in deneysel akıl yürütme modelidir ve yüksek karmaşıklıktaki akıl yürütme görevleri için uygundur.",
|
|
407
|
+
"deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base, DeepSeek V3 modelinin geliştirilmiş bir versiyonudur.",
|
|
408
|
+
"deepseek/deepseek-v3.description": "Geliştirilmiş akıl yürütme yeteneğine sahip hızlı, genel amaçlı bir LLM.",
|
|
409
|
+
"deepseek/deepseek-v3/community.description": "DeepSeek-V3, önceki modellere kıyasla akıl yürütme hızında büyük bir atılım sağlar. Açık kaynaklı modeller arasında birinci sırada yer alır ve en gelişmiş kapalı modellerle rekabet eder. DeepSeek-V3, DeepSeek-V2’de tamamen doğrulanan Multi-Head Latent Attention (MLA) ve DeepSeekMoE mimarisini benimser. Ayrıca yük dengeleme için kayıpsız yardımcı strateji ve daha güçlü performans için çoklu token tahmin eğitim hedefi sunar.",
|
|
410
|
+
"deepseek_r1.description": "DeepSeek-R1, tekrar ve okunabilirlik sorunlarını ele alan pekiştirmeli öğrenme odaklı bir akıl yürütme modelidir. RL öncesinde, soğuk başlangıç verileriyle akıl yürütme performansı daha da artırılır. Matematik, kodlama ve akıl yürütme görevlerinde OpenAI-o1 ile eşleşir; dikkatle tasarlanmış eğitim süreci genel sonuçları iyileştirir.",
|
|
411
|
+
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B, Llama-3.3-70B-Instruct’tan damıtılmıştır. DeepSeek-R1 serisinin bir parçası olarak, DeepSeek-R1 tarafından üretilen örneklerle ince ayar yapılmıştır ve matematik, kodlama ve akıl yürütme alanlarında güçlü performans sergiler.",
|
|
412
|
+
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B, Qwen2.5-14B’den damıtılmıştır ve DeepSeek-R1 tarafından üretilen 800K seçilmiş örnekle ince ayar yapılmıştır. Güçlü akıl yürütme yeteneği sunar.",
|
|
413
|
+
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B, Qwen2.5-32B’den damıtılmıştır ve DeepSeek-R1 tarafından üretilen 800K seçilmiş örnekle ince ayar yapılmıştır. Matematik, kodlama ve akıl yürütme alanlarında üstün performans gösterir.",
|
|
395
414
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
|
|
396
415
|
"mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
|
|
397
416
|
"mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Plan oluşturuldu: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Yapılacaklar oluştur",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Görevi çalıştır",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Görev oluşturuldu: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Görev oluşturuluyor: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Görevleri çalıştır",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Yapılacakları sil",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Planı güncelle",
|
package/locales/vi-VN/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} nhiệm vụ hàng loạt",
|
|
296
296
|
"task.metrics.stepsShort": "bước",
|
|
297
297
|
"task.metrics.toolCallsShort": "lượt dùng công cụ",
|
|
298
|
+
"task.status.cancelled": "Nhiệm vụ đã hủy",
|
|
299
|
+
"task.status.failed": "Nhiệm vụ thất bại",
|
|
298
300
|
"task.status.initializing": "Đang khởi tạo nhiệm vụ...",
|
|
299
301
|
"task.subtask": "Nhiệm vụ phụ",
|
|
300
302
|
"thread.divider": "Chủ đề phụ",
|
|
@@ -271,9 +271,9 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực, kết hợp khả năng hiểu và sinh văn bản mạnh mẽ cho các tình huống sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic. So với Claude 3 Haiku, nó cải thiện toàn diện về kỹ năng và vượt qua mô hình lớn nhất trước đó là Claude 3 Opus trong nhiều bài kiểm tra trí tuệ.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku cung cấp phản hồi nhanh cho các tác vụ nhẹ.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic và là mô hình
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic và là mô hình lai đầu tiên về suy luận trên thị trường. Nó có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng mà người dùng có thể quan sát. Sonnet đặc biệt mạnh về lập trình, khoa học dữ liệu, thị giác máy tính và các tác vụ đại lý.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
@@ -281,10 +281,10 @@
|
|
|
281
281
|
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ cực nhanh và khả năng suy luận mở rộng.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp cao, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 có thể tạo phản hồi gần như tức thì hoặc suy
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 có thể tạo phản hồi gần như tức thì hoặc suy nghĩ từng bước với quy trình hiển thị rõ ràng.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.",
|
|
@@ -335,6 +335,61 @@
|
|
|
335
335
|
"computer-use-preview.description": "computer-use-preview là mô hình chuyên biệt cho công cụ \"sử dụng máy tính\", được huấn luyện để hiểu và thực hiện các tác vụ liên quan đến máy tính.",
|
|
336
336
|
"dall-e-2.description": "DALL·E thế hệ thứ hai với khả năng tạo hình ảnh chân thực, chính xác hơn và độ phân giải gấp 4 lần thế hệ đầu tiên.",
|
|
337
337
|
"dall-e-3.description": "Mô hình DALL·E mới nhất, phát hành tháng 11 năm 2023, hỗ trợ tạo hình ảnh chân thực, chính xác hơn với chi tiết mạnh mẽ hơn.",
|
|
338
|
+
"databricks/dbrx-instruct.description": "DBRX Instruct cung cấp khả năng xử lý hướng dẫn đáng tin cậy cao trong nhiều ngành công nghiệp.",
|
|
339
|
+
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR là mô hình thị giác-ngôn ngữ từ DeepSeek AI tập trung vào OCR và \"nén quang học theo ngữ cảnh.\" Mô hình này khám phá cách nén ngữ cảnh từ hình ảnh, xử lý tài liệu hiệu quả và chuyển đổi chúng thành văn bản có cấu trúc (ví dụ: Markdown). Nó nhận diện văn bản trong hình ảnh một cách chính xác, phù hợp cho số hóa tài liệu, trích xuất văn bản và xử lý có cấu trúc.",
|
|
340
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B chắt lọc chuỗi tư duy từ DeepSeek-R1-0528 vào Qwen3 8B Base. Mô hình đạt SOTA trong số các mô hình mã nguồn mở, vượt Qwen3 8B 10% trên AIME 2024 và ngang bằng hiệu suất tư duy của Qwen3-235B. Nó vượt trội trong suy luận toán học, lập trình và các bài kiểm tra logic tổng quát. Mô hình sử dụng kiến trúc Qwen3-8B nhưng dùng tokenizer của DeepSeek-R1-0528.",
|
|
341
|
+
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 tận dụng sức mạnh tính toán bổ sung và tối ưu hóa thuật toán sau huấn luyện để tăng cường khả năng suy luận. Mô hình thể hiện hiệu suất mạnh mẽ trên các tiêu chuẩn toán học, lập trình và logic tổng quát, tiệm cận các mô hình hàng đầu như o3 và Gemini 2.5 Pro.",
|
|
342
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Các mô hình chắt lọc DeepSeek-R1 sử dụng học tăng cường (RL) và dữ liệu khởi đầu lạnh để cải thiện khả năng suy luận và thiết lập các tiêu chuẩn mới cho mô hình mã nguồn mở đa nhiệm.",
|
|
343
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Các mô hình chắt lọc DeepSeek-R1 sử dụng học tăng cường (RL) và dữ liệu khởi đầu lạnh để cải thiện khả năng suy luận và thiết lập các tiêu chuẩn mới cho mô hình mã nguồn mở đa nhiệm.",
|
|
344
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Các mô hình chắt lọc DeepSeek-R1 sử dụng học tăng cường (RL) và dữ liệu khởi đầu lạnh để cải thiện khả năng suy luận và thiết lập các tiêu chuẩn mới cho mô hình mã nguồn mở đa nhiệm.",
|
|
345
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B được chắt lọc từ Qwen2.5-32B và tinh chỉnh trên 800K mẫu DeepSeek-R1 được tuyển chọn. Mô hình vượt trội trong toán học, lập trình và suy luận, đạt kết quả cao trên AIME 2024, MATH-500 (độ chính xác 94.3%) và GPQA Diamond.",
|
|
346
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B được chắt lọc từ Qwen2.5-Math-7B và tinh chỉnh trên 800K mẫu DeepSeek-R1 được tuyển chọn. Mô hình đạt hiệu suất cao với 92.8% trên MATH-500, 55.5% trên AIME 2024 và xếp hạng CodeForces 1189 cho mô hình 7B.",
|
|
347
|
+
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 cải thiện khả năng suy luận với học tăng cường và dữ liệu khởi đầu lạnh, thiết lập các tiêu chuẩn mới cho mô hình mã nguồn mở đa nhiệm và vượt qua OpenAI-o1-mini.",
|
|
348
|
+
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 nâng cấp từ DeepSeek-V2-Chat và DeepSeek-Coder-V2-Instruct, kết hợp khả năng tổng quát và lập trình. Mô hình cải thiện khả năng viết và tuân theo hướng dẫn để phù hợp hơn với sở thích người dùng, và đạt tiến bộ đáng kể trên các tiêu chuẩn như AlpacaEval 2.0, ArenaHard, AlignBench và MT-Bench.",
|
|
349
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus là phiên bản cập nhật của mô hình V3.1, định vị như một mô hình đại lý lai. Mô hình khắc phục các vấn đề do người dùng báo cáo, cải thiện độ ổn định, tính nhất quán ngôn ngữ và giảm ký tự bất thường hoặc trộn lẫn Trung/Anh. Nó tích hợp chế độ Tư duy và Không tư duy với mẫu trò chuyện để chuyển đổi linh hoạt. Ngoài ra, nó còn nâng cao hiệu suất của Code Agent và Search Agent để sử dụng công cụ đáng tin cậy hơn và xử lý tác vụ nhiều bước.",
|
|
350
|
+
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 sử dụng kiến trúc suy luận lai và hỗ trợ cả chế độ tư duy và không tư duy.",
|
|
351
|
+
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp là bản phát hành thử nghiệm của V3.2, làm cầu nối đến kiến trúc tiếp theo. Mô hình bổ sung DeepSeek Sparse Attention (DSA) trên nền V3.1-Terminus để cải thiện hiệu quả huấn luyện và suy luận với ngữ cảnh dài, tối ưu hóa cho việc sử dụng công cụ, hiểu tài liệu dài và suy luận nhiều bước. Đây là lựa chọn lý tưởng để khám phá hiệu quả suy luận cao hơn với ngân sách ngữ cảnh lớn.",
|
|
352
|
+
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 là mô hình MoE với 671 tỷ tham số, sử dụng MLA và DeepSeekMoE với cân bằng tải không tổn thất để huấn luyện và suy luận hiệu quả. Được huấn luyện trước trên 14.8T token chất lượng cao với SFT và RL, mô hình vượt trội so với các mô hình mã nguồn mở khác và tiệm cận các mô hình đóng hàng đầu.",
|
|
353
|
+
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) là mô hình sáng tạo cung cấp khả năng hiểu ngôn ngữ sâu và tương tác hiệu quả.",
|
|
354
|
+
"deepseek-ai/deepseek-r1.description": "Một mô hình ngôn ngữ tiên tiến, hiệu quả, mạnh về lập luận, toán học và lập trình.",
|
|
355
|
+
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 là mô hình lập luận thế hệ mới với khả năng suy luận phức tạp và chuỗi tư duy mạnh mẽ, phù hợp cho các tác vụ phân tích chuyên sâu.",
|
|
356
|
+
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 là mô hình lập luận thế hệ mới với khả năng suy luận phức tạp và chuỗi tư duy mạnh mẽ, phù hợp cho các tác vụ phân tích chuyên sâu.",
|
|
357
|
+
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 là mô hình thị giác-ngôn ngữ MoE dựa trên DeepSeekMoE-27B với kích hoạt thưa, đạt hiệu suất cao chỉ với 4.5B tham số hoạt động. Mô hình vượt trội trong các tác vụ hỏi đáp hình ảnh, OCR, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh.",
|
|
358
|
+
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B là mô hình ngôn ngữ lập trình được huấn luyện trên 2 nghìn tỷ token (87% mã nguồn, 13% văn bản tiếng Trung/Anh). Mô hình hỗ trợ cửa sổ ngữ cảnh 16K và nhiệm vụ điền vào giữa, cung cấp khả năng hoàn thành mã ở cấp độ dự án và chèn đoạn mã.",
|
|
359
|
+
"deepseek-coder-v2.description": "DeepSeek Coder V2 là mô hình mã nguồn mở MoE chuyên về lập trình, đạt hiệu suất tương đương GPT-4 Turbo.",
|
|
360
|
+
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 là mô hình mã nguồn mở MoE chuyên về lập trình, đạt hiệu suất tương đương GPT-4 Turbo.",
|
|
361
|
+
"deepseek-ocr.description": "DeepSeek-OCR là mô hình thị giác-ngôn ngữ từ DeepSeek AI tập trung vào OCR và \"nén quang học theo ngữ cảnh\". Mô hình khám phá cách nén thông tin ngữ cảnh từ hình ảnh, xử lý tài liệu hiệu quả và chuyển đổi chúng thành định dạng văn bản có cấu trúc như Markdown. Mô hình nhận diện văn bản trong hình ảnh chính xác, lý tưởng cho số hóa tài liệu, trích xuất văn bản và xử lý có cấu trúc.",
|
|
362
|
+
"deepseek-r1-0528.description": "Mô hình đầy đủ 685B được phát hành vào ngày 28-05-2025. DeepSeek-R1 sử dụng học tăng cường quy mô lớn trong giai đoạn hậu huấn luyện, cải thiện đáng kể khả năng lập luận với dữ liệu gán nhãn tối thiểu, và thể hiện mạnh mẽ trong toán học, lập trình và lập luận ngôn ngữ tự nhiên.",
|
|
363
|
+
"deepseek-r1-250528.description": "DeepSeek R1 250528 là mô hình lập luận đầy đủ DeepSeek-R1 dành cho các tác vụ toán học và logic khó.",
|
|
364
|
+
"deepseek-r1-70b-fast-online.description": "Phiên bản nhanh DeepSeek R1 70B với tìm kiếm web thời gian thực, mang lại phản hồi nhanh hơn mà vẫn duy trì hiệu suất.",
|
|
365
|
+
"deepseek-r1-70b-online.description": "Phiên bản tiêu chuẩn DeepSeek R1 70B với tìm kiếm web thời gian thực, phù hợp cho trò chuyện và tác vụ văn bản cập nhật.",
|
|
366
|
+
"deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B kết hợp khả năng lập luận của R1 với hệ sinh thái Llama.",
|
|
367
|
+
"deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B được chưng cất từ Llama-3.1-8B sử dụng đầu ra từ DeepSeek R1.",
|
|
368
|
+
"deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama được chưng cất từ DeepSeek-R1 trên nền tảng Llama.",
|
|
369
|
+
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B là phiên bản chưng cất R1 dựa trên Qianfan-70B với giá trị cao.",
|
|
370
|
+
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B là phiên bản chưng cất R1 dựa trên Qianfan-8B, phù hợp cho ứng dụng quy mô nhỏ và trung bình.",
|
|
371
|
+
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B là phiên bản chưng cất R1 dựa trên Llama-70B.",
|
|
372
|
+
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B là mô hình chưng cất siêu nhẹ dành cho môi trường tài nguyên rất thấp.",
|
|
373
|
+
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B là mô hình chưng cất cỡ trung cho triển khai đa kịch bản.",
|
|
374
|
+
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B là phiên bản chưng cất R1 dựa trên Qwen-32B, cân bằng giữa hiệu suất và chi phí.",
|
|
375
|
+
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B là mô hình chưng cất nhẹ dành cho môi trường biên và doanh nghiệp riêng tư.",
|
|
376
|
+
"deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen được chưng cất từ DeepSeek-R1 trên nền tảng Qwen.",
|
|
377
|
+
"deepseek-r1-fast-online.description": "Phiên bản đầy đủ DeepSeek R1 nhanh với tìm kiếm web thời gian thực, kết hợp khả năng 671B và phản hồi nhanh hơn.",
|
|
378
|
+
"deepseek-r1-online.description": "Phiên bản đầy đủ DeepSeek R1 với 671B tham số và tìm kiếm web thời gian thực, mang lại khả năng hiểu và tạo nội dung mạnh mẽ hơn.",
|
|
379
|
+
"deepseek-r1.description": "DeepSeek-R1 sử dụng dữ liệu khởi động lạnh trước học tăng cường và đạt hiệu suất tương đương OpenAI-o1 trong toán học, lập trình và lập luận.",
|
|
380
|
+
"deepseek-v2.description": "DeepSeek V2 là mô hình MoE hiệu quả cho xử lý tiết kiệm chi phí.",
|
|
381
|
+
"deepseek-v2:236b.description": "DeepSeek V2 236B là mô hình tập trung vào mã nguồn của DeepSeek với khả năng tạo mã mạnh mẽ.",
|
|
382
|
+
"deepseek-v3-0324.description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật về lập trình, khả năng kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài.",
|
|
383
|
+
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus là mô hình LLM tối ưu cho thiết bị đầu cuối từ DeepSeek.",
|
|
384
|
+
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 là mô hình tư duy sâu tương ứng với phiên bản Terminus, được xây dựng cho lập luận hiệu suất cao.",
|
|
385
|
+
"deepseek-v3.1.description": "DeepSeek-V3.1 là mô hình lập luận lai mới từ DeepSeek, hỗ trợ cả chế độ tư duy và không tư duy, mang lại hiệu quả tư duy cao hơn so với DeepSeek-R1-0528. Tối ưu hóa sau huấn luyện giúp cải thiện đáng kể việc sử dụng công cụ và hiệu suất tác vụ tác nhân. Mô hình hỗ trợ cửa sổ ngữ cảnh 128k và tối đa 64k token đầu ra.",
|
|
386
|
+
"deepseek-v3.1:671b.description": "DeepSeek V3.1 là mô hình lập luận thế hệ mới với khả năng suy luận phức tạp và chuỗi tư duy được cải thiện, phù hợp cho các tác vụ phân tích chuyên sâu.",
|
|
387
|
+
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp giới thiệu attention thưa để cải thiện hiệu quả huấn luyện và suy luận trên văn bản dài, với chi phí thấp hơn deepseek-v3.1.",
|
|
388
|
+
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think là mô hình tư duy sâu đầy đủ với khả năng lập luận chuỗi dài mạnh mẽ hơn.",
|
|
389
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 là mô hình lập luận lai đầu tiên của DeepSeek tích hợp tư duy vào việc sử dụng công cụ, kết hợp kiến trúc hiệu quả để tiết kiệm tài nguyên, học tăng cường quy mô lớn để nâng cao năng lực, và dữ liệu nhiệm vụ tổng hợp quy mô lớn để tăng khả năng tổng quát. Hiệu suất tổng thể tương đương GPT-5-High, độ dài đầu ra giảm đáng kể, giúp tiết kiệm chi phí tính toán và thời gian chờ của người dùng.",
|
|
390
|
+
"deepseek-v3.description": "DeepSeek-V3 là mô hình MoE mạnh mẽ với tổng cộng 671B tham số và 37B tham số hoạt động mỗi token.",
|
|
391
|
+
"deepseek-vl2-small.description": "DeepSeek VL2 Small là phiên bản đa phương thức nhẹ, phù hợp cho môi trường hạn chế tài nguyên và yêu cầu đồng thời cao.",
|
|
392
|
+
"deepseek-vl2.description": "DeepSeek VL2 là mô hình đa phương thức cho hiểu hình ảnh-văn bản và hỏi đáp hình ảnh chi tiết.",
|
|
338
393
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 là một mô hình ngôn ngữ mở dành cho nhà phát triển, nhà nghiên cứu và doanh nghiệp, được thiết kế để hỗ trợ xây dựng, thử nghiệm và mở rộng các ý tưởng AI sinh ngữ một cách có trách nhiệm. Là một phần trong nền tảng đổi mới cộng đồng toàn cầu, mô hình này phù hợp với môi trường có tài nguyên hạn chế, thiết bị biên và yêu cầu thời gian huấn luyện nhanh hơn.",
|
|
339
394
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Khả năng suy luận hình ảnh mạnh mẽ trên ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu thị giác.",
|
|
340
395
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng tác tử hiểu thị giác.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Tạo kế hoạch: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Tạo việc cần làm",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Thực hiện nhiệm vụ",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Đã tạo nhiệm vụ: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Đang tạo nhiệm vụ: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Thực hiện các nhiệm vụ",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Xóa việc cần làm",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Cập nhật kế hoạch",
|
package/locales/zh-CN/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} 个批量子任务",
|
|
296
296
|
"task.metrics.stepsShort": "步",
|
|
297
297
|
"task.metrics.toolCallsShort": "次技能调用",
|
|
298
|
+
"task.status.cancelled": "任务已取消",
|
|
299
|
+
"task.status.failed": "任务失败",
|
|
298
300
|
"task.status.initializing": "任务启动中…",
|
|
299
301
|
"task.subtask": "子任务",
|
|
300
302
|
"thread.divider": "子话题",
|