@lobehub/lobehub 2.0.0-next.200 → 2.0.0-next.202

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (130) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/chat.json +2 -0
  4. package/locales/ar/models.json +64 -7
  5. package/locales/ar/plugin.json +2 -1
  6. package/locales/ar/providers.json +1 -0
  7. package/locales/bg-BG/chat.json +2 -0
  8. package/locales/bg-BG/models.json +49 -5
  9. package/locales/bg-BG/plugin.json +2 -1
  10. package/locales/bg-BG/providers.json +1 -0
  11. package/locales/de-DE/chat.json +2 -0
  12. package/locales/de-DE/models.json +36 -7
  13. package/locales/de-DE/plugin.json +2 -1
  14. package/locales/de-DE/providers.json +1 -0
  15. package/locales/en-US/chat.json +2 -0
  16. package/locales/en-US/models.json +10 -10
  17. package/locales/en-US/plugin.json +2 -1
  18. package/locales/en-US/providers.json +1 -0
  19. package/locales/es-ES/chat.json +2 -0
  20. package/locales/es-ES/models.json +106 -7
  21. package/locales/es-ES/plugin.json +2 -1
  22. package/locales/es-ES/providers.json +1 -0
  23. package/locales/fa-IR/chat.json +2 -0
  24. package/locales/fa-IR/models.json +83 -5
  25. package/locales/fa-IR/plugin.json +2 -1
  26. package/locales/fa-IR/providers.json +1 -0
  27. package/locales/fr-FR/chat.json +2 -0
  28. package/locales/fr-FR/models.json +38 -7
  29. package/locales/fr-FR/plugin.json +2 -1
  30. package/locales/fr-FR/providers.json +1 -0
  31. package/locales/it-IT/chat.json +2 -0
  32. package/locales/it-IT/models.json +40 -5
  33. package/locales/it-IT/plugin.json +2 -1
  34. package/locales/it-IT/providers.json +1 -0
  35. package/locales/ja-JP/chat.json +2 -0
  36. package/locales/ja-JP/models.json +84 -7
  37. package/locales/ja-JP/plugin.json +2 -1
  38. package/locales/ja-JP/providers.json +1 -0
  39. package/locales/ko-KR/chat.json +2 -0
  40. package/locales/ko-KR/models.json +65 -7
  41. package/locales/ko-KR/plugin.json +2 -1
  42. package/locales/ko-KR/providers.json +1 -0
  43. package/locales/nl-NL/chat.json +2 -0
  44. package/locales/nl-NL/models.json +62 -5
  45. package/locales/nl-NL/plugin.json +2 -1
  46. package/locales/nl-NL/providers.json +1 -0
  47. package/locales/pl-PL/chat.json +2 -0
  48. package/locales/pl-PL/models.json +85 -0
  49. package/locales/pl-PL/plugin.json +2 -1
  50. package/locales/pl-PL/providers.json +1 -0
  51. package/locales/pt-BR/chat.json +2 -0
  52. package/locales/pt-BR/models.json +37 -6
  53. package/locales/pt-BR/plugin.json +2 -1
  54. package/locales/pt-BR/providers.json +1 -0
  55. package/locales/ru-RU/chat.json +2 -0
  56. package/locales/ru-RU/models.json +36 -7
  57. package/locales/ru-RU/plugin.json +2 -1
  58. package/locales/ru-RU/providers.json +1 -0
  59. package/locales/tr-TR/chat.json +2 -0
  60. package/locales/tr-TR/models.json +28 -7
  61. package/locales/tr-TR/plugin.json +2 -1
  62. package/locales/tr-TR/providers.json +1 -0
  63. package/locales/vi-VN/chat.json +2 -0
  64. package/locales/vi-VN/models.json +62 -5
  65. package/locales/vi-VN/plugin.json +2 -1
  66. package/locales/vi-VN/providers.json +1 -0
  67. package/locales/zh-CN/chat.json +2 -0
  68. package/locales/zh-CN/models.json +87 -6
  69. package/locales/zh-CN/plugin.json +2 -1
  70. package/locales/zh-CN/providers.json +1 -0
  71. package/locales/zh-TW/chat.json +2 -0
  72. package/locales/zh-TW/models.json +71 -7
  73. package/locales/zh-TW/plugin.json +2 -1
  74. package/locales/zh-TW/providers.json +1 -0
  75. package/package.json +2 -2
  76. package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +30 -15
  77. package/packages/builtin-tool-gtd/src/manifest.ts +1 -1
  78. package/packages/model-runtime/src/core/ModelRuntime.test.ts +44 -86
  79. package/packages/types/src/aiChat.ts +0 -1
  80. package/packages/types/src/message/ui/chat.ts +1 -1
  81. package/src/app/(backend)/middleware/auth/index.ts +16 -2
  82. package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +30 -15
  83. package/src/app/(backend)/webapi/chat/[provider]/route.ts +44 -40
  84. package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +4 -3
  85. package/src/app/(backend)/webapi/models/[provider]/route.test.ts +36 -13
  86. package/src/app/(backend)/webapi/models/[provider]/route.ts +4 -11
  87. package/src/app/[variants]/(desktop)/desktop-onboarding/index.tsx +8 -2
  88. package/src/features/Conversation/Messages/AssistantGroup/Tool/Render/index.tsx +21 -23
  89. package/src/features/Conversation/Messages/AssistantGroup/components/ContentBlock.tsx +16 -3
  90. package/src/features/Conversation/Messages/Task/TaskDetailPanel/index.tsx +17 -20
  91. package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +16 -11
  92. package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +6 -20
  93. package/src/features/Conversation/Messages/Tasks/shared/ProcessingState.tsx +10 -20
  94. package/src/features/User/DataStatistics.tsx +4 -4
  95. package/src/hooks/useQueryParam.ts +0 -2
  96. package/src/libs/trpc/async/asyncAuth.ts +0 -2
  97. package/src/libs/trpc/async/context.ts +3 -11
  98. package/src/locales/default/chat.ts +2 -0
  99. package/src/locales/default/plugin.ts +2 -1
  100. package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +6 -6
  101. package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +3 -3
  102. package/src/server/modules/AgentRuntime/factory.ts +39 -20
  103. package/src/server/modules/ModelRuntime/index.ts +138 -1
  104. package/src/server/routers/async/__tests__/caller.test.ts +22 -27
  105. package/src/server/routers/async/caller.ts +4 -6
  106. package/src/server/routers/async/file.ts +10 -5
  107. package/src/server/routers/async/image.ts +5 -4
  108. package/src/server/routers/async/ragEval.ts +7 -5
  109. package/src/server/routers/lambda/__tests__/aiChat.test.ts +8 -37
  110. package/src/server/routers/lambda/aiChat.ts +5 -21
  111. package/src/server/routers/lambda/chunk.ts +9 -28
  112. package/src/server/routers/lambda/image.ts +1 -7
  113. package/src/server/routers/lambda/ragEval.ts +1 -1
  114. package/src/server/routers/lambda/userMemories/reembed.ts +4 -1
  115. package/src/server/routers/lambda/userMemories/search.ts +7 -7
  116. package/src/server/routers/lambda/userMemories/shared.ts +8 -10
  117. package/src/server/routers/lambda/userMemories/tools.ts +140 -118
  118. package/src/server/routers/lambda/userMemories.test.ts +3 -7
  119. package/src/server/routers/lambda/userMemories.ts +44 -29
  120. package/src/server/services/agentRuntime/AgentRuntimeService.test.ts +87 -0
  121. package/src/server/services/agentRuntime/AgentRuntimeService.ts +53 -2
  122. package/src/server/services/agentRuntime/__tests__/executeSync.test.ts +2 -6
  123. package/src/server/services/agentRuntime/__tests__/stepLifecycleCallbacks.test.ts +1 -1
  124. package/src/server/services/chunk/index.ts +6 -5
  125. package/src/server/services/toolExecution/types.ts +1 -2
  126. package/src/services/__tests__/_url.test.ts +0 -1
  127. package/src/services/_url.ts +0 -3
  128. package/src/services/aiChat.ts +5 -12
  129. package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +0 -2
  130. package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +0 -74
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
272
272
  "claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
273
273
  "claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 가장 빠른 차세대 모델입니다. Claude 3 Haiku와 비교해 전반적인 능력이 향상되었으며, 이전의 최고 모델인 Claude 3 Opus를 여러 지능 벤치마크에서 능가합니다.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 가장 빠른 모델로, 다양한 기술에서 향상된 성능을 보이며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답은 물론, 사용자가 확인할 있는 단계별 추론도 제공합니다. 코딩, 데이터 과학, 비전, 에이전트 작업에 특히 강력합니다.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답부터 심화 사고까지 세밀한 제어가 가능하며, 다양한 상황에 유연하게 대응합니다.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 심화 사고 능력을 갖추고 있습니다.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4는 복잡한 작업을 위한 Anthropic의 가장 강력한 모델로, 성능, 지능, 유창성, 이해력에서 탁월한 결과를 보여줍니다.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 발휘합니다.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 추론을 생성할 있습니다.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4는 현재까지 Anthropic에서 가장 지능적인 모델로, API 사용자에게 세밀한 제어를 제공하며 즉각적인 응답 또는 단계별 사고를 지원합니다.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic이 지금까지 개발한 가장 지능적인 모델입니다.",
289
289
  "codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 사고의 흐름(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 사고의 흐름(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 질의응답, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
358
- "deepseek-chat.description": "일반 대화 능력과 코드 처리 능력을 결합한 새로운 오픈소스 모델입니다. 대화 모델의 자연스러운 상호작용과 코드 모델의 강력한 코딩 능력을 유지하며, 사용자 선호도에 맞춰졌습니다. DeepSeek-V2.5는 글쓰기와 지시 따르기에서도 향상된 성능을 보입니다.",
358
+ "deepseek-chat.description": "DeepSeek V3.2는 일상적인 질의응답 에이전트 작업을 위해 추론 능력과 출력 길이의 균형을 맞춘 모델입니다. 공개 벤치마크에서 GPT-5 수준에 도달했으며, 도구 사용에 사고 과정을 통합한 최초의 모델로, 오픈소스 에이전트 평가에서 선도적인 성과를 보입니다.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2는 오픈소스 MoE 코드 모델로, GPT-4 Turbo에 필적하는 뛰어난 코딩 성능을 자랑합니다.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 오픈소스 MoE 코드 모델로, GPT-4 Turbo에 필적하는 뛰어난 코딩 성능을 자랑합니다.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
380
380
  "deepseek-r1.description": "DeepSeek-R1은 강화 학습 이전에 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론 작업에서 OpenAI-o1과 유사한 성능을 보입니다.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 사고 모드는 최종 답변 전에 사고의 흐름(chain-of-thought)을 출력하여 정확도를 높입니다.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 과정을 생성하여 정확도를 높이는 심층 추론 모델입니다. 주요 대회에서 상위권 성적을 기록하며, Gemini-3.0-Pro에 필적하는 추론 능력을 보입니다.",
382
382
  "deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술적 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
@@ -413,6 +413,64 @@
413
413
  "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B는 Llama-3.3-70B-Instruct에서 디스틸된 모델로, DeepSeek-R1 시리즈의 일부입니다. DeepSeek-R1이 생성한 샘플로 파인튜닝되어 수학, 코딩, 추론에서 뛰어난 성능을 발휘합니다.",
414
414
  "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B는 Qwen2.5-14B에서 디스틸되었으며, DeepSeek-R1이 생성한 80만 개의 정제된 샘플로 파인튜닝되어 강력한 추론 능력을 제공합니다.",
415
415
  "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B는 Qwen2.5-32B에서 디스틸되었으며, DeepSeek-R1이 생성한 80만 개의 정제된 샘플로 파인튜닝되어 수학, 코딩, 추론에서 탁월한 성능을 발휘합니다.",
416
+ "devstral-2:123b.description": "Devstral 2 123B는 코드베이스 탐색, 다중 파일 편집, 소프트웨어 엔지니어링 에이전트 지원에 탁월한 도구 활용 능력을 갖춘 모델입니다.",
417
+ "doubao-1.5-lite-32k.description": "Doubao-1.5-lite는 초고속 응답을 제공하는 경량 모델로, 최고 수준의 품질과 지연 시간을 자랑합니다.",
418
+ "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k는 Doubao-1.5-Pro의 전면 업그레이드 버전으로, 전체 성능이 10% 향상되었습니다. 256k 컨텍스트 윈도우와 최대 12k 출력 토큰을 지원하며, 더 넓은 활용 사례에 적합한 고성능과 가성비를 제공합니다.",
419
+ "doubao-1.5-pro-32k.description": "Doubao-1.5-pro는 지식, 코딩, 추론 전반에서 뛰어난 성능을 보이는 차세대 플래그십 모델입니다.",
420
+ "doubao-1.5-thinking-pro-m.description": "Doubao-1.5는 수학, 코딩, 과학적 추론, 창의적 글쓰기 등 일반 작업에서 뛰어난 성능을 보이는 심층 추론 모델입니다. m 버전은 멀티모달 심층 추론을 기본으로 포함하며, AIME 2024, Codeforces, GPQA 등 주요 벤치마크에서 최고 수준의 결과를 달성하거나 근접합니다. 128k 컨텍스트 윈도우와 16k 출력 토큰을 지원합니다.",
421
+ "doubao-1.5-thinking-pro.description": "Doubao-1.5는 수학, 코딩, 과학적 추론, 창의적 글쓰기 등 일반 작업에서 뛰어난 성능을 보이는 심층 추론 모델입니다. AIME 2024, Codeforces, GPQA 등 주요 벤치마크에서 최고 수준의 결과를 달성하거나 근접하며, 128k 컨텍스트 윈도우와 16k 출력 토큰을 지원합니다.",
422
+ "doubao-1.5-thinking-vision-pro.description": "더 강력한 멀티모달 이해 및 추론 능력을 갖춘 새로운 시각 심층 추론 모델로, 59개 공개 벤치마크 중 37개에서 SOTA 성과를 달성했습니다.",
423
+ "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS는 GUI 중심의 네이티브 에이전트 모델로, 인간과 유사한 인지, 추론, 행동을 통해 인터페이스와 자연스럽게 상호작용합니다.",
424
+ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다. 128k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
425
+ "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다.",
426
+ "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다.",
427
+ "doubao-lite-128k.description": "초고속 응답과 뛰어난 가성비를 제공하며, 다양한 상황에서 유연한 선택이 가능합니다. 128k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
428
+ "doubao-lite-32k.description": "초고속 응답과 뛰어난 가성비를 제공하며, 다양한 상황에서 유연한 선택이 가능합니다. 32k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
429
+ "doubao-lite-4k.description": "초고속 응답과 뛰어난 가성비를 제공하며, 다양한 상황에서 유연한 선택이 가능합니다. 4k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
430
+ "doubao-pro-256k.description": "복잡한 작업을 위한 최고 성능의 플래그십 모델로, 참조 기반 질의응답, 요약, 창작, 텍스트 분류, 롤플레이 등에서 강력한 성과를 보입니다. 256k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
431
+ "doubao-pro-32k.description": "복잡한 작업을 위한 최고 성능의 플래그십 모델로, 참조 기반 질의응답, 요약, 창작, 텍스트 분류, 롤플레이 등에서 강력한 성과를 보입니다. 32k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
432
+ "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash는 TPOT 10ms 수준의 초고속 멀티모달 심층 추론 모델입니다. 텍스트와 시각 입력을 모두 지원하며, 텍스트 이해는 이전 lite 모델을 능가하고, 시각 성능은 경쟁 pro 모델과 동등합니다. 256k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
433
+ "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite는 추론 강도를 조절할 수 있는 새로운 멀티모달 심층 추론 모델로, 일반 작업에 적합한 가성비 높은 선택지를 제공합니다. 최대 256k 컨텍스트 윈도우를 지원합니다.",
434
+ "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking은 Doubao-1.5-thinking-pro보다 코딩, 수학, 논리 추론의 핵심 능력을 더욱 강화하고 시각 이해 기능을 추가한 모델입니다. 256k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
435
+ "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision은 교육, 이미지 리뷰, 검사/보안, AI 검색 질의응답 등에서 강력한 멀티모달 이해 및 추론을 제공하는 시각 심층 추론 모델입니다. 256k 컨텍스트 윈도우와 최대 64k 출력 토큰을 지원합니다.",
436
+ "doubao-seed-1.6.description": "Doubao-Seed-1.6은 자동, 사고, 비사고 모드를 지원하는 새로운 멀티모달 심층 추론 모델입니다. 비사고 모드에서는 Doubao-1.5-pro/250115보다 현저히 뛰어난 성능을 보입니다. 256k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8은 더 강력한 멀티모달 이해력과 에이전트 능력을 갖추고 있으며, 텍스트/이미지/비디오 입력과 컨텍스트 캐시를 지원하여 복잡한 작업에서 뛰어난 성능을 발휘합니다.",
438
+ "doubao-seed-code.description": "Doubao-Seed-Code는 에이전트 기반 코딩에 최적화된 모델로, 멀티모달 입력(텍스트/이미지/비디오)과 256k 컨텍스트 윈도우를 지원하며, Anthropic API와 호환됩니다. 코딩, 시각 이해, 에이전트 워크플로우에 적합합니다.",
439
+ "doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed의 Doubao 이미지 모델은 텍스트 및 이미지 입력을 지원하며, 고품질 이미지 생성과 세밀한 제어가 가능합니다. 텍스트 기반 이미지 편집을 지원하며, 출력 크기는 긴 변 기준 512~1536 사이입니다.",
440
+ "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며, 고품질 이미지 생성을 세밀하게 제어할 수 있습니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
441
+ "doubao-seedream-4-0-250828.description": "Seedream 4.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며, 고품질 이미지 생성을 세밀하게 제어할 수 있습니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
442
+ "doubao-vision-lite-32k.description": "Doubao-vision은 Doubao의 멀티모달 모델로, 강력한 이미지 이해 및 추론 능력과 정확한 지시 따르기 기능을 갖추고 있습니다. 이미지-텍스트 추출 및 이미지 기반 추론 작업에서 뛰어난 성능을 발휘하며, 더 복잡하고 다양한 시각 질의응답 시나리오를 가능하게 합니다.",
443
+ "doubao-vision-pro-32k.description": "Doubao-vision은 Doubao의 멀티모달 모델로, 강력한 이미지 이해 및 추론 능력과 정확한 지시 따르기 기능을 갖추고 있습니다. 이미지-텍스트 추출 및 이미지 기반 추론 작업에서 뛰어난 성능을 발휘하며, 더 복잡하고 다양한 시각 질의응답 시나리오를 가능하게 합니다.",
444
+ "emohaa.description": "Emohaa는 전문 상담 능력을 갖춘 정신 건강 모델로, 사용자가 감정 문제를 이해하도록 돕습니다.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B는 로컬 및 맞춤형 배포를 위한 오픈소스 경량 모델입니다.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B는 이해력과 생성 능력이 뛰어난 오픈소스 대규모 파라미터 모델입니다.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B는 Baidu ERNIE의 초대형 MoE 모델로, 탁월한 추론 능력을 자랑합니다.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview는 ERNIE 4.5의 평가를 위한 8K 컨텍스트 프리뷰 모델입니다.",
449
+ "ernie-4.5-turbo-128k-preview.description": "ERNIE 4.5 Turbo 128K Preview는 릴리스 수준의 기능을 갖춘 모델로, 통합 및 카나리아 테스트에 적합합니다.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K는 검색 보강 및 도구 호출 기능을 갖춘 고성능 범용 모델로, QA, 코딩, 에이전트 시나리오에 적합합니다.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K는 QA, 지식 기반 검색, 다중 턴 대화를 위한 중간 길이 컨텍스트 버전입니다.",
452
+ "ernie-4.5-turbo-latest.description": "최신 ERNIE 4.5 Turbo는 전반적인 성능이 최적화되어 주력 프로덕션 모델로 이상적입니다.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview는 장문 컨텍스트 비전 능력 평가를 위한 32K 멀티모달 프리뷰 모델입니다.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K는 장문 문서와 이미지 이해를 결합한 중장기 멀티모달 버전입니다.",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest는 이미지-텍스트 이해 및 추론 능력이 향상된 최신 멀티모달 버전입니다.",
456
+ "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview는 이미지-텍스트 이해 및 생성을 위한 멀티모달 프리뷰 모델로, 시각적 QA 및 콘텐츠 이해에 적합합니다.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL은 프로덕션 환경에서 이미지-텍스트 이해 및 인식을 위한 성숙한 멀티모달 모델입니다.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B는 이미지-텍스트 이해 및 추론을 위한 오픈소스 멀티모달 모델입니다.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking은 텍스트, 이미지, 오디오, 비디오를 통합 모델링하는 네이티브 풀모달 플래그십 모델로, 복잡한 QA, 창작, 에이전트 시나리오에 대한 전반적인 기능 향상을 제공합니다.",
460
+ "ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview는 텍스트, 이미지, 오디오, 비디오를 통합 모델링하는 네이티브 풀모달 플래그십 모델로, 복잡한 QA, 창작, 에이전트 시나리오에 대한 전반적인 기능 향상을 제공합니다.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K는 IP 캐릭터 구축 및 장기 동반자형 대화를 위한 페르소나 대화 모델입니다.",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview는 캐릭터 및 플롯 창작 기능 평가를 위한 프리뷰 모델입니다.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K는 장편 소설 및 플롯 창작에 적합한 페르소나 모델입니다.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit는 지우기, 다시 그리기, 변형 생성 등을 지원하는 이미지 편집 모델입니다.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K는 비용 민감한 일상 QA 및 콘텐츠 생성을 위한 경량 범용 모델입니다.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K는 지연 시간 및 비용에 민감한 시나리오를 위한 경량 고성능 모델입니다.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K는 다중 캐릭터 내러티브를 포함한 장편 소설 및 IP 플롯 생성을 위해 설계되었습니다.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K는 I/O 비용이 없는 모델로, 장문 이해 및 대규모 테스트에 적합합니다.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K는 일상 대화 및 간단한 텍스트 작업을 위한 무료 고속 모델입니다.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K는 대규모 온라인 서비스 및 엔터프라이즈 앱을 위한 고동시성 고가치 모델입니다.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 QA, 분류, 저비용 추론을 위한 초경량 모델입니다.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
416
474
  "gemini-flash-latest.description": "Gemini Flash 최신 버전",
417
475
  "gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전",
418
476
  "gemini-pro-latest.description": "Gemini Pro 최신 버전",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "계획 생성: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "할 일 만들기",
65
65
  "builtins.lobe-gtd.apiName.execTask": "작업 실행",
66
- "builtins.lobe-gtd.apiName.execTask.result": "실행: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "작업이 생성되었습니다: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "작업 생성 중: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "작업들 실행",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "할 일 삭제",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "계획 업데이트",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
30
30
  "jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
31
31
  "lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
32
+ "lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
32
33
  "minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
33
34
  "mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
34
35
  "modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} batch-subtaken",
296
296
  "task.metrics.stepsShort": "stappen",
297
297
  "task.metrics.toolCallsShort": "toolgebruik",
298
+ "task.status.cancelled": "Taak geannuleerd",
299
+ "task.status.failed": "Taak mislukt",
298
300
  "task.status.initializing": "Taak initialiseren...",
299
301
  "task.subtask": "Subtaak",
300
302
  "thread.divider": "Subonderwerp",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
272
272
  "claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
273
273
  "claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku presteert het beter op meerdere vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentiebenchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic, met verbeterde vaardigheden en betere prestaties dan het vorige vlaggenschip Claude 3 Opus op veel benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor de gebruiker. Sonnet blinkt uit in codering, datawetenschap, visuele taken en agenttoepassingen.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het biedt vrijwel directe reacties of uitgebreide denkprocessen met nauwkeurige controle.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle reacties en uitgebreide redeneercapaciteiten.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en meest intelligente Haiku-model van Anthropic, met bliksemsnelle prestaties en diepgaand denkvermogen.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is tot nu toe het meest intelligente model van Anthropic. Het biedt vrijwel directe reacties of stapsgewijze denkprocessen met nauwkeurige controle voor API-gebruikers.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
289
289
  "codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
@@ -298,6 +298,63 @@
298
298
  "codeqwen.description": "CodeQwen1.5 is een groot taalmodel getraind op uitgebreide codegegevens, ontworpen voor complexe programmeertaken.",
299
299
  "codestral-latest.description": "Codestral is ons meest geavanceerde codemodel; versie 2 (jan 2025) is gericht op taken met lage latentie en hoge frequentie zoals FIM, codecorrectie en testgeneratie.",
300
300
  "codestral.description": "Codestral is het eerste codemodel van Mistral AI, met sterke ondersteuning voor codegeneratie.",
301
+ "codex-mini-latest.description": "codex-mini-latest is een verfijnd o4-mini-model voor de Codex CLI. Voor direct API-gebruik raden we aan te beginnen met gpt-4.1.",
302
+ "cogito-2.1:671b.description": "Cogito v2.1 671B is een Amerikaans open-source LLM dat vrij is voor commercieel gebruik. Het biedt prestaties die vergelijkbaar zijn met topmodellen, hogere efficiëntie in tokenredenering, een contextlengte van 128k en sterke algemene capaciteiten.",
303
+ "cogview-4.description": "CogView-4 is het eerste open-source tekst-naar-beeldmodel van Zhipu dat Chinese karakters kan genereren. Het verbetert semantisch begrip, beeldkwaliteit en weergave van Chinese/Engelse tekst, ondersteunt tweetalige prompts van willekeurige lengte en kan beelden genereren in elke resolutie binnen opgegeven bereiken.",
304
+ "cohere-command-r-plus.description": "Command R+ is een geavanceerd model geoptimaliseerd voor RAG, ontworpen voor bedrijfsomgevingen.",
305
+ "cohere-command-r.description": "Command R is een schaalbaar generatief model ontworpen voor RAG en toolgebruik, geschikt voor productieklare AI.",
306
+ "cohere/Cohere-command-r-plus.description": "Command R+ is een geavanceerd model geoptimaliseerd voor RAG, ontworpen voor bedrijfsomgevingen.",
307
+ "cohere/Cohere-command-r.description": "Command R is een schaalbaar generatief model ontworpen voor RAG en toolgebruik, geschikt voor productieklare AI.",
308
+ "cohere/command-a.description": "Command A is het krachtigste model van Cohere tot nu toe, uitblinkend in toolgebruik, agents, RAG en meertalige toepassingen. Het ondersteunt een contextlengte van 256K, draait op slechts twee GPU's en levert 150% hogere doorvoer dan Command R+ 08-2024.",
309
+ "cohere/command-r-plus.description": "Command R+ is het nieuwste LLM van Cohere, geoptimaliseerd voor chat en lange contexten, met als doel uitzonderlijke prestaties zodat bedrijven voorbij prototypes kunnen gaan naar productie.",
310
+ "cohere/command-r.description": "Command R is geoptimaliseerd voor chat- en lange-contexttaken, gepositioneerd als een 'schaalbaar' model dat hoge prestaties en nauwkeurigheid in balans brengt, zodat bedrijven voorbij prototypes kunnen gaan naar productie.",
311
+ "cohere/embed-v4.0.description": "Een model dat tekst, afbeeldingen of gemengde inhoud classificeert of omzet in embeddings.",
312
+ "comfyui/flux-dev.description": "FLUX.1 Dev is een hoogwaardig tekst-naar-beeldmodel (10–50 stappen), ideaal voor creatieve en artistieke output van topkwaliteit.",
313
+ "comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev is een afbeeldingsbewerkingsmodel dat tekstgestuurde bewerkingen ondersteunt, waaronder lokale aanpassingen en stijltransfers.",
314
+ "comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev is een tekst-naar-beeldmodel met verbeterde veiligheid, mede ontwikkeld met Krea, en bevat ingebouwde veiligheidsfilters.",
315
+ "comfyui/flux-schnell.description": "FLUX.1 Schnell is een ultrasnel tekst-naar-beeldmodel dat hoogwaardige beelden genereert in 1-4 stappen, ideaal voor realtime gebruik en snelle prototyping.",
316
+ "comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 is een klassiek 512x512 tekst-naar-beeldmodel, ideaal voor snelle prototyping en creatieve experimenten.",
317
+ "comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 met ingebouwde CLIP/T5-encoders vereist geen externe encoderbestanden en is geschikt voor modellen zoals sd3.5_medium_incl_clips met lager middelenverbruik.",
318
+ "comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 is een tekst-naar-beeldmodel van de volgende generatie met Large- en Medium-varianten. Het vereist externe CLIP-encoderbestanden en levert uitstekende beeldkwaliteit en promptnauwkeurigheid.",
319
+ "comfyui/stable-diffusion-custom-refiner.description": "Aangepast SDXL beeld-naar-beeldmodel. Gebruik custom_sd_lobe.safetensors als bestandsnaam voor het model; als je een VAE hebt, gebruik dan custom_sd_vae_lobe.safetensors. Plaats modelbestanden in de vereiste Comfy-mappen.",
320
+ "comfyui/stable-diffusion-custom.description": "Aangepast SD tekst-naar-beeldmodel. Gebruik custom_sd_lobe.safetensors als bestandsnaam voor het model; als je een VAE hebt, gebruik dan custom_sd_vae_lobe.safetensors. Plaats modelbestanden in de vereiste Comfy-mappen.",
321
+ "comfyui/stable-diffusion-refiner.description": "SDXL beeld-naar-beeldmodel voert hoogwaardige transformaties uit op invoerbeelden, met ondersteuning voor stijltransfers, restauratie en creatieve variaties.",
322
+ "comfyui/stable-diffusion-xl.description": "SDXL is een tekst-naar-beeldmodel dat 1024x1024 hoge resolutie ondersteunt met verbeterde beeldkwaliteit en detail.",
323
+ "command-a-03-2025.description": "Command A is ons meest geavanceerde model tot nu toe, uitblinkend in het gebruik van tools, agents, RAG en meertalige scenario's. Het beschikt over een contextvenster van 256K, draait op slechts twee GPU's en levert 150% hogere verwerkingssnelheid dan Command R+ 08-2024.",
324
+ "command-light-nightly.description": "Om de tijd tussen grote releases te verkorten, bieden we nachtelijke Command-builds aan. Voor de command-light-serie heet dit command-light-nightly. Dit is de nieuwste, meest experimentele (en mogelijk instabiele) versie, die regelmatig zonder aankondiging wordt bijgewerkt. Daarom wordt het niet aanbevolen voor productieomgevingen.",
325
+ "command-light.description": "Een kleinere, snellere variant van Command die bijna even krachtig is, maar sneller werkt.",
326
+ "command-nightly.description": "Om de tijd tussen grote releases te verkorten, bieden we nachtelijke Command-builds aan. Voor de Command-serie heet dit command-nightly. Dit is de nieuwste, meest experimentele (en mogelijk instabiele) versie, die regelmatig zonder aankondiging wordt bijgewerkt. Daarom wordt het niet aanbevolen voor productieomgevingen.",
327
+ "command-r-03-2024.description": "Command R is een chatmodel dat instructies volgt met hogere kwaliteit, grotere betrouwbaarheid en een langer contextvenster dan eerdere modellen. Het ondersteunt complexe workflows zoals codegeneratie, RAG, toolgebruik en agents.",
328
+ "command-r-08-2024.description": "command-r-08-2024 is een bijgewerkte versie van het Command R-model, uitgebracht in augustus 2024.",
329
+ "command-r-plus-04-2024.description": "command-r-plus is een alias van command-r-plus-04-2024, dus het gebruik van command-r-plus in de API verwijst naar dat model.",
330
+ "command-r-plus-08-2024.description": "Command R+ is een chatmodel dat instructies volgt met hogere kwaliteit, grotere betrouwbaarheid en een langer contextvenster dan eerdere modellen. Het is ideaal voor complexe RAG-workflows en meerstapsgebruik van tools.",
331
+ "command-r-plus.description": "Command R+ is een krachtig LLM ontworpen voor echte zakelijke toepassingen en complexe apps.",
332
+ "command-r.description": "Command R is een LLM geoptimaliseerd voor chat en taken met lange context, ideaal voor dynamische interactie en kennisbeheer.",
333
+ "command-r7b-12-2024.description": "command-r7b-12-2024 is een kleine, efficiënte update uitgebracht in december 2024. Het blinkt uit in RAG, toolgebruik en agenttaken die complexe, meerstapsredenering vereisen.",
334
+ "command.description": "Een chatmodel dat instructies volgt en betere kwaliteit en betrouwbaarheid levert bij taalopdrachten, met een langer contextvenster dan onze generatieve basismodellen.",
335
+ "computer-use-preview.description": "computer-use-preview is een gespecialiseerd model voor de \"computer use tool\", getraind om computergerelateerde taken te begrijpen en uit te voeren.",
336
+ "dall-e-2.description": "Tweede generatie DALL·E-model met realistischere, nauwkeurigere beeldgeneratie en 4× de resolutie van de eerste generatie.",
337
+ "dall-e-3.description": "Het nieuwste DALL·E-model, uitgebracht in november 2023, ondersteunt realistischere, nauwkeurigere beeldgeneratie met sterkere details.",
338
+ "databricks/dbrx-instruct.description": "DBRX Instruct biedt zeer betrouwbare instructieafhandeling in verschillende sectoren.",
339
+ "deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR is een vision-language model van DeepSeek AI, gericht op OCR en \"contextuele optische compressie\". Het onderzoekt het comprimeren van context uit afbeeldingen, verwerkt documenten efficiënt en zet ze om in gestructureerde tekst (zoals Markdown). Het herkent nauwkeurig tekst in afbeeldingen en is geschikt voor documentdigitalisering, tekstuittrekking en gestructureerde verwerking.",
340
+ "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B distilleert chain-of-thought van DeepSeek-R1-0528 naar Qwen3 8B Base. Het bereikt SOTA onder open modellen, verslaat Qwen3 8B met 10% op AIME 2024 en evenaart de prestaties van Qwen3-235B-thinking. Het blinkt uit in wiskundige redenering, programmeren en algemene logica-benchmarks. Het deelt de Qwen3-8B-architectuur maar gebruikt de tokenizer van DeepSeek-R1-0528.",
341
+ "deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 benut extra rekenkracht en post-trainingsoptimalisaties om redenering te verdiepen. Het presteert sterk op benchmarks in wiskunde, programmeren en algemene logica, en benadert leiders als o3 en Gemini 2.5 Pro.",
342
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek-R1 gedistilleerde modellen gebruiken RL en cold-start data om redenering te verbeteren en nieuwe open-model multi-task benchmarks te zetten.",
343
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "DeepSeek-R1 gedistilleerde modellen gebruiken RL en cold-start data om redenering te verbeteren en nieuwe open-model multi-task benchmarks te zetten.",
344
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1 gedistilleerde modellen gebruiken RL en cold-start data om redenering te verbeteren en nieuwe open-model multi-task benchmarks te zetten.",
345
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B is gedistilleerd van Qwen2.5-32B en fijngestemd op 800K zorgvuldig geselecteerde DeepSeek-R1-samples. Het blinkt uit in wiskunde, programmeren en redenering, en behaalt sterke resultaten op AIME 2024, MATH-500 (94,3% nauwkeurigheid) en GPQA Diamond.",
346
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B is gedistilleerd van Qwen2.5-Math-7B en fijngestemd op 800K zorgvuldig geselecteerde DeepSeek-R1-samples. Het presteert sterk, met 92,8% op MATH-500, 55,5% op AIME 2024 en een CodeForces-rating van 1189 voor een 7B-model.",
347
+ "deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 verbetert redenering met RL en cold-start data, zet nieuwe open-model multi-task benchmarks en overtreft OpenAI-o1-mini.",
348
+ "deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 is een upgrade van DeepSeek-V2-Chat en DeepSeek-Coder-V2-Instruct, en combineert algemene en programmeervaardigheden. Het verbetert schrijven en instructievolging voor betere voorkeurafstemming, en toont aanzienlijke vooruitgang op AlpacaEval 2.0, ArenaHard, AlignBench en MT-Bench.",
349
+ "deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus is een bijgewerkt V3.1-model gepositioneerd als een hybride agent-LLM. Het lost door gebruikers gemelde problemen op en verbetert stabiliteit, taalconsistentie en vermindert gemengde Chinees/Engels en abnormale tekens. Het integreert Denk- en Niet-denkmodi met chattemplates voor flexibele omschakeling. Het verbetert ook de prestaties van Code Agent en Search Agent voor betrouwbaarder gebruik van tools en meerstapstaken.",
350
+ "deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 gebruikt een hybride redeneersarchitectuur en ondersteunt zowel denk- als niet-denkmodi.",
351
+ "deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp is een experimentele V3.2-release die de brug slaat naar de volgende architectuur. Het voegt DeepSeek Sparse Attention (DSA) toe bovenop V3.1-Terminus om de efficiëntie van training en inferentie met lange context te verbeteren, met optimalisaties voor toolgebruik, begrip van lange documenten en meerstapsredenering. Ideaal voor het verkennen van hogere redeneerefficiëntie met grote contextbudgetten.",
352
+ "deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 is een MoE-model met 671 miljard parameters dat gebruikmaakt van MLA en DeepSeekMoE met verliesvrije load balancing voor efficiënte training en inferentie. Voorgetraind op 14,8T hoogwaardige tokens met SFT en RL, overtreft het andere open modellen en benadert het toonaangevende gesloten modellen.",
353
+ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) is een innovatief model dat diep taalbegrip en interactie biedt.",
354
+ "deepseek-ai/deepseek-r1.description": "Een geavanceerd, efficiënt LLM dat sterk is in redenering, wiskunde en programmeren.",
355
+ "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
356
+ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
357
+ "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
301
358
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
302
359
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
303
360
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "Plan aangemaakt: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "Taken aanmaken",
65
65
  "builtins.lobe-gtd.apiName.execTask": "Taak uitvoeren",
66
- "builtins.lobe-gtd.apiName.execTask.result": "Uitvoeren: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "Taak aangemaakt: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "Taak wordt aangemaakt: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "Taken uitvoeren",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "Taken verwijderen",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "Plan bijwerken",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
30
30
  "jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
31
31
  "lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
32
+ "lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
32
33
  "minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
33
34
  "mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
34
35
  "modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} zadań zbiorczych",
296
296
  "task.metrics.stepsShort": "kroków",
297
297
  "task.metrics.toolCallsShort": "użycia narzędzi",
298
+ "task.status.cancelled": "Zadanie anulowane",
299
+ "task.status.failed": "Zadanie nie powiodło się",
298
300
  "task.status.initializing": "Inicjalizacja zadania...",
299
301
  "task.subtask": "Podzadanie",
300
302
  "thread.divider": "Podtemat",
@@ -250,6 +250,91 @@
250
250
  "anthropic/claude-opus-4.description": "Opus 4 to flagowy model Anthropic zaprojektowany do złożonych zadań i zastosowań korporacyjnych.",
251
251
  "anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 to najnowszy hybrydowy model rozumowania od Anthropic, zoptymalizowany pod kątem złożonego rozumowania i kodowania.",
252
252
  "anthropic/claude-sonnet-4.description": "Claude Sonnet 4 to hybrydowy model rozumowania Anthropic z mieszanym trybem myślenia i działania bez myślenia.",
253
+ "ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B to rzadki model językowy (LLM) o 72 miliardach parametrów całkowitych i 16 miliardach aktywnych, oparty na architekturze grupowanej MoE (MoGE). Grupuje ekspertów podczas selekcji i ogranicza aktywację tokenów do równej liczby ekspertów w każdej grupie, co równoważy obciążenie i zwiększa efektywność wdrażania na platformie Ascend.",
254
+ "aya.description": "Aya 23 to wielojęzyczny model firmy Cohere, obsługujący 23 języki i różnorodne zastosowania.",
255
+ "aya:35b.description": "Aya 23 to wielojęzyczny model firmy Cohere, obsługujący 23 języki i różnorodne zastosowania.",
256
+ "azure-DeepSeek-R1-0528.description": "Wdrażany przez Microsoft; DeepSeek R1 został zaktualizowany do wersji DeepSeek-R1-0528. Aktualizacja zwiększa moc obliczeniową i optymalizuje algorytmy po treningu, znacząco poprawiając głębokość rozumowania i wnioskowanie. Model osiąga doskonałe wyniki w testach z matematyki, programowania i logiki ogólnej, zbliżając się do czołowych modeli, takich jak O3 i Gemini 2.5 Pro.",
257
+ "baichuan-m2-32b.description": "Baichuan M2 32B to model MoE od Baichuan Intelligence, wyróżniający się silnymi zdolnościami rozumowania.",
258
+ "baichuan/baichuan2-13b-chat.description": "Baichuan-13B to otwartoźródłowy model językowy z 13 miliardami parametrów, dostępny do użytku komercyjnego, osiągający najlepsze wyniki w swojej klasie w autorytatywnych testach w języku chińskim i angielskim.",
259
+ "baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B to model językowy MoE firmy Baidu z 300 miliardami parametrów całkowitych i 47 miliardami aktywnych na token, łączący wysoką wydajność z efektywnością obliczeniową. Jako kluczowy model serii ERNIE 4.5, wyróżnia się w rozumieniu, generowaniu, rozumowaniu i programowaniu. Wykorzystuje heterogeniczną metodę pretrenowania MoE z multimodalnym treningiem tekst-obraz, co zwiększa ogólne możliwości, szczególnie w zakresie podążania za instrukcjami i wiedzy o świecie.",
260
+ "baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview to nowej generacji natywny multimodalny model ERNIE firmy Baidu, silny w rozumieniu multimodalnym, podążaniu za instrukcjami, tworzeniu treści, odpowiadaniu na pytania faktograficzne i korzystaniu z narzędzi.",
261
+ "black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro to szybsza, ulepszona wersja modelu FLUX Pro, oferująca doskonałą jakość obrazu i zgodność z podpowiedziami.",
262
+ "black-forest-labs/flux-dev.description": "FLUX Dev to wersja rozwojowa modelu FLUX przeznaczona do użytku niekomercyjnego.",
263
+ "black-forest-labs/flux-pro.description": "FLUX Pro to profesjonalny model FLUX do generowania obrazów wysokiej jakości.",
264
+ "black-forest-labs/flux-schnell.description": "FLUX Schnell to szybki model generowania obrazów zoptymalizowany pod kątem prędkości.",
265
+ "c4ai-aya-expanse-32b.description": "Aya Expanse to wysokowydajny, wielojęzyczny model 32B, który wykorzystuje dostrajanie instrukcji, arbitraż danych, trening preferencji i łączenie modeli, aby dorównać modelom monojęzycznym. Obsługuje 23 języki.",
266
+ "c4ai-aya-expanse-8b.description": "Aya Expanse to wysokowydajny, wielojęzyczny model 8B, który wykorzystuje dostrajanie instrukcji, arbitraż danych, trening preferencji i łączenie modeli, aby dorównać modelom monojęzycznym. Obsługuje 23 języki.",
267
+ "c4ai-aya-vision-32b.description": "Aya Vision to nowoczesny model multimodalny, który osiąga wysokie wyniki w kluczowych testach językowych, tekstowych i wizualnych. Obsługuje 23 języki. Wersja 32B koncentruje się na najwyższej wydajności wielojęzycznej.",
268
+ "c4ai-aya-vision-8b.description": "Aya Vision to nowoczesny model multimodalny, który osiąga wysokie wyniki w kluczowych testach językowych, tekstowych i wizualnych. Wersja 8B została zoptymalizowana pod kątem niskich opóźnień i wysokiej wydajności.",
269
+ "charglm-3.description": "CharGLM-3 został zaprojektowany do odgrywania ról i emocjonalnego towarzyszenia, obsługując ultra-długą pamięć wieloetapową i spersonalizowany dialog.",
270
+ "charglm-4.description": "CharGLM-4 został zaprojektowany do odgrywania ról i emocjonalnego towarzyszenia, obsługując ultra-długą pamięć wieloetapową i spersonalizowany dialog.",
271
+ "chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
272
+ "claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
273
+ "claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji firmy Anthropic, który poprawia umiejętności i przewyższa poprzedni flagowy model Claude 3 Opus w wielu testach.",
275
+ "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej inteligentny model firmy Anthropic i pierwszy na rynku model hybrydowego rozumowania, obsługujący natychmiastowe odpowiedzi lub rozszerzone myślenie z precyzyjną kontrolą.",
277
+ "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
278
+ "claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
279
+ "claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
280
+ "claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku firmy Anthropic, oferujący błyskawiczną prędkość i rozszerzone myślenie.",
282
+ "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
283
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
285
+ "claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
286
+ "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model firmy Anthropic, oferujący natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z precyzyjną kontrolą dla użytkowników API.",
288
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
289
+ "codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
290
+ "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
291
+ "codegemma.description": "CodeGemma to lekki model do różnorodnych zadań programistycznych, umożliwiający szybką iterację i integrację.",
292
+ "codegemma:2b.description": "CodeGemma to lekki model do różnorodnych zadań programistycznych, umożliwiający szybką iterację i integrację.",
293
+ "codellama.description": "Code Llama to duży model językowy (LLM) skoncentrowany na generowaniu i analizie kodu, obsługujący wiele języków programowania i wspierający przepływy pracy deweloperów.",
294
+ "codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama to duży model językowy (LLM) skoncentrowany na generowaniu i analizie kodu, obsługujący wiele języków programowania i wspierający przepływy pracy deweloperów.",
295
+ "codellama:13b.description": "Code Llama to duży model językowy (LLM) skoncentrowany na generowaniu i analizie kodu, obsługujący wiele języków programowania i wspierający przepływy pracy deweloperów.",
296
+ "codellama:34b.description": "Code Llama to duży model językowy (LLM) skoncentrowany na generowaniu i analizie kodu, obsługujący wiele języków programowania i wspierający przepływy pracy deweloperów.",
297
+ "codellama:70b.description": "Code Llama to duży model językowy (LLM) skoncentrowany na generowaniu i analizie kodu, obsługujący wiele języków programowania i wspierający przepływy pracy deweloperów.",
298
+ "codeqwen.description": "CodeQwen1.5 to duży model językowy wytrenowany na obszernych danych kodu, zaprojektowany do realizacji złożonych zadań programistycznych.",
299
+ "codestral-latest.description": "Codestral to nasz najbardziej zaawansowany model kodujący; wersja 2 (styczeń 2025) została zoptymalizowana pod kątem niskich opóźnień i zadań o wysokiej częstotliwości, takich jak FIM, poprawa kodu i generowanie testów.",
300
+ "codestral.description": "Codestral to pierwszy model kodujący od Mistral AI, oferujący solidne wsparcie dla generowania kodu.",
301
+ "codex-mini-latest.description": "codex-mini-latest to dostrojony model o4-mini dla interfejsu Codex CLI. Do bezpośredniego użycia przez API zalecamy rozpoczęcie od gpt-4.1.",
302
+ "cogito-2.1:671b.description": "Cogito v2.1 671B to amerykański otwartoźródłowy model LLM dostępny do użytku komercyjnego, dorównujący wydajnością czołowym modelom, oferujący wyższą efektywność rozumowania tokenów, kontekst długości 128k i ogólnie wysokie możliwości.",
303
+ "cogview-4.description": "CogView-4 to pierwszy otwartoźródłowy model tekst-na-obraz od Zhipu, który potrafi generować chińskie znaki. Poprawia zrozumienie semantyczne, jakość obrazu i renderowanie tekstu w języku chińskim i angielskim, obsługuje dwujęzyczne podpowiedzi o dowolnej długości i generuje obrazy w dowolnej rozdzielczości w określonych zakresach.",
304
+ "cohere-command-r-plus.description": "Command R+ to zaawansowany model zoptymalizowany pod kątem RAG, stworzony z myślą o zastosowaniach korporacyjnych.",
305
+ "cohere-command-r.description": "Command R to skalowalny model generatywny zaprojektowany do zastosowań RAG i integracji z narzędziami, umożliwiający wdrażanie AI na poziomie produkcyjnym.",
306
+ "cohere/Cohere-command-r-plus.description": "Command R+ to zaawansowany model zoptymalizowany pod kątem RAG, stworzony z myślą o zastosowaniach korporacyjnych.",
307
+ "cohere/Cohere-command-r.description": "Command R to skalowalny model generatywny zaprojektowany do zastosowań RAG i integracji z narzędziami, umożliwiający wdrażanie AI na poziomie produkcyjnym.",
308
+ "cohere/command-a.description": "Command A to najpotężniejszy model Cohere, doskonały w użyciu narzędzi, agentach, RAG i scenariuszach wielojęzycznych. Obsługuje kontekst długości 256K, działa na zaledwie dwóch GPU i zapewnia 150% większą przepustowość niż Command R+ 08-2024.",
309
+ "cohere/command-r-plus.description": "Command R+ to najnowszy model LLM od Cohere, zoptymalizowany pod kątem czatu i długiego kontekstu, zaprojektowany z myślą o przejściu firm od prototypów do produkcji.",
310
+ "cohere/command-r.description": "Command R jest zoptymalizowany pod kątem czatu i zadań z długim kontekstem, pozycjonowany jako model „skalowalny”, który równoważy wysoką wydajność i dokładność, umożliwiając firmom przejście od prototypów do produkcji.",
311
+ "cohere/embed-v4.0.description": "Model klasyfikujący lub przekształcający tekst, obrazy lub treści mieszane w osadzenia (embeddings).",
312
+ "comfyui/flux-dev.description": "FLUX.1 Dev to wysokiej jakości model tekst-na-obraz (10–50 kroków), idealny do kreatywnych i artystycznych zastosowań premium.",
313
+ "comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev to model edycji obrazu wspierający edycje prowadzone tekstem, w tym edycje lokalne i transfer stylu.",
314
+ "comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev to model tekst-na-obraz z wbudowanymi filtrami bezpieczeństwa, współtworzony z Krea.",
315
+ "comfyui/flux-schnell.description": "FLUX.1 Schnell to ultraszybki model tekst-na-obraz generujący wysokiej jakości obrazy w 1–4 krokach, idealny do zastosowań w czasie rzeczywistym i szybkiego prototypowania.",
316
+ "comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 to klasyczny model tekst-na-obraz 512x512, idealny do szybkiego prototypowania i eksperymentów twórczych.",
317
+ "comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 z wbudowanymi enkoderami CLIP/T5 nie wymaga zewnętrznych plików enkodera, odpowiedni dla modeli takich jak sd3.5_medium_incl_clips o niższym zużyciu zasobów.",
318
+ "comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 to nowej generacji model tekst-na-obraz w wariantach Large i Medium. Wymaga zewnętrznych plików enkodera CLIP i zapewnia doskonałą jakość obrazu oraz zgodność z podpowiedziami.",
319
+ "comfyui/stable-diffusion-custom-refiner.description": "Niestandardowy model SDXL obraz-na-obraz. Użyj custom_sd_lobe.safetensors jako nazwy pliku modelu; jeśli posiadasz VAE, użyj custom_sd_vae_lobe.safetensors. Umieść pliki modelu w wymaganych folderach Comfy.",
320
+ "comfyui/stable-diffusion-custom.description": "Niestandardowy model SD tekst-na-obraz. Użyj custom_sd_lobe.safetensors jako nazwy pliku modelu; jeśli posiadasz VAE, użyj custom_sd_vae_lobe.safetensors. Umieść pliki modelu w wymaganych folderach Comfy.",
321
+ "comfyui/stable-diffusion-refiner.description": "Model SDXL obraz-na-obraz wykonuje wysokiej jakości transformacje obrazów wejściowych, wspierając transfer stylu, rekonstrukcję i kreatywne wariacje.",
322
+ "comfyui/stable-diffusion-xl.description": "SDXL to model tekst-na-obraz obsługujący generowanie obrazów w wysokiej rozdzielczości 1024x1024 z lepszą jakością i szczegółowością.",
323
+ "command-a-03-2025.description": "Command A to nasz najbardziej zaawansowany model, doskonały w użyciu narzędzi, agentach, RAG i scenariuszach wielojęzycznych. Obsługuje kontekst długości 256K, działa na zaledwie dwóch GPU i zapewnia 150% większą przepustowość niż Command R+ 08-2024.",
324
+ "command-light-nightly.description": "Aby skrócić czas między głównymi wydaniami, oferujemy nocne kompilacje Command. W serii command-light nazywa się to command-light-nightly. Jest to najnowsza, najbardziej eksperymentalna (i potencjalnie niestabilna) wersja, aktualizowana regularnie bez zapowiedzi, dlatego nie jest zalecana do produkcji.",
325
+ "command-light.description": "Mniejszy, szybszy wariant Command, niemal równie wydajny, ale szybszy.",
326
+ "command-nightly.description": "Aby skrócić czas między głównymi wydaniami, oferujemy nocne kompilacje Command. W serii Command nazywa się to command-nightly. Jest to najnowsza, najbardziej eksperymentalna (i potencjalnie niestabilna) wersja, aktualizowana regularnie bez zapowiedzi, dlatego nie jest zalecana do produkcji.",
327
+ "command-r-03-2024.description": "Command R to model czatu podążający za instrukcjami, oferujący wyższą jakość, większą niezawodność i dłuższe okno kontekstu niż wcześniejsze modele. Obsługuje złożone przepływy pracy, takie jak generowanie kodu, RAG, użycie narzędzi i agentów.",
328
+ "command-r-08-2024.description": "command-r-08-2024 to zaktualizowany model Command R wydany w sierpniu 2024.",
329
+ "command-r-plus-04-2024.description": "command-r-plus to alias modelu command-r-plus-04-2024, więc użycie command-r-plus w API wskazuje na ten model.",
330
+ "command-r-plus-08-2024.description": "Command R+ to model czatu podążający za instrukcjami, oferujący wyższą jakość, większą niezawodność i dłuższe okno kontekstu niż wcześniejsze modele. Najlepiej sprawdza się w złożonych przepływach RAG i wieloetapowym użyciu narzędzi.",
331
+ "command-r-plus.description": "Command R+ to wysokowydajny model LLM zaprojektowany do rzeczywistych scenariuszy korporacyjnych i złożonych aplikacji.",
332
+ "command-r.description": "Command R to model LLM zoptymalizowany pod kątem czatu i zadań z długim kontekstem, idealny do dynamicznej interakcji i zarządzania wiedzą.",
333
+ "command-r7b-12-2024.description": "command-r7b-12-2024 to mała, wydajna aktualizacja wydana w grudniu 2024. Doskonale sprawdza się w zadaniach RAG, użyciu narzędzi i agentach wymagających złożonego, wieloetapowego rozumowania.",
334
+ "command.description": "Model czatu podążający za instrukcjami, oferujący wyższą jakość i niezawodność w zadaniach językowych, z dłuższym oknem kontekstu niż nasze podstawowe modele generatywne.",
335
+ "computer-use-preview.description": "computer-use-preview to specjalistyczny model dla narzędzia „użycie komputera”, wytrenowany do rozumienia i wykonywania zadań związanych z komputerem.",
336
+ "dall-e-2.description": "Druga generacja modelu DALL·E z bardziej realistycznym i dokładnym generowaniem obrazów oraz 4× wyższą rozdzielczością niż pierwsza generacja.",
337
+ "dall-e-3.description": "Najnowszy model DALL·E, wydany w listopadzie 2023, oferuje bardziej realistyczne i dokładne generowanie obrazów z lepszymi szczegółami.",
253
338
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
254
339
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
255
340
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "Utworzono plan: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "Utwórz zadania",
65
65
  "builtins.lobe-gtd.apiName.execTask": "Wykonaj zadanie",
66
- "builtins.lobe-gtd.apiName.execTask.result": "Wykonano: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "Zadanie utworzone: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "Tworzenie zadania: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "Wykonaj zadania",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "Usuń zadania",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "Zaktualizuj plan",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
30
30
  "jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
31
31
  "lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
32
+ "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
32
33
  "minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
33
34
  "mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
34
35
  "modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} Subtarefas em Lote",
296
296
  "task.metrics.stepsShort": "etapas",
297
297
  "task.metrics.toolCallsShort": "usos de ferramenta",
298
+ "task.status.cancelled": "Tarefa Cancelada",
299
+ "task.status.failed": "Falha na Tarefa",
298
300
  "task.status.initializing": "Inicializando tarefa...",
299
301
  "task.subtask": "Subtarefa",
300
302
  "thread.divider": "Subtópico",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
273
273
  "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, ele apresenta melhorias em diversas habilidades e supera o modelo anterior Claude 3 Opus em muitos testes de inteligência.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo carro-chefe Claude 3 Opus em muitos benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas com agentes.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou raciocínios passo a passo com processo visível.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou raciocínio passo a passo com controle refinado para usuários da API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
289
289
  "codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo aprimorado e cadeia de pensamento para tarefas de análise profunda.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo aprimorado e cadeia de pensamento para tarefas de análise profunda.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
358
- "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Preserva o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programação, com melhor alinhamento de preferências. DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Em benchmarks públicos, atinge níveis comparáveis ao GPT-5 e é o primeiro a integrar pensamento ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento no meio, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 é um modelo de código MoE de código aberto com desempenho forte em tarefas de programação, comparável ao GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 é um modelo de código MoE de código aberto com desempenho forte em tarefas de programação, comparável ao GPT-4 Turbo.",
@@ -378,10 +378,41 @@
378
378
  "deepseek-r1-fast-online.description": "Versão completa rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
379
379
  "deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utiliza dados de início a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
381
- "deepseek-reasoner.description": "O modo de pensamento do DeepSeek V3.2 gera uma cadeia de raciocínio antes da resposta final para melhorar a precisão.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
385
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus é um LLM otimizado para terminais da DeepSeek, projetado para dispositivos de terminal.",
386
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 é o modelo de pensamento profundo correspondente à versão Terminus, desenvolvido para raciocínio de alto desempenho.",
387
+ "deepseek-v3.1.description": "DeepSeek-V3.1 é um novo modelo híbrido de raciocínio da DeepSeek, com suporte a modos com e sem pensamento, oferecendo maior eficiência de raciocínio do que o DeepSeek-R1-0528. Otimizações pós-treinamento melhoram significativamente o uso de ferramentas por agentes e o desempenho em tarefas de agentes. Suporta janela de contexto de 128k e até 64k tokens de saída.",
388
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1 é um modelo de raciocínio de próxima geração com melhorias em raciocínio complexo e cadeia de pensamento, ideal para tarefas que exigem análise profunda.",
389
+ "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduz atenção esparsa para melhorar a eficiência de treinamento e inferência em textos longos, com custo inferior ao deepseek-v3.1.",
390
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think é um modelo completo de pensamento profundo com raciocínio de cadeia longa mais robusto.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 é o primeiro modelo híbrido de raciocínio da DeepSeek que integra pensamento ao uso de ferramentas. Com arquitetura eficiente para economia de recursos, aprendizado por reforço em larga escala para aumento de capacidade e dados sintéticos em massa para maior generalização, seu desempenho rivaliza com o GPT-5-High. A saída é significativamente mais curta, reduzindo o custo computacional e o tempo de espera do usuário.",
392
+ "deepseek-v3.description": "DeepSeek-V3 é um poderoso modelo MoE com 671 bilhões de parâmetros totais e 37 bilhões ativos por token.",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small é uma versão multimodal leve para uso com recursos limitados e alta concorrência.",
394
+ "deepseek-vl2.description": "DeepSeek VL2 é um modelo multimodal para compreensão imagem-texto e perguntas visuais detalhadas.",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 é um modelo MoE com 685 bilhões de parâmetros e a mais recente iteração da série de chat principal da DeepSeek.\n\nBaseado no [DeepSeek V3](/deepseek/deepseek-chat-v3), apresenta desempenho sólido em diversas tarefas.",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 é um modelo MoE com 685 bilhões de parâmetros e a mais recente iteração da série de chat principal da DeepSeek.\n\nBaseado no [DeepSeek V3](/deepseek/deepseek-chat-v3), apresenta desempenho sólido em diversas tarefas.",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 é o modelo híbrido de raciocínio de longo contexto da DeepSeek, com suporte a modos mistos de pensamento/não pensamento e integração de ferramentas.",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 é o modelo híbrido de raciocínio de alto desempenho da DeepSeek para tarefas complexas e integração de ferramentas.",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 é uma variante atualizada com foco em disponibilidade aberta e raciocínio mais profundo.",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 melhora significativamente o raciocínio com dados rotulados mínimos e gera uma cadeia de pensamento antes da resposta final para maior precisão.",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B é um LLM destilado baseado no Llama 3.3 70B, ajustado com saídas do DeepSeek R1 para alcançar desempenho competitivo com modelos de ponta.",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B é um LLM destilado baseado no Llama-3.1-8B-Instruct, treinado com saídas do DeepSeek R1.",
403
+ "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B é um LLM destilado baseado no Qwen 2.5 14B, treinado com saídas do DeepSeek R1. Supera o OpenAI o1-mini em vários benchmarks, alcançando resultados de ponta entre modelos densos. Destaques de benchmark:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces Rating: 1481\nO ajuste fino com saídas do DeepSeek R1 oferece desempenho competitivo com modelos maiores de ponta.",
404
+ "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B é um LLM destilado baseado no Qwen 2.5 32B, treinado com saídas do DeepSeek R1. Supera o OpenAI o1-mini em vários benchmarks, alcançando resultados de ponta entre modelos densos. Destaques de benchmark:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces Rating: 1691\nO ajuste fino com saídas do DeepSeek R1 oferece desempenho competitivo com modelos maiores de ponta.",
405
+ "deepseek/deepseek-r1.description": "DeepSeek R1 foi atualizado para DeepSeek-R1-0528. Com mais capacidade computacional e otimizações algorítmicas pós-treinamento, melhora significativamente a profundidade e capacidade de raciocínio. Apresenta desempenho sólido em benchmarks de matemática, programação e lógica geral, aproximando-se de líderes como o3 e Gemini 2.5 Pro.",
406
+ "deepseek/deepseek-r1/community.description": "DeepSeek R1 é o mais recente modelo de código aberto lançado pela equipe DeepSeek, com desempenho de raciocínio muito forte, especialmente em tarefas de matemática, programação e lógica, comparável ao OpenAI o1.",
407
+ "deepseek/deepseek-r1:free.description": "DeepSeek-R1 melhora significativamente o raciocínio com dados rotulados mínimos e gera uma cadeia de pensamento antes da resposta final para maior precisão.",
408
+ "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) é o modelo experimental de raciocínio da DeepSeek, adequado para tarefas de alta complexidade.",
409
+ "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base é uma versão aprimorada do modelo DeepSeek V3.",
410
+ "deepseek/deepseek-v3.description": "Um LLM rápido de uso geral com raciocínio aprimorado.",
411
+ "deepseek/deepseek-v3/community.description": "DeepSeek-V3 representa um grande avanço na velocidade de raciocínio em relação a modelos anteriores. Classifica-se em primeiro lugar entre os modelos de código aberto e rivaliza com os modelos fechados mais avançados. Adota Multi-Head Latent Attention (MLA) e a arquitetura DeepSeekMoE, ambas validadas no DeepSeek-V2. Também introduz uma estratégia auxiliar sem perdas para balanceamento de carga e um objetivo de treinamento de predição multi-token para desempenho mais forte.",
412
+ "deepseek_r1.description": "DeepSeek-R1 é um modelo de raciocínio orientado por aprendizado por reforço que resolve problemas de repetição e legibilidade. Antes do RL, utiliza dados de início a frio para melhorar ainda mais o desempenho de raciocínio. Alcança resultados comparáveis ao OpenAI-o1 em tarefas de matemática, programação e lógica, com treinamento cuidadosamente projetado para melhorar os resultados gerais.",
413
+ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B é destilado do Llama-3.3-70B-Instruct. Como parte da série DeepSeek-R1, é ajustado com amostras geradas pelo DeepSeek-R1 e apresenta desempenho forte em matemática, programação e raciocínio.",
414
+ "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B é destilado do Qwen2.5-14B e ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, oferecendo raciocínio robusto.",
415
+ "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B é destilado do Qwen2.5-32B e ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, destacando-se em matemática, programação e raciocínio.",
385
416
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
386
417
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
387
418
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",