@lobehub/lobehub 2.0.0-next.187 → 2.0.0-next.189

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (177) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/e2e/CLAUDE.md +109 -2
  4. package/e2e/docs/llm-mock.md +68 -0
  5. package/e2e/docs/local-setup.md +354 -0
  6. package/e2e/docs/testing-tips.md +94 -0
  7. package/e2e/src/features/journeys/agent/agent-conversation.feature +0 -32
  8. package/e2e/src/mocks/llm/index.ts +6 -6
  9. package/e2e/src/steps/agent/conversation.steps.ts +3 -471
  10. package/locales/ar/models.json +89 -5
  11. package/locales/ar/plugin.json +5 -0
  12. package/locales/ar/providers.json +1 -0
  13. package/locales/bg-BG/models.json +68 -0
  14. package/locales/bg-BG/plugin.json +5 -0
  15. package/locales/bg-BG/providers.json +1 -0
  16. package/locales/de-DE/models.json +85 -0
  17. package/locales/de-DE/plugin.json +5 -0
  18. package/locales/de-DE/providers.json +1 -0
  19. package/locales/en-US/models.json +11 -10
  20. package/locales/en-US/plugin.json +5 -0
  21. package/locales/en-US/providers.json +1 -0
  22. package/locales/es-ES/models.json +72 -0
  23. package/locales/es-ES/plugin.json +5 -0
  24. package/locales/es-ES/providers.json +1 -0
  25. package/locales/fa-IR/models.json +86 -0
  26. package/locales/fa-IR/plugin.json +5 -0
  27. package/locales/fa-IR/providers.json +1 -0
  28. package/locales/fr-FR/models.json +49 -0
  29. package/locales/fr-FR/plugin.json +5 -0
  30. package/locales/fr-FR/providers.json +1 -0
  31. package/locales/it-IT/models.json +82 -0
  32. package/locales/it-IT/plugin.json +5 -0
  33. package/locales/it-IT/providers.json +1 -0
  34. package/locales/ja-JP/models.json +42 -5
  35. package/locales/ja-JP/plugin.json +5 -0
  36. package/locales/ja-JP/providers.json +1 -0
  37. package/locales/ko-KR/models.json +54 -0
  38. package/locales/ko-KR/plugin.json +5 -0
  39. package/locales/ko-KR/providers.json +1 -0
  40. package/locales/nl-NL/models.json +12 -1
  41. package/locales/nl-NL/plugin.json +5 -0
  42. package/locales/nl-NL/providers.json +1 -0
  43. package/locales/pl-PL/models.json +46 -0
  44. package/locales/pl-PL/plugin.json +5 -0
  45. package/locales/pl-PL/providers.json +1 -0
  46. package/locales/pt-BR/models.json +59 -0
  47. package/locales/pt-BR/plugin.json +5 -0
  48. package/locales/pt-BR/providers.json +1 -0
  49. package/locales/ru-RU/models.json +85 -0
  50. package/locales/ru-RU/plugin.json +5 -0
  51. package/locales/ru-RU/providers.json +1 -0
  52. package/locales/tr-TR/models.json +81 -0
  53. package/locales/tr-TR/plugin.json +5 -0
  54. package/locales/tr-TR/providers.json +1 -0
  55. package/locales/vi-VN/models.json +54 -0
  56. package/locales/vi-VN/plugin.json +5 -0
  57. package/locales/vi-VN/providers.json +1 -0
  58. package/locales/zh-CN/models.json +42 -5
  59. package/locales/zh-CN/plugin.json +5 -0
  60. package/locales/zh-CN/providers.json +1 -0
  61. package/locales/zh-TW/models.json +85 -0
  62. package/locales/zh-TW/plugin.json +5 -0
  63. package/locales/zh-TW/providers.json +1 -0
  64. package/package.json +2 -2
  65. package/packages/builtin-tool-gtd/src/manifest.ts +13 -8
  66. package/packages/builtin-tool-gtd/src/systemRole.ts +54 -19
  67. package/packages/builtin-tool-knowledge-base/package.json +1 -0
  68. package/packages/builtin-tool-knowledge-base/src/client/Inspector/ReadKnowledge/index.tsx +97 -0
  69. package/packages/builtin-tool-knowledge-base/src/client/Inspector/SearchKnowledgeBase/index.tsx +75 -0
  70. package/packages/builtin-tool-knowledge-base/src/client/Inspector/index.ts +11 -0
  71. package/packages/builtin-tool-knowledge-base/src/client/Render/ReadKnowledge/FileCard.tsx +12 -12
  72. package/packages/builtin-tool-knowledge-base/src/client/Render/ReadKnowledge/index.tsx +16 -25
  73. package/packages/builtin-tool-knowledge-base/src/client/Render/SearchKnowledgeBase/Item/index.tsx +21 -47
  74. package/packages/builtin-tool-knowledge-base/src/client/Render/SearchKnowledgeBase/index.tsx +19 -31
  75. package/packages/builtin-tool-knowledge-base/src/client/Render/index.ts +0 -5
  76. package/packages/builtin-tool-knowledge-base/src/client/index.ts +5 -1
  77. package/packages/builtin-tool-knowledge-base/src/executor/index.ts +119 -0
  78. package/packages/builtin-tool-local-system/package.json +1 -0
  79. package/packages/builtin-tool-local-system/src/client/Inspector/EditLocalFile/index.tsx +44 -29
  80. package/packages/builtin-tool-local-system/src/client/Inspector/GrepContent/index.tsx +20 -18
  81. package/packages/builtin-tool-local-system/src/client/Inspector/ListLocalFiles/index.tsx +76 -0
  82. package/packages/builtin-tool-local-system/src/client/Inspector/ReadLocalFile/index.tsx +8 -32
  83. package/packages/builtin-tool-local-system/src/client/Inspector/RenameLocalFile/index.tsx +62 -0
  84. package/packages/builtin-tool-local-system/src/client/Inspector/SearchLocalFiles/index.tsx +17 -11
  85. package/packages/builtin-tool-local-system/src/client/Inspector/WriteLocalFile/index.tsx +61 -0
  86. package/packages/builtin-tool-local-system/src/client/Inspector/index.ts +6 -0
  87. package/packages/builtin-tool-local-system/src/client/Render/EditLocalFile/index.tsx +6 -1
  88. package/packages/builtin-tool-local-system/src/client/Render/SearchFiles/SearchQuery/SearchView.tsx +19 -31
  89. package/packages/builtin-tool-local-system/src/client/Render/SearchFiles/SearchQuery/index.tsx +2 -42
  90. package/packages/builtin-tool-local-system/src/client/Render/index.ts +0 -2
  91. package/packages/builtin-tool-local-system/src/client/components/FilePathDisplay.tsx +56 -0
  92. package/packages/builtin-tool-local-system/src/client/components/index.ts +2 -0
  93. package/packages/builtin-tool-local-system/src/executor/index.ts +435 -0
  94. package/packages/builtin-tool-web-browsing/src/client/Inspector/Search/index.tsx +32 -5
  95. package/packages/model-runtime/src/core/contextBuilders/google.test.ts +84 -0
  96. package/packages/model-runtime/src/core/contextBuilders/google.ts +37 -1
  97. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/Actions.tsx +4 -13
  98. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/index.tsx +23 -29
  99. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/useDropdownMenu.tsx +3 -3
  100. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Actions.tsx +4 -13
  101. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/index.tsx +10 -18
  102. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/useDropdownMenu.tsx +3 -3
  103. package/src/app/[variants]/(main)/community/(detail)/assistant/features/Sidebar/ActionButton/AddAgent.tsx +47 -27
  104. package/src/app/[variants]/(main)/community/(detail)/user/features/UserAgentCard.tsx +4 -3
  105. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/Actions.tsx +4 -13
  106. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/index.tsx +23 -29
  107. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/useDropdownMenu.tsx +3 -3
  108. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Actions.tsx +4 -13
  109. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/index.tsx +10 -18
  110. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/useDropdownMenu.tsx +3 -3
  111. package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/TopicSelector.tsx +18 -20
  112. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/index.tsx +19 -25
  113. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentItem/index.tsx +21 -26
  114. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/Item/Actions.tsx +4 -13
  115. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/Item/useDropdownMenu.tsx +3 -3
  116. package/src/app/[variants]/(main)/home/_layout/Body/Project/List/Actions.tsx +4 -13
  117. package/src/app/[variants]/(main)/home/_layout/Body/Project/List/Item.tsx +8 -15
  118. package/src/app/[variants]/(main)/home/_layout/Body/Project/List/useDropdownMenu.tsx +3 -3
  119. package/src/app/[variants]/(main)/home/_layout/Header/components/AddButton.tsx +3 -4
  120. package/src/app/[variants]/(main)/page/_layout/Body/List/Item/Actions.tsx +4 -13
  121. package/src/app/[variants]/(main)/page/_layout/Body/List/Item/index.tsx +13 -20
  122. package/src/app/[variants]/(main)/page/_layout/Body/List/Item/useDropdownMenu.tsx +3 -3
  123. package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/Actions.tsx +4 -13
  124. package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/index.tsx +16 -23
  125. package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/useDropdownMenu.tsx +3 -3
  126. package/src/app/[variants]/(main)/resource/library/_layout/Header/LibraryHead.tsx +4 -6
  127. package/src/features/AgentBuilder/TopicSelector.tsx +18 -17
  128. package/src/features/Conversation/ChatItem/style.ts +7 -0
  129. package/src/features/Conversation/Messages/Assistant/Actions/Error.tsx +1 -3
  130. package/src/features/Conversation/Messages/Assistant/Actions/index.tsx +37 -16
  131. package/src/features/Conversation/Messages/AssistantGroup/Actions/index.tsx +36 -17
  132. package/src/features/Conversation/Messages/Supervisor/Actions/index.tsx +36 -17
  133. package/src/features/Conversation/Messages/Task/Actions/Error.tsx +1 -3
  134. package/src/features/Conversation/Messages/Task/Actions/index.tsx +31 -15
  135. package/src/features/Conversation/Messages/User/Actions/index.tsx +1 -1
  136. package/src/features/Conversation/Messages/index.tsx +8 -59
  137. package/src/features/Conversation/components/ShareMessageModal/index.tsx +1 -1
  138. package/src/features/Conversation/hooks/useChatItemContextMenu.tsx +313 -83
  139. package/src/features/NavPanel/components/NavItem.tsx +33 -3
  140. package/src/features/PageEditor/Copilot/TopicSelector/Actions.tsx +6 -14
  141. package/src/features/PageEditor/Copilot/TopicSelector/TopicItem.tsx +1 -0
  142. package/src/features/PageEditor/Copilot/TopicSelector/useDropdownMenu.tsx +6 -3
  143. package/src/features/ResourceManager/components/Explorer/ItemDropdown/DropdownMenu.tsx +12 -35
  144. package/src/features/ResourceManager/components/Explorer/ItemDropdown/useFileItemDropdown.tsx +4 -8
  145. package/src/features/ResourceManager/components/Explorer/ListView/ListItem/index.tsx +162 -160
  146. package/src/features/ResourceManager/components/Explorer/MasonryView/MasonryFileItem/index.tsx +16 -8
  147. package/src/features/ResourceManager/components/Explorer/ToolBar/ActionIconWithChevron.tsx +4 -3
  148. package/src/features/ResourceManager/components/Explorer/ToolBar/BatchActionsDropdown.tsx +6 -12
  149. package/src/features/ResourceManager/components/Explorer/ToolBar/SortDropdown.tsx +8 -8
  150. package/src/features/ResourceManager/components/Explorer/ToolBar/ViewSwitcher.tsx +8 -11
  151. package/src/features/ResourceManager/components/Tree/index.tsx +121 -122
  152. package/src/helpers/toolEngineering/index.ts +1 -1
  153. package/src/layout/GlobalProvider/index.tsx +5 -2
  154. package/src/locales/default/plugin.ts +6 -0
  155. package/src/server/modules/Mecha/AgentToolsEngine/__tests__/index.test.ts +1 -1
  156. package/src/server/modules/Mecha/AgentToolsEngine/index.ts +1 -1
  157. package/src/store/chat/slices/builtinTool/actions/index.ts +1 -11
  158. package/src/store/tool/slices/builtin/executors/index.ts +4 -0
  159. package/src/styles/global.ts +6 -0
  160. package/src/styles/text.ts +1 -1
  161. package/src/tools/executionRuntimes.ts +3 -8
  162. package/src/tools/identifiers.ts +1 -1
  163. package/src/tools/index.ts +1 -1
  164. package/src/tools/inspectors.ts +5 -0
  165. package/src/tools/renders.ts +6 -12
  166. package/packages/builtin-tool-local-system/src/client/Render/RenameLocalFile/index.tsx +0 -37
  167. package/src/features/Conversation/components/ContextMenu.tsx +0 -418
  168. package/src/store/chat/slices/builtinTool/actions/__tests__/localSystem.test.ts +0 -201
  169. package/src/store/chat/slices/builtinTool/actions/knowledgeBase.ts +0 -163
  170. package/src/store/chat/slices/builtinTool/actions/localSystem.ts +0 -241
  171. package/src/tools/knowledge-base/ExecutionRuntime/index.ts +0 -25
  172. package/src/tools/knowledge-base/Render/ReadKnowledge/index.tsx +0 -29
  173. package/src/tools/knowledge-base/Render/SearchKnowledgeBase/index.tsx +0 -29
  174. package/src/tools/knowledge-base/Render/index.ts +0 -7
  175. package/src/tools/knowledge-base/index.ts +0 -12
  176. package/src/tools/local-system/ExecutionRuntime/index.ts +0 -9
  177. package/src/tools/local-system/systemRole.ts +0 -1
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
30
30
  "jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
31
31
  "lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
32
+ "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
32
33
  "minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
33
34
  "mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
34
35
  "modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
@@ -224,6 +224,65 @@
224
224
  "alibaba/qwen-3-30b.description": "Qwen3 é a geração mais recente da série Qwen, oferecendo um conjunto abrangente de modelos densos e MoE. Baseado em treinamento extensivo, traz avanços em raciocínio, seguimento de instruções, capacidades de agente e suporte multilíngue.",
225
225
  "alibaba/qwen-3-32b.description": "Qwen3 é a geração mais recente da série Qwen, oferecendo um conjunto abrangente de modelos densos e MoE. Baseado em treinamento extensivo, traz avanços em raciocínio, seguimento de instruções, capacidades de agente e suporte multilíngue.",
226
226
  "alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct é o modelo de código mais agente da Qwen, com excelente desempenho em programação autônoma, uso de navegador por agentes e outras tarefas centrais de codificação, alcançando resultados comparáveis ao nível do Claude Sonnet.",
227
+ "amazon/nova-lite.description": "Um modelo multimodal de baixíssimo custo com processamento extremamente rápido de entradas de imagem, vídeo e texto.",
228
+ "amazon/nova-micro.description": "Um modelo apenas de texto que oferece latência ultrabaixa a um custo muito reduzido.",
229
+ "amazon/nova-pro.description": "Um modelo multimodal altamente capaz com o melhor equilíbrio entre precisão, velocidade e custo para uma ampla gama de tarefas.",
230
+ "amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 é um modelo de embeddings multilíngue leve e eficiente, com suporte para dimensões de 1024, 512 e 256.",
231
+ "anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet eleva o padrão da indústria, superando concorrentes e o Claude 3 Opus em avaliações amplas, mantendo velocidade e custo intermediários.",
232
+ "anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet eleva o padrão da indústria, superando concorrentes e o Claude 3 Opus em avaliações amplas, mantendo velocidade e custo intermediários.",
233
+ "anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, oferecendo respostas quase instantâneas para consultas simples. Proporciona experiências de IA naturais e fluídas, com suporte a entrada de imagem e janela de contexto de 200 mil tokens.",
234
+ "anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus é o modelo de IA mais poderoso da Anthropic, com desempenho de ponta em tarefas altamente complexas. Lida com prompts abertos e cenários inéditos com fluência excepcional e compreensão semelhante à humana, além de suportar entrada de imagem com janela de contexto de 200 mil tokens.",
235
+ "anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho corporativas, oferecendo alto valor a um custo reduzido. Foi projetado como um modelo confiável para implantações de IA em escala e suporta entrada de imagem com janela de contexto de 200 mil tokens.",
236
+ "anthropic.claude-instant-v1.description": "Um modelo rápido, econômico e ainda assim capaz para conversas cotidianas, análise de texto, resumo e perguntas e respostas sobre documentos.",
237
+ "anthropic.claude-v2.description": "Um modelo altamente capaz para tarefas que vão de diálogos complexos e geração criativa até seguimento detalhado de instruções.",
238
+ "anthropic.claude-v2:1.description": "Uma versão atualizada do Claude 2 com o dobro da janela de contexto e melhorias em confiabilidade, taxa de alucinação e precisão baseada em evidências para documentos longos e RAG.",
239
+ "anthropic/claude-3-haiku.description": "Claude 3 Haiku é o modelo mais rápido da Anthropic, projetado para cargas de trabalho corporativas com prompts longos. Analisa rapidamente documentos extensos como relatórios trimestrais, contratos ou casos jurídicos a metade do custo de modelos similares.",
240
+ "anthropic/claude-3-opus.description": "Claude 3 Opus é o modelo mais inteligente da Anthropic, com desempenho líder de mercado em tarefas altamente complexas, lidando com prompts abertos e cenários inéditos com fluência excepcional e compreensão semelhante à humana.",
241
+ "anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku apresenta velocidade aprimorada, maior precisão em codificação e uso de ferramentas, ideal para cenários com exigências elevadas de velocidade e interação com ferramentas.",
242
+ "anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet é o modelo rápido e eficiente da família Sonnet, oferecendo melhor desempenho em codificação e raciocínio, com algumas versões sendo gradualmente substituídas pelo Sonnet 3.7 e posteriores.",
243
+ "anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet é um modelo Sonnet aprimorado com raciocínio e codificação mais robustos, adequado para tarefas complexas em nível corporativo.",
244
+ "anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 é o modelo rápido de alto desempenho da Anthropic, oferecendo latência muito baixa com alta precisão.",
245
+ "anthropic/claude-opus-4.1.description": "Opus 4.1 é o modelo de ponta da Anthropic, otimizado para programação, raciocínio complexo e tarefas de longa duração.",
246
+ "anthropic/claude-opus-4.5.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência de alto nível com desempenho escalável para tarefas complexas e raciocínio de alta qualidade.",
247
+ "anthropic/claude-opus-4.description": "Opus 4 é o modelo principal da Anthropic, projetado para tarefas complexas e aplicações corporativas.",
248
+ "anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 é o mais recente modelo híbrido de raciocínio da Anthropic, otimizado para raciocínio complexo e codificação.",
249
+ "anthropic/claude-sonnet-4.description": "Claude Sonnet 4 é o modelo híbrido de raciocínio da Anthropic com capacidade mista de pensamento e não-pensamento.",
250
+ "ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B é um LLM esparso com 72 bilhões de parâmetros totais e 16 bilhões ativos, baseado em uma arquitetura MoE agrupada (MoGE). Ele agrupa especialistas durante a seleção e limita os tokens a ativar especialistas iguais por grupo, equilibrando a carga e melhorando a eficiência de implantação no Ascend.",
251
+ "aya.description": "Aya 23 é o modelo multilíngue da Cohere com suporte a 23 idiomas para diversos casos de uso.",
252
+ "aya:35b.description": "Aya 23 é o modelo multilíngue da Cohere com suporte a 23 idiomas para diversos casos de uso.",
253
+ "azure-DeepSeek-R1-0528.description": "Implantado pela Microsoft; o DeepSeek R1 foi atualizado para DeepSeek-R1-0528. A atualização aumenta o poder computacional e otimizações no algoritmo pós-treinamento, melhorando significativamente a profundidade de raciocínio e inferência. Apresenta ótimo desempenho em benchmarks de matemática, programação e lógica geral, aproximando-se de modelos líderes como o O3 e Gemini 2.5 Pro.",
254
+ "baichuan-m2-32b.description": "Baichuan M2 32B é um modelo MoE da Baichuan Intelligence com forte capacidade de raciocínio.",
255
+ "baichuan/baichuan2-13b-chat.description": "Baichuan-13B é um LLM de 13 bilhões de parâmetros de código aberto e uso comercial da Baichuan, alcançando resultados de ponta para seu tamanho em benchmarks autoritativos em chinês e inglês.",
256
+ "baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B é um LLM MoE da Baidu com 300 bilhões de parâmetros totais e 47 bilhões ativos por token, equilibrando desempenho robusto e eficiência computacional. Como modelo central do ERNIE 4.5, destaca-se em compreensão, geração, raciocínio e programação. Utiliza pré-treinamento multimodal heterogêneo com treinamento conjunto texto-visão para aumentar a capacidade geral, especialmente em seguir instruções e conhecimento de mundo.",
257
+ "baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview é o modelo ERNIE multimodal nativo de próxima geração da Baidu, com forte compreensão multimodal, seguimento de instruções, criação, perguntas e respostas factuais e uso de ferramentas.",
258
+ "black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro é uma versão mais rápida e aprimorada do FLUX Pro, com excelente qualidade de imagem e aderência ao prompt.",
259
+ "black-forest-labs/flux-dev.description": "FLUX Dev é a versão de desenvolvimento do FLUX para uso não comercial.",
260
+ "black-forest-labs/flux-pro.description": "FLUX Pro é o modelo profissional do FLUX para geração de imagens de alta qualidade.",
261
+ "black-forest-labs/flux-schnell.description": "FLUX Schnell é um modelo de geração de imagens rápido, otimizado para velocidade.",
262
+ "c4ai-aya-expanse-32b.description": "Aya Expanse é um modelo multilíngue de alto desempenho com 32 bilhões de parâmetros que utiliza ajuste por instrução, arbitragem de dados, treinamento por preferência e fusão de modelos para rivalizar com modelos monolíngues. Suporta 23 idiomas.",
263
+ "c4ai-aya-expanse-8b.description": "Aya Expanse é um modelo multilíngue de alto desempenho com 8 bilhões de parâmetros que utiliza ajuste por instrução, arbitragem de dados, treinamento por preferência e fusão de modelos para rivalizar com modelos monolíngues. Suporta 23 idiomas.",
264
+ "c4ai-aya-vision-32b.description": "Aya Vision é um modelo multimodal de última geração com forte desempenho em benchmarks de linguagem, texto e visão. Suporta 23 idiomas. Esta versão de 32B foca em desempenho multilíngue de alto nível.",
265
+ "c4ai-aya-vision-8b.description": "Aya Vision é um modelo multimodal de última geração com forte desempenho em benchmarks de linguagem, texto e visão. Esta versão de 8B foca em baixa latência e desempenho robusto.",
266
+ "charglm-3.description": "CharGLM-3 foi desenvolvido para simulação de papéis e companhia emocional, com suporte a memória de múltiplas interações de longo prazo e diálogo personalizado.",
267
+ "charglm-4.description": "CharGLM-4 foi desenvolvido para simulação de papéis e companhia emocional, com suporte a memória de múltiplas interações de longo prazo e diálogo personalizado.",
268
+ "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
269
+ "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
270
+ "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
271
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o modelo principal anterior, Claude 3 Opus, em muitos benchmarks.",
272
+ "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
273
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento estendido com controle refinado.",
274
+ "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
275
+ "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
276
+ "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
277
+ "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
278
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e pensamento estendido.",
279
+ "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
280
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
281
+ "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
282
+ "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
283
+ "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
284
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou pensamento passo a passo estendido com controle refinado para usuários de API.",
285
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
227
286
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
228
287
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
229
288
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -73,6 +73,8 @@
73
73
  "builtins.lobe-gtd.title": "Ferramentas de Tarefas",
74
74
  "builtins.lobe-knowledge-base.apiName.readKnowledge": "Ler conteúdo da Biblioteca",
75
75
  "builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Buscar na Biblioteca",
76
+ "builtins.lobe-knowledge-base.inspector.andMoreFiles": "e mais {{count}}",
77
+ "builtins.lobe-knowledge-base.inspector.noResults": "Nenhum resultado",
76
78
  "builtins.lobe-knowledge-base.title": "Biblioteca",
77
79
  "builtins.lobe-local-system.apiName.editLocalFile": "Editar arquivo",
78
80
  "builtins.lobe-local-system.apiName.getCommandOutput": "Obter saída do comando",
@@ -86,6 +88,8 @@
86
88
  "builtins.lobe-local-system.apiName.runCommand": "Executar comando",
87
89
  "builtins.lobe-local-system.apiName.searchLocalFiles": "Buscar arquivos",
88
90
  "builtins.lobe-local-system.apiName.writeLocalFile": "Escrever arquivo",
91
+ "builtins.lobe-local-system.inspector.noResults": "Nenhum resultado",
92
+ "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
89
93
  "builtins.lobe-local-system.title": "Sistema Local",
90
94
  "builtins.lobe-page-agent.apiName.batchUpdate": "Atualizar nós em lote",
91
95
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Comparar versões",
@@ -143,6 +147,7 @@
143
147
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "Ler várias páginas",
144
148
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "Ler conteúdo da página",
145
149
  "builtins.lobe-web-browsing.apiName.search": "Buscar páginas",
150
+ "builtins.lobe-web-browsing.inspector.noResults": "Nenhum resultado",
146
151
  "builtins.lobe-web-browsing.title": "Busca na Web",
147
152
  "confirm": "Confirmar",
148
153
  "debug.arguments": "Argumentos",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
30
30
  "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
31
31
  "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
32
+ "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
32
33
  "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
33
34
  "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
34
35
  "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
@@ -247,6 +247,91 @@
247
247
  "anthropic/claude-opus-4.description": "Opus 4 — флагманская модель от Anthropic, предназначенная для сложных задач и корпоративных приложений.",
248
248
  "anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 — новейшая гибридная модель логического вывода от Anthropic, оптимизированная для сложных рассуждений и программирования.",
249
249
  "anthropic/claude-sonnet-4.description": "Claude Sonnet 4 — гибридная модель логического вывода от Anthropic, сочетающая режимы мышления и немышления.",
250
+ "ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B — это разреженная LLM с 72 миллиардами общих и 16 миллиардами активных параметров, основанная на архитектуре группированной MoE (MoGE). Она группирует экспертов при выборе и ограничивает количество активируемых экспертов на группу, что обеспечивает равномерную нагрузку и повышает эффективность развертывания на Ascend.",
251
+ "aya.description": "Aya 23 — многоязычная модель от Cohere, поддерживающая 23 языка для различных сценариев использования.",
252
+ "aya:35b.description": "Aya 23 — многоязычная модель от Cohere, поддерживающая 23 языка для различных сценариев использования.",
253
+ "azure-DeepSeek-R1-0528.description": "Развернута Microsoft; DeepSeek R1 обновлена до версии DeepSeek-R1-0528. Обновление включает увеличение вычислительных ресурсов и оптимизацию алгоритмов постобучения, что значительно улучшает глубину рассуждений и выводов. Модель демонстрирует высокие результаты в математике, программировании и логике, приближаясь к лидерам, таким как O3 и Gemini 2.5 Pro.",
254
+ "baichuan-m2-32b.description": "Baichuan M2 32B — это модель MoE от Baichuan Intelligence с сильными способностями к рассуждению.",
255
+ "baichuan/baichuan2-13b-chat.description": "Baichuan-13B — это открытая, коммерчески пригодная LLM с 13 миллиардами параметров от Baichuan, демонстрирующая лучшие в своем классе результаты на авторитетных китайских и английских бенчмарках.",
256
+ "baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B — это MoE LLM от Baidu с 300 миллиардами общих параметров и 47 миллиардами активных на токен, обеспечивающая баланс между высокой производительностью и эффективностью вычислений. Как основная модель ERNIE 4.5, она превосходна в понимании, генерации, рассуждении и программировании. Использует мультимодальный гетерогенный метод предобучения MoE с совместным обучением на текстах и изображениях, что усиливает общие возможности, особенно в следовании инструкциям и знании мира.",
257
+ "baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview — это модель нового поколения от Baidu с нативной мультимодальностью, обладающая сильными возможностями в понимании мультимодальных данных, следовании инструкциям, создании контента, фактическом вопросо-ответе и использовании инструментов.",
258
+ "black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro — это более быстрая и улучшенная версия FLUX Pro с отличным качеством изображений и точным следованием подсказкам.",
259
+ "black-forest-labs/flux-dev.description": "FLUX Dev — это версия FLUX для разработки, предназначенная для некоммерческого использования.",
260
+ "black-forest-labs/flux-pro.description": "FLUX Pro — профессиональная модель FLUX для генерации изображений высокого качества.",
261
+ "black-forest-labs/flux-schnell.description": "FLUX Schnell — это модель генерации изображений, оптимизированная для высокой скорости.",
262
+ "c4ai-aya-expanse-32b.description": "Aya Expanse — это высокопроизводительная многоязычная модель с 32 миллиардами параметров, использующая настройку по инструкциям, арбитраж данных, обучение предпочтениям и объединение моделей, чтобы конкурировать с монолингвальными моделями. Поддерживает 23 языка.",
263
+ "c4ai-aya-expanse-8b.description": "Aya Expanse — это высокопроизводительная многоязычная модель с 8 миллиардами параметров, использующая настройку по инструкциям, арбитраж данных, обучение предпочтениям и объединение моделей, чтобы конкурировать с монолингвальными моделями. Поддерживает 23 языка.",
264
+ "c4ai-aya-vision-32b.description": "Aya Vision — это передовая мультимодальная модель, демонстрирующая высокие результаты на ключевых языковых, текстовых и визуальных бенчмарках. Поддерживает 23 языка. Версия с 32 миллиардами параметров ориентирована на выдающуюся многоязычную производительность.",
265
+ "c4ai-aya-vision-8b.description": "Aya Vision — это передовая мультимодальная модель, демонстрирующая высокие результаты на ключевых языковых, текстовых и визуальных бенчмарках. Версия с 8 миллиардами параметров ориентирована на низкую задержку и высокую производительность.",
266
+ "charglm-3.description": "CharGLM-3 создана для ролевых игр и эмоционального общения, поддерживает сверхдолгую многотуровую память и персонализированный диалог.",
267
+ "charglm-4.description": "CharGLM-4 создана для ролевых игр и эмоционального общения, поддерживает сверхдолгую многотуровую память и персонализированный диалог.",
268
+ "chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
269
+ "claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
270
+ "claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
271
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, улучшенная по всем навыкам и превосходящая предыдущий флагман Claude 3 Opus на многих бенчмарках.",
272
+ "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
273
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 — самая интеллектуальная модель от Anthropic и первая гибридная модель рассуждения на рынке, поддерживающая как мгновенные ответы, так и длительное размышление с тонкой настройкой.",
274
+ "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
275
+ "claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
276
+ "claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
277
+ "claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
278
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, с молниеносной скоростью и расширенным мышлением.",
279
+ "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
280
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
281
+ "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
282
+ "claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
283
+ "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
284
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 — самая интеллектуальная модель от Anthropic на сегодняшний день, предлагающая мгновенные ответы или пошаговое рассуждение с тонкой настройкой для пользователей API.",
285
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
286
+ "codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
287
+ "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
288
+ "codegemma.description": "CodeGemma — легковесная модель для различных задач программирования, обеспечивающая быструю итерацию и интеграцию.",
289
+ "codegemma:2b.description": "CodeGemma — легковесная модель для различных задач программирования, обеспечивающая быструю итерацию и интеграцию.",
290
+ "codellama.description": "Code Llama — LLM, ориентированная на генерацию и обсуждение кода, с широкой поддержкой языков для рабочих процессов разработчиков.",
291
+ "codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama — LLM, ориентированная на генерацию и обсуждение кода, с широкой поддержкой языков для рабочих процессов разработчиков.",
292
+ "codellama:13b.description": "Code Llama — LLM, ориентированная на генерацию и обсуждение кода, с широкой поддержкой языков для рабочих процессов разработчиков.",
293
+ "codellama:34b.description": "Code Llama — LLM, ориентированная на генерацию и обсуждение кода, с широкой поддержкой языков для рабочих процессов разработчиков.",
294
+ "codellama:70b.description": "Code Llama — LLM, ориентированная на генерацию и обсуждение кода, с широкой поддержкой языков для рабочих процессов разработчиков.",
295
+ "codeqwen.description": "CodeQwen1.5 — крупная языковая модель, обученная на обширных данных кода, предназначенная для сложных задач программирования.",
296
+ "codestral-latest.description": "Codestral — наша самая продвинутая модель для программирования; версия v2 (январь 2025) оптимизирована для задач с низкой задержкой и высокой частотой, таких как FIM, исправление кода и генерация тестов.",
297
+ "codestral.description": "Codestral — первая модель для программирования от Mistral AI, обеспечивающая высокое качество генерации кода.",
298
+ "codex-mini-latest.description": "codex-mini-latest — дообученная модель o4-mini для Codex CLI. Для прямого использования через API мы рекомендуем начать с gpt-4.1.",
299
+ "cogito-2.1:671b.description": "Cogito v2.1 671B — открытая LLM из США, свободная для коммерческого использования. Обеспечивает производительность на уровне ведущих моделей, более эффективную работу с токенами, поддержку контекста до 128k и высокую общую мощность.",
300
+ "cogview-4.description": "CogView-4 — первая открытая модель от Zhipu для генерации изображений по тексту с поддержкой китайских иероглифов. Улучшает семантическое понимание, качество изображений и рендеринг текста на китайском и английском языках, поддерживает произвольную длину двуязычных подсказок и может генерировать изображения в любом разрешении в заданных пределах.",
301
+ "cohere-command-r-plus.description": "Command R+ — продвинутая модель, оптимизированная для RAG, предназначенная для корпоративных задач.",
302
+ "cohere-command-r.description": "Command R — масштабируемая генеративная модель, разработанная для RAG и использования инструментов, обеспечивающая промышленный уровень ИИ.",
303
+ "cohere/Cohere-command-r-plus.description": "Command R+ — продвинутая модель, оптимизированная для RAG, предназначенная для корпоративных задач.",
304
+ "cohere/Cohere-command-r.description": "Command R — масштабируемая генеративная модель, разработанная для RAG и использования инструментов, обеспечивающая промышленный уровень ИИ.",
305
+ "cohere/command-a.description": "Command A — самая мощная модель Cohere на сегодняшний день, превосходно справляющаяся с использованием инструментов, агентами, RAG и многоязычными задачами. Поддерживает контекст длиной 256K, работает всего на двух GPU и обеспечивает на 150% большую пропускную способность по сравнению с Command R+ 08-2024.",
306
+ "cohere/command-r-plus.description": "Command R+ — новейшая LLM от Cohere, оптимизированная для чатов и задач с длинным контекстом, обеспечивающая выдающуюся производительность, позволяя компаниям переходить от прототипов к реальному использованию.",
307
+ "cohere/command-r.description": "Command R оптимизирована для чатов и задач с длинным контекстом, позиционируется как «масштабируемая» модель, сочетающая высокую производительность и точность, позволяя компаниям переходить от прототипов к промышленному применению.",
308
+ "cohere/embed-v4.0.description": "Модель, преобразующая текст, изображения или смешанный контент в эмбеддинги для классификации или других задач.",
309
+ "comfyui/flux-dev.description": "FLUX.1 Dev — высококачественная модель генерации изображений по тексту (10–50 шагов), идеально подходящая для креативных и художественных задач премиум-класса.",
310
+ "comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev — модель редактирования изображений с поддержкой редактирования по тексту, включая локальные изменения и перенос стиля.",
311
+ "comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev — безопасная модель генерации изображений по тексту, разработанная совместно с Krea, с встроенными фильтрами безопасности.",
312
+ "comfyui/flux-schnell.description": "FLUX.1 Schnell — сверхбыстрая модель генерации изображений по тексту, создающая качественные изображения за 1–4 шага. Идеальна для задач в реальном времени и быстрого прототипирования.",
313
+ "comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 — классическая модель генерации изображений по тексту с разрешением 512x512, идеально подходящая для быстрого прототипирования и творческих экспериментов.",
314
+ "comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 с встроенными энкодерами CLIP/T5 не требует внешних файлов энкодеров. Подходит для моделей, таких как sd3.5_medium_incl_clips, с низким потреблением ресурсов.",
315
+ "comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 — модель нового поколения для генерации изображений по тексту с вариантами Large и Medium. Требует внешние файлы энкодеров CLIP и обеспечивает отличное качество изображений и соответствие подсказкам.",
316
+ "comfyui/stable-diffusion-custom-refiner.description": "Пользовательская модель SDXL для преобразования изображений. Используйте имя файла custom_sd_lobe.safetensors; при наличии VAE — custom_sd_vae_lobe.safetensors. Поместите файлы моделей в соответствующие папки Comfy.",
317
+ "comfyui/stable-diffusion-custom.description": "Пользовательская модель SD для генерации изображений по тексту. Используйте имя файла custom_sd_lobe.safetensors; при наличии VAE — custom_sd_vae_lobe.safetensors. Поместите файлы моделей в соответствующие папки Comfy.",
318
+ "comfyui/stable-diffusion-refiner.description": "Модель SDXL для преобразования изображений, обеспечивающая высококачественные трансформации, включая перенос стиля, восстановление и креативные вариации.",
319
+ "comfyui/stable-diffusion-xl.description": "SDXL — модель генерации изображений по тексту с поддержкой высокого разрешения 1024x1024, обеспечивающая лучшее качество и детализацию изображений.",
320
+ "command-a-03-2025.description": "Command A — наша самая мощная модель на сегодняшний день, превосходно справляющаяся с использованием инструментов, агентами, RAG и многоязычными задачами. Поддерживает контекст до 256K, работает на двух GPU и обеспечивает на 150% большую пропускную способность по сравнению с Command R+ 08-2024.",
321
+ "command-light-nightly.description": "Чтобы сократить интервал между основными релизами, мы предлагаем ночные сборки Command. Для серии command-light это называется command-light-nightly. Это самая новая и экспериментальная (возможно, нестабильная) версия, обновляется без уведомлений, поэтому не рекомендуется для продакшена.",
322
+ "command-light.description": "Упрощённый и более быстрый вариант Command, почти такой же мощный, но с более высокой скоростью.",
323
+ "command-nightly.description": "Чтобы сократить интервал между основными релизами, мы предлагаем ночные сборки Command. Для основной серии это называется command-nightly. Это самая новая и экспериментальная (возможно, нестабильная) версия, обновляется без уведомлений, поэтому не рекомендуется для продакшена.",
324
+ "command-r-03-2024.description": "Command R — модель чата, следящая за инструкциями, с более высоким качеством, надёжностью и увеличенным окном контекста по сравнению с предыдущими версиями. Поддерживает сложные рабочие процессы, такие как генерация кода, RAG, использование инструментов и агентов.",
325
+ "command-r-08-2024.description": "command-r-08-2024 — обновлённая модель Command R, выпущенная в августе 2024 года.",
326
+ "command-r-plus-04-2024.description": "command-r-plus — псевдоним модели command-r-plus-04-2024, поэтому использование command-r-plus в API указывает на эту модель.",
327
+ "command-r-plus-08-2024.description": "Command R+ — модель чата, следящая за инструкциями, с более высоким качеством, надёжностью и увеличенным окном контекста по сравнению с предыдущими версиями. Идеальна для сложных RAG-процессов и многошагового использования инструментов.",
328
+ "command-r-plus.description": "Command R+ — высокопроизводительная LLM, предназначенная для реальных корпоративных сценариев и сложных приложений.",
329
+ "command-r.description": "Command R — LLM, оптимизированная для чатов и задач с длинным контекстом, идеально подходящая для динамичного взаимодействия и управления знаниями.",
330
+ "command-r7b-12-2024.description": "command-r7b-12-2024 — компактное и эффективное обновление, выпущенное в декабре 2024 года. Отлично справляется с задачами RAG, использования инструментов и агентов, требующих сложного многошагового рассуждения.",
331
+ "command.description": "Модель чата, следящая за инструкциями, обеспечивающая более высокое качество и надёжность в языковых задачах, с увеличенным окном контекста по сравнению с базовыми генеративными моделями.",
332
+ "computer-use-preview.description": "computer-use-preview — специализированная модель для инструмента \"использование компьютера\", обученная понимать и выполнять задачи, связанные с компьютером.",
333
+ "dall-e-2.description": "Модель DALL·E второго поколения с более реалистичной и точной генерацией изображений и разрешением в 4 раза выше, чем у первого поколения.",
334
+ "dall-e-3.description": "Последняя модель DALL·E, выпущенная в ноябре 2023 года, обеспечивает более реалистичную и точную генерацию изображений с улучшенной детализацией.",
250
335
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
251
336
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
252
337
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
@@ -73,6 +73,8 @@
73
73
  "builtins.lobe-gtd.title": "Инструменты задач",
74
74
  "builtins.lobe-knowledge-base.apiName.readKnowledge": "Читать содержимое библиотеки",
75
75
  "builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Поиск в библиотеке",
76
+ "builtins.lobe-knowledge-base.inspector.andMoreFiles": "и ещё {{count}}",
77
+ "builtins.lobe-knowledge-base.inspector.noResults": "Нет результатов",
76
78
  "builtins.lobe-knowledge-base.title": "Библиотека",
77
79
  "builtins.lobe-local-system.apiName.editLocalFile": "Редактировать файл",
78
80
  "builtins.lobe-local-system.apiName.getCommandOutput": "Получить вывод команды",
@@ -86,6 +88,8 @@
86
88
  "builtins.lobe-local-system.apiName.runCommand": "Выполнить команду",
87
89
  "builtins.lobe-local-system.apiName.searchLocalFiles": "Поиск файлов",
88
90
  "builtins.lobe-local-system.apiName.writeLocalFile": "Записать файл",
91
+ "builtins.lobe-local-system.inspector.noResults": "Нет результатов",
92
+ "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
89
93
  "builtins.lobe-local-system.title": "Локальная система",
90
94
  "builtins.lobe-page-agent.apiName.batchUpdate": "Пакетное обновление узлов",
91
95
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Сравнить снимки",
@@ -143,6 +147,7 @@
143
147
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "Прочитать несколько страниц",
144
148
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "Прочитать содержимое страницы",
145
149
  "builtins.lobe-web-browsing.apiName.search": "Поиск страниц",
150
+ "builtins.lobe-web-browsing.inspector.noResults": "Нет результатов",
146
151
  "builtins.lobe-web-browsing.title": "Веб-поиск",
147
152
  "confirm": "Подтвердить",
148
153
  "debug.arguments": "Аргументы",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
30
30
  "jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
31
31
  "lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
32
+ "lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
32
33
  "minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
33
34
  "mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
34
35
  "modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",
@@ -215,6 +215,87 @@
215
215
  "accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5, Qwen ekibi ve Alibaba Cloud tarafından geliştirilen yalnızca kod çözücü LLM serisidir. 0.5B, 1.5B, 3B, 7B, 14B, 32B ve 72B boyutlarında temel ve talimat ayarlı varyantlar sunar.",
216
216
  "accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder, kodlama için tasarlanmış en yeni Qwen LLM'dir (önceki adıyla CodeQwen). Not: Bu model şu anda sunucusuz olarak deneysel şekilde sunulmaktadır. Üretim ortamında kullanmadan önce Fireworks’un dağıtımı kısa sürede sonlandırabileceğini göz önünde bulundurun.",
217
217
  "accounts/yi-01-ai/models/yi-large.description": "Yi-Large, LMSYS sıralamasında GPT-4, Gemini 1.5 Pro ve Claude 3 Opus'un hemen altında yer alan üst düzey bir LLM'dir. Çok dilli yeteneklerde, özellikle İspanyolca, Çince, Japonca, Almanca ve Fransızca dillerinde öne çıkar. Yi-Large ayrıca geliştirici dostudur ve OpenAI ile aynı API şemasını kullanarak kolay entegrasyon sağlar.",
218
+ "ai21-jamba-1.5-large.description": "256K bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim özelliklerine sahip, 398 milyar parametreli (94 milyar aktif) çok dilli bir model.",
219
+ "ai21-jamba-1.5-mini.description": "256K bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim özelliklerine sahip, 52 milyar parametreli (12 milyar aktif) çok dilli bir model.",
220
+ "ai21-labs/AI21-Jamba-1.5-Large.description": "256K bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim özelliklerine sahip, 398 milyar parametreli (94 milyar aktif) çok dilli bir model.",
221
+ "ai21-labs/AI21-Jamba-1.5-Mini.description": "256K bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim özelliklerine sahip, 52 milyar parametreli (12 milyar aktif) çok dilli bir model.",
222
+ "alibaba/qwen-3-14b.description": "Qwen3, Qwen serisinin en son neslidir ve yoğun ve MoE modellerinden oluşan kapsamlı bir set sunar. Geniş kapsamlı eğitimle geliştirilen bu model, akıl yürütme, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında önemli ilerlemeler sağlar.",
223
+ "alibaba/qwen-3-235b.description": "Qwen3, Qwen serisinin en son neslidir ve yoğun ve MoE modellerinden oluşan kapsamlı bir set sunar. Geniş kapsamlı eğitimle geliştirilen bu model, akıl yürütme, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında önemli ilerlemeler sağlar.",
224
+ "alibaba/qwen-3-30b.description": "Qwen3, Qwen serisinin en son neslidir ve yoğun ve MoE modellerinden oluşan kapsamlı bir set sunar. Geniş kapsamlı eğitimle geliştirilen bu model, akıl yürütme, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında önemli ilerlemeler sağlar.",
225
+ "alibaba/qwen-3-32b.description": "Qwen3, Qwen serisinin en son neslidir ve yoğun ve MoE modellerinden oluşan kapsamlı bir set sunar. Geniş kapsamlı eğitimle geliştirilen bu model, akıl yürütme, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında önemli ilerlemeler sağlar.",
226
+ "alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct, Qwen’in en gelişmiş kodlama modelidir. Ajan tabanlı kodlama, tarayıcı kullanımı ve diğer temel kodlama görevlerinde güçlü performans göstererek Claude Sonnet seviyesindeki sonuçlara ulaşır.",
227
+ "amazon/nova-lite.description": "Görüntü, video ve metin girdilerini son derece hızlı işleyen, çok düşük maliyetli çok modlu bir model.",
228
+ "amazon/nova-micro.description": "Yalnızca metin destekli, ultra düşük gecikmeli ve çok düşük maliyetli bir model.",
229
+ "amazon/nova-pro.description": "Geniş görev yelpazesi için doğruluk, hız ve maliyet arasında en iyi dengeyi sunan, son derece yetenekli çok modlu bir model.",
230
+ "amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2, 1024, 512 ve 256 boyutlarını destekleyen hafif, verimli ve çok dilli bir gömme modelidir.",
231
+ "anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet, sektördeki standartları yükselterek rakiplerini ve Claude 3 Opus'u genel değerlendirmelerde geride bırakır; orta seviye hız ve maliyeti korur.",
232
+ "anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet, sektördeki standartları yükselterek rakiplerini ve Claude 3 Opus'u genel değerlendirmelerde geride bırakır; orta seviye hız ve maliyeti korur.",
233
+ "anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir. Basit sorgulara neredeyse anında yanıt verir, insan benzeri deneyimler sunar ve 200K bağlam penceresiyle görsel girdi desteği sağlar.",
234
+ "anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus, Anthropic’in en güçlü yapay zeka modelidir. Karmaşık görevlerde son teknoloji performans sunar, açık uçlu girdileri ve yeni senaryoları olağanüstü akıcılıkla ve insan benzeri anlayışla işler. 200K bağlam penceresiyle görsel girdi desteği sunar.",
235
+ "anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler, düşük maliyetle yüksek değer sunar. Güvenilir büyük ölçekli yapay zeka dağıtımları için tasarlanmıştır ve 200K bağlam penceresiyle görsel girdi desteği sunar.",
236
+ "anthropic.claude-instant-v1.description": "Günlük sohbet, metin analizi, özetleme ve belge SSS için hızlı, ekonomik ve yetenekli bir model.",
237
+ "anthropic.claude-v2.description": "Karmaşık diyaloglardan yaratıcı üretime, ayrıntılı talimat takibine kadar çok çeşitli görevlerde son derece yetenekli bir model.",
238
+ "anthropic.claude-v2:1.description": "Claude 2'nin güncellenmiş versiyonu; iki kat bağlam penceresi, uzun belgeler ve RAG için daha yüksek güvenilirlik, daha düşük halüsinasyon oranı ve kanıta dayalı doğruluk sunar.",
239
+ "anthropic/claude-3-haiku.description": "Claude 3 Haiku, Anthropic’in en hızlı modelidir. Uzun girdili kurumsal iş yükleri için tasarlanmıştır. Çeyrek dönem raporları, sözleşmeler veya hukuki belgeler gibi büyük belgeleri hızlıca analiz eder ve maliyeti yarıya indirir.",
240
+ "anthropic/claude-3-opus.description": "Claude 3 Opus, Anthropic’in en zeki modelidir. Karmaşık görevlerde pazar lideri performans sunar, açık uçlu girdileri ve yeni senaryoları olağanüstü akıcılıkla ve insan benzeri anlayışla işler.",
241
+ "anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku, geliştirilmiş hız, kodlama doğruluğu ve araç kullanımı sunar. Hız ve araç etkileşimi gereksinimlerinin yüksek olduğu senaryolar için uygundur.",
242
+ "anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet, Sonnet ailesinin hızlı ve verimli modelidir. Daha iyi kodlama ve akıl yürütme performansı sunar. Bazı sürümleri kademeli olarak Sonnet 3.7 ve sonrasıyla değiştirilir.",
243
+ "anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet, daha güçlü akıl yürütme ve kodlama yeteneklerine sahip geliştirilmiş bir Sonnet modelidir. Kurumsal düzeyde karmaşık görevler için uygundur.",
244
+ "anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5, Anthropic’in yüksek performanslı hızlı modelidir. Çok düşük gecikme süresiyle yüksek doğruluğu korur.",
245
+ "anthropic/claude-opus-4.1.description": "Opus 4.1, programlama, karmaşık akıl yürütme ve uzun süreli görevler için optimize edilmiş Anthropic’in üst düzey modelidir.",
246
+ "anthropic/claude-opus-4.5.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir. Karmaşık, yüksek kaliteli akıl yürütme görevleri için üst düzey zeka ile ölçeklenebilir performansı birleştirir.",
247
+ "anthropic/claude-opus-4.description": "Opus 4, karmaşık görevler ve kurumsal uygulamalar için tasarlanmış Anthropic’in amiral gemisi modelidir.",
248
+ "anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5, karmaşık akıl yürütme ve kodlama için optimize edilmiş Anthropic’in en yeni hibrit akıl yürütme modelidir.",
249
+ "anthropic/claude-sonnet-4.description": "Claude Sonnet 4, düşünme ve düşünmeme yeteneklerini birleştiren Anthropic’in hibrit akıl yürütme modelidir.",
250
+ "ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B, 72 milyar toplam ve 16 milyar aktif parametreye sahip seyrek bir LLM'dir. Gruplandırılmış MoE (MoGE) mimarisi üzerine kuruludur. Uzmanları seçim sırasında gruplandırır ve her grup için eşit sayıda uzmanın etkinleştirilmesini zorunlu kılar. Bu, yük dengesini sağlar ve Ascend üzerinde dağıtım verimliliğini artırır.",
251
+ "aya.description": "Aya 23, 23 dili destekleyen Cohere’in çok dilli modelidir ve çeşitli kullanım senaryolarına uygundur.",
252
+ "aya:35b.description": "Aya 23, 23 dili destekleyen Cohere’in çok dilli modelidir ve çeşitli kullanım senaryolarına uygundur.",
253
+ "azure-DeepSeek-R1-0528.description": "Microsoft tarafından dağıtılan DeepSeek R1, DeepSeek-R1-0528'e yükseltilmiştir. Bu güncelleme, hesaplama gücünü ve son eğitim algoritmalarını artırarak akıl yürütme derinliğini ve çıkarım kalitesini önemli ölçüde geliştirir. Matematik, kodlama ve genel mantık testlerinde güçlü performans gösterir ve O3 ile Gemini 2.5 Pro gibi lider modellere yaklaşır.",
254
+ "baichuan-m2-32b.description": "Baichuan M2 32B, güçlü akıl yürütme yeteneklerine sahip Baichuan Intelligence tarafından geliştirilen bir MoE modelidir.",
255
+ "baichuan/baichuan2-13b-chat.description": "Baichuan-13B, Baichuan tarafından geliştirilen açık kaynaklı ve ticari olarak kullanılabilir 13B parametreli bir LLM'dir. Hem Çince hem de İngilizce otoritelerce kabul gören kıyaslamalarda kendi boyutundaki modeller arasında en iyi sonuçları elde etmiştir.",
256
+ "baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B, Baidu'nun 300 milyar toplam parametreli ve her bir token için 47 milyar aktif parametreli MoE LLM modelidir. Güçlü performans ile hesaplama verimliliğini dengeler. ERNIE 4.5 serisinin çekirdek modeli olarak anlama, üretim, akıl yürütme ve programlama konularında üstündür. Metin-görsel ortak eğitimi içeren çok modlu heterojen MoE ön eğitim yöntemi kullanır ve özellikle yönerge takibi ve dünya bilgisi alanlarında genel yetenekleri artırır.",
257
+ "baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview, Baidu’nun yeni nesil yerel çok modlu ERNIE modelidir. Çok modlu anlama, yönerge takibi, yaratım, gerçeklere dayalı soru-cevap ve araç kullanımı konularında güçlüdür.",
258
+ "black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro, daha hızlı ve geliştirilmiş bir FLUX Pro sürümüdür; mükemmel görsel kalite ve istem uyumluluğu sunar.",
259
+ "black-forest-labs/flux-dev.description": "FLUX Dev, ticari olmayan kullanım için geliştirilen FLUX modelinin geliştirme sürümüdür.",
260
+ "black-forest-labs/flux-pro.description": "FLUX Pro, yüksek kaliteli görsel çıktılar için profesyonel FLUX modelidir.",
261
+ "black-forest-labs/flux-schnell.description": "FLUX Schnell, hız için optimize edilmiş hızlı bir görsel üretim modelidir.",
262
+ "c4ai-aya-expanse-32b.description": "Aya Expanse, 32B parametreli yüksek performanslı çok dilli bir modeldir. Yönerge ayarı, veri arbitrajı, tercih eğitimi ve model birleştirme tekniklerini kullanarak tek dilli modellere rakip olur. 23 dili destekler.",
263
+ "c4ai-aya-expanse-8b.description": "Aya Expanse, 8B parametreli yüksek performanslı çok dilli bir modeldir. Yönerge ayarı, veri arbitrajı, tercih eğitimi ve model birleştirme tekniklerini kullanarak tek dilli modellere rakip olur. 23 dili destekler.",
264
+ "c4ai-aya-vision-32b.description": "Aya Vision, dil, metin ve görsel kıyaslamalarda güçlü performans sergileyen son teknoloji çok modlu bir modeldir. 23 dili destekler. Bu 32B sürüm, üst düzey çok dilli performansa odaklanır.",
265
+ "c4ai-aya-vision-8b.description": "Aya Vision, dil, metin ve görsel kıyaslamalarda güçlü performans sergileyen son teknoloji çok modlu bir modeldir. Bu 8B sürüm, düşük gecikme süresi ve güçlü performansa odaklanır.",
266
+ "charglm-3.description": "CharGLM-3, rol yapma ve duygusal arkadaşlık için tasarlanmıştır; ultra uzun çoklu dönüş hafızası ve kişiselleştirilmiş diyalog desteği sunar.",
267
+ "charglm-4.description": "CharGLM-4, rol yapma ve duygusal arkadaşlık için tasarlanmıştır; ultra uzun çoklu dönüş hafızası ve kişiselleştirilmiş diyalog desteği sunar.",
268
+ "chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.",
269
+ "claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
270
+ "claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
271
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic’in en hızlı yeni nesil modelidir; birçok kıyaslamada önceki amiral gemisi Claude 3 Opus'u geride bırakır.",
272
+ "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.",
273
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7, Anthropic’in en zeki modelidir ve piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar veya ayrıntılı düşünme süreçleriyle ince ayar kontrolü sunar.",
274
+ "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
275
+ "claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
276
+ "claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
277
+ "claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
278
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic’in en hızlı ve en zeki Haiku modelidir; yıldırım hızında yanıtlar ve derin düşünme sunar.",
279
+ "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
280
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
281
+ "claude-opus-4-20250514.description": "Claude Opus 4, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
282
+ "claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
283
+ "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
284
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4, Anthropic’in bugüne kadarki en zeki modelidir; API kullanıcıları için ayrıntılı kontrolle anında yanıtlar veya adım adım düşünme sunar.",
285
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic’in bugüne kadarki en zeki modelidir.",
286
+ "codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
287
+ "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
288
+ "codegemma.description": "CodeGemma, hızlı yineleme ve entegrasyon sağlayan hafif bir programlama modelidir.",
289
+ "codegemma:2b.description": "CodeGemma, hızlı yineleme ve entegrasyon sağlayan hafif bir programlama modelidir.",
290
+ "codellama.description": "Code Llama, geliştirici iş akışları için geniş dil desteğiyle kod üretimi ve tartışmaya odaklanan bir LLM'dir.",
291
+ "codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama, geliştirici iş akışları için geniş dil desteğiyle kod üretimi ve tartışmaya odaklanan bir LLM'dir.",
292
+ "codellama:13b.description": "Code Llama, geliştirici iş akışları için geniş dil desteğiyle kod üretimi ve tartışmaya odaklanan bir LLM'dir.",
293
+ "codellama:34b.description": "Code Llama, geliştirici iş akışları için geniş dil desteğiyle kod üretimi ve tartışmaya odaklanan bir LLM'dir.",
294
+ "codellama:70b.description": "Code Llama, geliştirici iş akışları için geniş dil desteğiyle kod üretimi ve tartışmaya odaklanan bir LLM'dir.",
295
+ "codeqwen.description": "CodeQwen1.5, kapsamlı kod verileriyle eğitilmiş büyük bir dil modelidir ve karmaşık programlama görevleri için tasarlanmıştır.",
296
+ "codestral-latest.description": "Codestral, en gelişmiş kodlama modelimizdir; v2 (Ocak 2025), FIM, kod düzeltme ve test üretimi gibi düşük gecikmeli, yüksek frekanslı görevleri hedefler.",
297
+ "codestral.description": "Codestral, Mistral AI’nin ilk kod modelidir ve güçlü kod üretim desteği sunar.",
298
+ "codex-mini-latest.description": "codex-mini-latest, Codex CLI için ince ayarlanmış bir o4-mini modelidir. Doğrudan API kullanımı için gpt-4.1 ile başlamanız önerilir.",
218
299
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
219
300
  "mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
220
301
  "mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
@@ -73,6 +73,8 @@
73
73
  "builtins.lobe-gtd.title": "Görev Araçları",
74
74
  "builtins.lobe-knowledge-base.apiName.readKnowledge": "Kütüphane içeriğini oku",
75
75
  "builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Kütüphanede ara",
76
+ "builtins.lobe-knowledge-base.inspector.andMoreFiles": "ve {{count}} tane daha",
77
+ "builtins.lobe-knowledge-base.inspector.noResults": "Sonuç bulunamadı",
76
78
  "builtins.lobe-knowledge-base.title": "Kütüphane",
77
79
  "builtins.lobe-local-system.apiName.editLocalFile": "Dosyayı düzenle",
78
80
  "builtins.lobe-local-system.apiName.getCommandOutput": "Komut çıktısını al",
@@ -86,6 +88,8 @@
86
88
  "builtins.lobe-local-system.apiName.runCommand": "Komutu çalıştır",
87
89
  "builtins.lobe-local-system.apiName.searchLocalFiles": "Dosyalarda ara",
88
90
  "builtins.lobe-local-system.apiName.writeLocalFile": "Dosyaya yaz",
91
+ "builtins.lobe-local-system.inspector.noResults": "Sonuç yok",
92
+ "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
89
93
  "builtins.lobe-local-system.title": "Yerel Sistem",
90
94
  "builtins.lobe-page-agent.apiName.batchUpdate": "Düğümleri toplu güncelle",
91
95
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Anlık görüntüleri karşılaştır",
@@ -143,6 +147,7 @@
143
147
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "Birden fazla sayfayı oku",
144
148
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "Sayfa içeriğini oku",
145
149
  "builtins.lobe-web-browsing.apiName.search": "Sayfalarda ara",
150
+ "builtins.lobe-web-browsing.inspector.noResults": "Sonuç bulunamadı",
146
151
  "builtins.lobe-web-browsing.title": "Web Arama",
147
152
  "confirm": "Onayla",
148
153
  "debug.arguments": "Argümanlar",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Büyük model araştırmaları ve araçları üzerine odaklanan açık kaynaklı bir organizasyon. En son modelleri ve algoritmaları erişilebilir kılan verimli ve kullanıcı dostu bir platform sağlar.",
30
30
  "jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.",
31
31
  "lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.",
32
+ "lobehub.description": "LobeHub Cloud, yapay zeka modellerine erişmek için resmi API'leri kullanır ve kullanım miktarını model jetonlarına bağlı Krediler ile ölçer.",
32
33
  "minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.",
33
34
  "mistral.description": "Mistral, karmaşık akıl yürütme, çok dilli görevler ve kod üretimi için gelişmiş genel, özel ve araştırma modelleri sunar. Özelleştirilmiş entegrasyonlar için işlev çağrısını destekler.",
34
35
  "modelscope.description": "ModelScope, Alibaba Cloud’un model-hizmet olarak sunduğu platformudur. Geniş bir yapay zeka modeli ve çıkarım hizmeti yelpazesi sunar.",
@@ -193,6 +193,60 @@
193
193
  "abab6.5g-chat.description": "Thiết kế cho trò chuyện nhân vật đa ngôn ngữ, hỗ trợ tạo đối thoại chất lượng cao bằng tiếng Anh và các ngôn ngữ khác.",
194
194
  "abab6.5s-chat.description": "Phù hợp với nhiều tác vụ NLP, bao gồm tạo văn bản và hệ thống đối thoại.",
195
195
  "abab6.5t-chat.description": "Tối ưu hóa cho trò chuyện nhân vật tiếng Trung, cung cấp đối thoại trôi chảy phù hợp với thói quen biểu đạt tiếng Trung.",
196
+ "accounts/fireworks/models/deepseek-r1.description": "DeepSeek-R1 là một mô hình ngôn ngữ tiên tiến được tối ưu hóa bằng học tăng cường và dữ liệu khởi đầu lạnh, mang lại hiệu suất vượt trội trong lập luận, toán học và lập trình.",
197
+ "accounts/fireworks/models/deepseek-v3.description": "Một mô hình ngôn ngữ Mixture-of-Experts (MoE) mạnh mẽ từ DeepSeek với tổng số tham số là 671 tỷ và 37 tỷ tham số hoạt động cho mỗi token.",
198
+ "accounts/fireworks/models/llama-v3-70b-instruct.description": "Meta đã phát triển và phát hành dòng mô hình Meta Llama 3 LLM, bao gồm các mô hình tạo văn bản được huấn luyện trước và tinh chỉnh theo hướng dẫn với kích thước 8B và 70B. Các mô hình Llama 3 được tinh chỉnh theo hướng dẫn được tối ưu hóa cho hội thoại và vượt trội hơn nhiều mô hình trò chuyện mở hiện có trong các bài kiểm tra tiêu chuẩn của ngành.",
199
+ "accounts/fireworks/models/llama-v3-8b-instruct-hf.description": "Các mô hình Llama 3 được tinh chỉnh theo hướng dẫn của Meta được tối ưu hóa cho hội thoại và vượt trội hơn nhiều mô hình trò chuyện mở hiện có trong các bài kiểm tra tiêu chuẩn của ngành. Llama 3 8B Instruct (phiên bản HF) là phiên bản FP16 gốc của Llama 3 8B Instruct, với kết quả dự kiến tương đương với triển khai chính thức trên Hugging Face.",
200
+ "accounts/fireworks/models/llama-v3-8b-instruct.description": "Meta đã phát triển và phát hành dòng mô hình Meta Llama 3 LLM, bao gồm các mô hình tạo văn bản được huấn luyện trước và tinh chỉnh theo hướng dẫn với kích thước 8B và 70B. Các mô hình Llama 3 được tinh chỉnh theo hướng dẫn được tối ưu hóa cho hội thoại và vượt trội hơn nhiều mô hình trò chuyện mở hiện có trong các bài kiểm tra tiêu chuẩn của ngành.",
201
+ "accounts/fireworks/models/llama-v3p1-405b-instruct.description": "Meta Llama 3.1 là một dòng mô hình LLM đa ngôn ngữ với các mô hình tạo văn bản được huấn luyện trước và tinh chỉnh theo hướng dẫn ở các kích thước 8B, 70B và 405B. Các mô hình văn bản được tinh chỉnh theo hướng dẫn được tối ưu hóa cho hội thoại đa ngôn ngữ và vượt trội hơn nhiều mô hình trò chuyện mở và đóng hiện có trong các bài kiểm tra tiêu chuẩn của ngành. 405B là mô hình mạnh nhất trong dòng Llama 3.1, sử dụng suy luận FP8 gần như tương đương với triển khai tham chiếu.",
202
+ "accounts/fireworks/models/llama-v3p1-70b-instruct.description": "Meta Llama 3.1 là một dòng mô hình LLM đa ngôn ngữ với các mô hình tạo văn bản được huấn luyện trước và tinh chỉnh theo hướng dẫn ở các kích thước 8B, 70B và 405B. Các mô hình văn bản được tinh chỉnh theo hướng dẫn được tối ưu hóa cho hội thoại đa ngôn ngữ và vượt trội hơn nhiều mô hình trò chuyện mở và đóng hiện có trong các bài kiểm tra tiêu chuẩn của ngành.",
203
+ "accounts/fireworks/models/llama-v3p1-8b-instruct.description": "Meta Llama 3.1 là một dòng mô hình LLM đa ngôn ngữ với các mô hình tạo văn bản được huấn luyện trước và tinh chỉnh theo hướng dẫn ở các kích thước 8B, 70B và 405B. Các mô hình văn bản được tinh chỉnh theo hướng dẫn được tối ưu hóa cho hội thoại đa ngôn ngữ và vượt trội hơn nhiều mô hình trò chuyện mở và đóng hiện có trong các bài kiểm tra tiêu chuẩn của ngành.",
204
+ "accounts/fireworks/models/llama-v3p2-11b-vision-instruct.description": "Một mô hình suy luận thị giác được tinh chỉnh theo hướng dẫn từ Meta với 11 tỷ tham số, được tối ưu hóa cho nhận diện hình ảnh, suy luận hình ảnh, tạo chú thích và hỏi đáp liên quan đến hình ảnh. Mô hình hiểu dữ liệu thị giác như biểu đồ và đồ thị, kết nối giữa thị giác và ngôn ngữ bằng cách tạo mô tả văn bản cho chi tiết hình ảnh.",
205
+ "accounts/fireworks/models/llama-v3p2-3b-instruct.description": "Llama 3.2 3B Instruct là một mô hình đa ngôn ngữ nhẹ từ Meta, được thiết kế để chạy hiệu quả với độ trễ thấp và chi phí thấp hơn so với các mô hình lớn hơn. Các trường hợp sử dụng phổ biến bao gồm viết lại truy vấn/lời nhắc và hỗ trợ viết.",
206
+ "accounts/fireworks/models/llama-v3p2-90b-vision-instruct.description": "Một mô hình suy luận thị giác được tinh chỉnh theo hướng dẫn từ Meta với 90 tỷ tham số, được tối ưu hóa cho nhận diện hình ảnh, suy luận hình ảnh, tạo chú thích và hỏi đáp liên quan đến hình ảnh. Mô hình hiểu dữ liệu thị giác như biểu đồ và đồ thị, kết nối giữa thị giác và ngôn ngữ bằng cách tạo mô tả văn bản cho chi tiết hình ảnh. Lưu ý: mô hình này hiện đang được cung cấp thử nghiệm dưới dạng không máy chủ. Đối với môi trường sản xuất, lưu ý rằng Fireworks có thể ngừng triển khai mà không báo trước.",
207
+ "accounts/fireworks/models/llama-v3p3-70b-instruct.description": "Llama 3.3 70B Instruct là bản cập nhật tháng 12 cho Llama 3.1 70B. Nó cải thiện khả năng sử dụng công cụ, hỗ trợ văn bản đa ngôn ngữ, toán học và lập trình so với bản phát hành tháng 7 năm 2024. Mô hình đạt hiệu suất hàng đầu trong ngành về lập luận, toán học và tuân theo hướng dẫn, mang lại hiệu suất tương đương với Llama 3.1 405B nhưng với tốc độ và chi phí tốt hơn đáng kể.",
208
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501.description": "Mô hình với 24 tỷ tham số có khả năng tiên tiến tương đương với các mô hình lớn hơn.",
209
+ "accounts/fireworks/models/mixtral-8x22b-instruct.description": "Mixtral MoE 8x22B Instruct v0.1 là phiên bản được tinh chỉnh theo hướng dẫn của Mixtral MoE 8x22B v0.1, với API hoàn thành hội thoại được kích hoạt.",
210
+ "accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct là phiên bản được tinh chỉnh theo hướng dẫn của Mixtral MoE 8x7B, với API hoàn thành hội thoại được kích hoạt.",
211
+ "accounts/fireworks/models/mythomax-l2-13b.description": "Một biến thể cải tiến của MythoMix, có thể là phiên bản tinh tế hơn, kết hợp MythoLogic-L2 và Huginn bằng kỹ thuật hợp nhất tensor thử nghiệm cao. Tính độc đáo của nó khiến nó rất phù hợp cho kể chuyện và nhập vai.",
212
+ "accounts/fireworks/models/phi-3-vision-128k-instruct.description": "Phi-3-Vision-128K-Instruct là một mô hình đa phương thức tiên tiến, nhẹ, được xây dựng từ dữ liệu tổng hợp và tập dữ liệu công khai được chọn lọc, tập trung vào dữ liệu văn bản và hình ảnh chất lượng cao, đòi hỏi suy luận. Nó thuộc dòng Phi-3, với phiên bản đa phương thức hỗ trợ độ dài ngữ cảnh 128K (tính theo token). Mô hình được nâng cấp kỹ lưỡng, bao gồm tinh chỉnh có giám sát và tối ưu hóa theo sở thích trực tiếp, để đảm bảo tuân theo hướng dẫn chính xác và các biện pháp an toàn mạnh mẽ.",
213
+ "accounts/fireworks/models/qwen-qwq-32b-preview.description": "Mô hình Qwen QwQ tập trung vào việc nâng cao khả năng suy luận của AI, chứng minh rằng các mô hình mở có thể cạnh tranh với các mô hình tiên tiến đóng trong suy luận. QwQ-32B-Preview là bản phát hành thử nghiệm đạt mức o1 và vượt qua GPT-4o và Claude 3.5 Sonnet về suy luận và phân tích trên các bài kiểm tra GPQA, AIME, MATH-500 và LiveCodeBench. Lưu ý: mô hình này hiện đang được cung cấp thử nghiệm dưới dạng không máy chủ. Đối với môi trường sản xuất, lưu ý rằng Fireworks có thể ngừng triển khai mà không báo trước.",
214
+ "accounts/fireworks/models/qwen2-vl-72b-instruct.description": "Mô hình Qwen-VL 72B là phiên bản mới nhất của Alibaba, phản ánh gần một năm đổi mới.",
215
+ "accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 là dòng mô hình LLM chỉ giải mã do nhóm Qwen và Alibaba Cloud phát triển, cung cấp các kích thước 0.5B, 1.5B, 3B, 7B, 14B, 32B và 72B, với cả biến thể cơ bản và được tinh chỉnh theo hướng dẫn.",
216
+ "accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder là mô hình LLM mới nhất của Qwen được thiết kế cho lập trình (trước đây là CodeQwen). Lưu ý: mô hình này hiện đang được cung cấp thử nghiệm dưới dạng không máy chủ. Đối với môi trường sản xuất, lưu ý rằng Fireworks có thể ngừng triển khai mà không báo trước.",
217
+ "accounts/yi-01-ai/models/yi-large.description": "Yi-Large là một mô hình LLM hàng đầu, chỉ xếp sau GPT-4, Gemini 1.5 Pro và Claude 3 Opus trên bảng xếp hạng LMSYS. Nó xuất sắc trong khả năng đa ngôn ngữ, đặc biệt là tiếng Tây Ban Nha, Trung Quốc, Nhật Bản, Đức và Pháp. Yi-Large cũng thân thiện với nhà phát triển, sử dụng cùng cấu trúc API như OpenAI để dễ dàng tích hợp.",
218
+ "ai21-jamba-1.5-large.description": "Mô hình đa ngôn ngữ với 398 tỷ tham số (94 tỷ đang hoạt động), hỗ trợ cửa sổ ngữ cảnh 256K, gọi hàm, đầu ra có cấu trúc và sinh văn bản có căn cứ.",
219
+ "ai21-jamba-1.5-mini.description": "Mô hình đa ngôn ngữ với 52 tỷ tham số (12 tỷ đang hoạt động), hỗ trợ cửa sổ ngữ cảnh 256K, gọi hàm, đầu ra có cấu trúc và sinh văn bản có căn cứ.",
220
+ "ai21-labs/AI21-Jamba-1.5-Large.description": "Mô hình đa ngôn ngữ với 398 tỷ tham số (94 tỷ đang hoạt động), hỗ trợ cửa sổ ngữ cảnh 256K, gọi hàm, đầu ra có cấu trúc và sinh văn bản có căn cứ.",
221
+ "ai21-labs/AI21-Jamba-1.5-Mini.description": "Mô hình đa ngôn ngữ với 52 tỷ tham số (12 tỷ đang hoạt động), hỗ trợ cửa sổ ngữ cảnh 256K, gọi hàm, đầu ra có cấu trúc và sinh văn bản có căn cứ.",
222
+ "alibaba/qwen-3-14b.description": "Qwen3 là thế hệ mới nhất trong dòng Qwen, cung cấp bộ mô hình dày đặc và MoE toàn diện. Được huấn luyện trên dữ liệu lớn, nó mang lại đột phá trong suy luận, tuân theo hướng dẫn, khả năng tác tử và hỗ trợ đa ngôn ngữ.",
223
+ "alibaba/qwen-3-235b.description": "Qwen3 là thế hệ mới nhất trong dòng Qwen, cung cấp bộ mô hình dày đặc và MoE toàn diện. Được huấn luyện trên dữ liệu lớn, nó mang lại đột phá trong suy luận, tuân theo hướng dẫn, khả năng tác tử và hỗ trợ đa ngôn ngữ.",
224
+ "alibaba/qwen-3-30b.description": "Qwen3 là thế hệ mới nhất trong dòng Qwen, cung cấp bộ mô hình dày đặc và MoE toàn diện. Được huấn luyện trên dữ liệu lớn, nó mang lại đột phá trong suy luận, tuân theo hướng dẫn, khả năng tác tử và hỗ trợ đa ngôn ngữ.",
225
+ "alibaba/qwen-3-32b.description": "Qwen3 là thế hệ mới nhất trong dòng Qwen, cung cấp bộ mô hình dày đặc và MoE toàn diện. Được huấn luyện trên dữ liệu lớn, nó mang lại đột phá trong suy luận, tuân theo hướng dẫn, khả năng tác tử và hỗ trợ đa ngôn ngữ.",
226
+ "alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct là mô hình mã hóa có khả năng tác tử cao nhất của Qwen, thể hiện hiệu suất vượt trội trong lập trình tác tử, sử dụng trình duyệt và các tác vụ mã hóa cốt lõi khác, đạt kết quả tương đương với Claude Sonnet.",
227
+ "amazon/nova-lite.description": "Mô hình đa phương tiện chi phí cực thấp với khả năng xử lý cực nhanh các đầu vào hình ảnh, video và văn bản.",
228
+ "amazon/nova-micro.description": "Mô hình chỉ xử lý văn bản với độ trễ cực thấp và chi phí rất thấp.",
229
+ "amazon/nova-pro.description": "Mô hình đa phương tiện mạnh mẽ với sự cân bằng tối ưu giữa độ chính xác, tốc độ và chi phí cho nhiều tác vụ khác nhau.",
230
+ "amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 là mô hình nhúng đa ngôn ngữ nhẹ, hiệu quả, hỗ trợ các kích thước 1024, 512 và 256.",
231
+ "anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet nâng tầm tiêu chuẩn ngành, vượt trội so với các đối thủ và Claude 3 Opus trong nhiều đánh giá, đồng thời duy trì tốc độ và chi phí ở mức trung bình.",
232
+ "anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet nâng tầm tiêu chuẩn ngành, vượt trội so với các đối thủ và Claude 3 Opus trong nhiều đánh giá, đồng thời duy trì tốc độ và chi phí ở mức trung bình.",
233
+ "anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, cung cấp phản hồi gần như tức thì cho các truy vấn đơn giản. Nó mang lại trải nghiệm AI mượt mà, giống con người và hỗ trợ đầu vào hình ảnh với cửa sổ ngữ cảnh 200K.",
234
+ "anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus là mô hình AI mạnh mẽ nhất của Anthropic với hiệu suất hàng đầu trong các tác vụ phức tạp. Nó xử lý các yêu cầu mở và tình huống mới với độ trôi chảy và hiểu biết giống con người, đồng thời hỗ trợ đầu vào hình ảnh với cửa sổ ngữ cảnh 200K.",
235
+ "anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn. Nó được thiết kế như một công cụ đáng tin cậy cho triển khai AI quy mô lớn và hỗ trợ đầu vào hình ảnh với cửa sổ ngữ cảnh 200K.",
236
+ "anthropic.claude-instant-v1.description": "Mô hình nhanh, tiết kiệm nhưng vẫn mạnh mẽ cho trò chuyện hàng ngày, phân tích văn bản, tóm tắt và hỏi đáp tài liệu.",
237
+ "anthropic.claude-v2.description": "Mô hình có khả năng cao trong các tác vụ từ đối thoại phức tạp và sáng tạo đến tuân theo hướng dẫn chi tiết.",
238
+ "anthropic.claude-v2:1.description": "Claude 2 được cập nhật với cửa sổ ngữ cảnh gấp đôi và cải thiện độ tin cậy, giảm ảo giác và tăng độ chính xác dựa trên bằng chứng cho tài liệu dài và RAG.",
239
+ "anthropic/claude-3-haiku.description": "Claude 3 Haiku là mô hình nhanh nhất của Anthropic, được thiết kế cho khối lượng công việc doanh nghiệp với các yêu cầu dài. Nó có thể nhanh chóng phân tích các tài liệu lớn như báo cáo quý, hợp đồng hoặc vụ kiện với chi phí bằng một nửa so với các đối thủ.",
240
+ "anthropic/claude-3-opus.description": "Claude 3 Opus là mô hình thông minh nhất của Anthropic với hiệu suất hàng đầu trong các tác vụ phức tạp, xử lý các yêu cầu mở và tình huống mới với độ trôi chảy và hiểu biết giống con người.",
241
+ "anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku có tốc độ, độ chính xác mã hóa và khả năng sử dụng công cụ được nâng cao, phù hợp với các tình huống yêu cầu cao về tốc độ và tương tác công cụ.",
242
+ "anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet là mô hình nhanh và hiệu quả trong dòng Sonnet, cung cấp hiệu suất mã hóa và suy luận tốt hơn, với một số phiên bản dần được thay thế bởi Sonnet 3.7 trở đi.",
243
+ "anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet là phiên bản nâng cấp của dòng Sonnet với khả năng suy luận và mã hóa mạnh mẽ hơn, phù hợp cho các tác vụ phức tạp cấp doanh nghiệp.",
244
+ "anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 là mô hình nhanh hiệu suất cao của Anthropic, mang lại độ trễ rất thấp trong khi vẫn duy trì độ chính xác cao.",
245
+ "anthropic/claude-opus-4.1.description": "Opus 4.1 là mô hình cao cấp của Anthropic được tối ưu hóa cho lập trình, suy luận phức tạp và các tác vụ kéo dài.",
246
+ "anthropic/claude-opus-4.5.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ đỉnh cao với hiệu suất có thể mở rộng cho các tác vụ suy luận phức tạp và chất lượng cao.",
247
+ "anthropic/claude-opus-4.description": "Opus 4 là mô hình hàng đầu của Anthropic được thiết kế cho các tác vụ phức tạp và ứng dụng doanh nghiệp.",
248
+ "anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 là mô hình suy luận lai mới nhất của Anthropic, được tối ưu hóa cho suy luận phức tạp và mã hóa.",
249
+ "anthropic/claude-sonnet-4.description": "Claude Sonnet 4 là mô hình suy luận lai của Anthropic với khả năng tư duy và không tư duy kết hợp.",
196
250
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 là một mô hình ngôn ngữ mở dành cho nhà phát triển, nhà nghiên cứu và doanh nghiệp, được thiết kế để hỗ trợ xây dựng, thử nghiệm và mở rộng các ý tưởng AI sinh ngữ một cách có trách nhiệm. Là một phần trong nền tảng đổi mới cộng đồng toàn cầu, mô hình này phù hợp với môi trường có tài nguyên hạn chế, thiết bị biên và yêu cầu thời gian huấn luyện nhanh hơn.",
197
251
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Khả năng suy luận hình ảnh mạnh mẽ trên ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu thị giác.",
198
252
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng tác tử hiểu thị giác.",