@lobehub/lobehub 2.0.0-next.187 → 2.0.0-next.189

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (177) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/e2e/CLAUDE.md +109 -2
  4. package/e2e/docs/llm-mock.md +68 -0
  5. package/e2e/docs/local-setup.md +354 -0
  6. package/e2e/docs/testing-tips.md +94 -0
  7. package/e2e/src/features/journeys/agent/agent-conversation.feature +0 -32
  8. package/e2e/src/mocks/llm/index.ts +6 -6
  9. package/e2e/src/steps/agent/conversation.steps.ts +3 -471
  10. package/locales/ar/models.json +89 -5
  11. package/locales/ar/plugin.json +5 -0
  12. package/locales/ar/providers.json +1 -0
  13. package/locales/bg-BG/models.json +68 -0
  14. package/locales/bg-BG/plugin.json +5 -0
  15. package/locales/bg-BG/providers.json +1 -0
  16. package/locales/de-DE/models.json +85 -0
  17. package/locales/de-DE/plugin.json +5 -0
  18. package/locales/de-DE/providers.json +1 -0
  19. package/locales/en-US/models.json +11 -10
  20. package/locales/en-US/plugin.json +5 -0
  21. package/locales/en-US/providers.json +1 -0
  22. package/locales/es-ES/models.json +72 -0
  23. package/locales/es-ES/plugin.json +5 -0
  24. package/locales/es-ES/providers.json +1 -0
  25. package/locales/fa-IR/models.json +86 -0
  26. package/locales/fa-IR/plugin.json +5 -0
  27. package/locales/fa-IR/providers.json +1 -0
  28. package/locales/fr-FR/models.json +49 -0
  29. package/locales/fr-FR/plugin.json +5 -0
  30. package/locales/fr-FR/providers.json +1 -0
  31. package/locales/it-IT/models.json +82 -0
  32. package/locales/it-IT/plugin.json +5 -0
  33. package/locales/it-IT/providers.json +1 -0
  34. package/locales/ja-JP/models.json +42 -5
  35. package/locales/ja-JP/plugin.json +5 -0
  36. package/locales/ja-JP/providers.json +1 -0
  37. package/locales/ko-KR/models.json +54 -0
  38. package/locales/ko-KR/plugin.json +5 -0
  39. package/locales/ko-KR/providers.json +1 -0
  40. package/locales/nl-NL/models.json +12 -1
  41. package/locales/nl-NL/plugin.json +5 -0
  42. package/locales/nl-NL/providers.json +1 -0
  43. package/locales/pl-PL/models.json +46 -0
  44. package/locales/pl-PL/plugin.json +5 -0
  45. package/locales/pl-PL/providers.json +1 -0
  46. package/locales/pt-BR/models.json +59 -0
  47. package/locales/pt-BR/plugin.json +5 -0
  48. package/locales/pt-BR/providers.json +1 -0
  49. package/locales/ru-RU/models.json +85 -0
  50. package/locales/ru-RU/plugin.json +5 -0
  51. package/locales/ru-RU/providers.json +1 -0
  52. package/locales/tr-TR/models.json +81 -0
  53. package/locales/tr-TR/plugin.json +5 -0
  54. package/locales/tr-TR/providers.json +1 -0
  55. package/locales/vi-VN/models.json +54 -0
  56. package/locales/vi-VN/plugin.json +5 -0
  57. package/locales/vi-VN/providers.json +1 -0
  58. package/locales/zh-CN/models.json +42 -5
  59. package/locales/zh-CN/plugin.json +5 -0
  60. package/locales/zh-CN/providers.json +1 -0
  61. package/locales/zh-TW/models.json +85 -0
  62. package/locales/zh-TW/plugin.json +5 -0
  63. package/locales/zh-TW/providers.json +1 -0
  64. package/package.json +2 -2
  65. package/packages/builtin-tool-gtd/src/manifest.ts +13 -8
  66. package/packages/builtin-tool-gtd/src/systemRole.ts +54 -19
  67. package/packages/builtin-tool-knowledge-base/package.json +1 -0
  68. package/packages/builtin-tool-knowledge-base/src/client/Inspector/ReadKnowledge/index.tsx +97 -0
  69. package/packages/builtin-tool-knowledge-base/src/client/Inspector/SearchKnowledgeBase/index.tsx +75 -0
  70. package/packages/builtin-tool-knowledge-base/src/client/Inspector/index.ts +11 -0
  71. package/packages/builtin-tool-knowledge-base/src/client/Render/ReadKnowledge/FileCard.tsx +12 -12
  72. package/packages/builtin-tool-knowledge-base/src/client/Render/ReadKnowledge/index.tsx +16 -25
  73. package/packages/builtin-tool-knowledge-base/src/client/Render/SearchKnowledgeBase/Item/index.tsx +21 -47
  74. package/packages/builtin-tool-knowledge-base/src/client/Render/SearchKnowledgeBase/index.tsx +19 -31
  75. package/packages/builtin-tool-knowledge-base/src/client/Render/index.ts +0 -5
  76. package/packages/builtin-tool-knowledge-base/src/client/index.ts +5 -1
  77. package/packages/builtin-tool-knowledge-base/src/executor/index.ts +119 -0
  78. package/packages/builtin-tool-local-system/package.json +1 -0
  79. package/packages/builtin-tool-local-system/src/client/Inspector/EditLocalFile/index.tsx +44 -29
  80. package/packages/builtin-tool-local-system/src/client/Inspector/GrepContent/index.tsx +20 -18
  81. package/packages/builtin-tool-local-system/src/client/Inspector/ListLocalFiles/index.tsx +76 -0
  82. package/packages/builtin-tool-local-system/src/client/Inspector/ReadLocalFile/index.tsx +8 -32
  83. package/packages/builtin-tool-local-system/src/client/Inspector/RenameLocalFile/index.tsx +62 -0
  84. package/packages/builtin-tool-local-system/src/client/Inspector/SearchLocalFiles/index.tsx +17 -11
  85. package/packages/builtin-tool-local-system/src/client/Inspector/WriteLocalFile/index.tsx +61 -0
  86. package/packages/builtin-tool-local-system/src/client/Inspector/index.ts +6 -0
  87. package/packages/builtin-tool-local-system/src/client/Render/EditLocalFile/index.tsx +6 -1
  88. package/packages/builtin-tool-local-system/src/client/Render/SearchFiles/SearchQuery/SearchView.tsx +19 -31
  89. package/packages/builtin-tool-local-system/src/client/Render/SearchFiles/SearchQuery/index.tsx +2 -42
  90. package/packages/builtin-tool-local-system/src/client/Render/index.ts +0 -2
  91. package/packages/builtin-tool-local-system/src/client/components/FilePathDisplay.tsx +56 -0
  92. package/packages/builtin-tool-local-system/src/client/components/index.ts +2 -0
  93. package/packages/builtin-tool-local-system/src/executor/index.ts +435 -0
  94. package/packages/builtin-tool-web-browsing/src/client/Inspector/Search/index.tsx +32 -5
  95. package/packages/model-runtime/src/core/contextBuilders/google.test.ts +84 -0
  96. package/packages/model-runtime/src/core/contextBuilders/google.ts +37 -1
  97. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/Actions.tsx +4 -13
  98. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/index.tsx +23 -29
  99. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/List/Item/useDropdownMenu.tsx +3 -3
  100. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Actions.tsx +4 -13
  101. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/index.tsx +10 -18
  102. package/src/app/[variants]/(main)/chat/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/useDropdownMenu.tsx +3 -3
  103. package/src/app/[variants]/(main)/community/(detail)/assistant/features/Sidebar/ActionButton/AddAgent.tsx +47 -27
  104. package/src/app/[variants]/(main)/community/(detail)/user/features/UserAgentCard.tsx +4 -3
  105. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/Actions.tsx +4 -13
  106. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/index.tsx +23 -29
  107. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/List/Item/useDropdownMenu.tsx +3 -3
  108. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Actions.tsx +4 -13
  109. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/index.tsx +10 -18
  110. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/useDropdownMenu.tsx +3 -3
  111. package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/TopicSelector.tsx +18 -20
  112. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/index.tsx +19 -25
  113. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentItem/index.tsx +21 -26
  114. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/Item/Actions.tsx +4 -13
  115. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/Item/useDropdownMenu.tsx +3 -3
  116. package/src/app/[variants]/(main)/home/_layout/Body/Project/List/Actions.tsx +4 -13
  117. package/src/app/[variants]/(main)/home/_layout/Body/Project/List/Item.tsx +8 -15
  118. package/src/app/[variants]/(main)/home/_layout/Body/Project/List/useDropdownMenu.tsx +3 -3
  119. package/src/app/[variants]/(main)/home/_layout/Header/components/AddButton.tsx +3 -4
  120. package/src/app/[variants]/(main)/page/_layout/Body/List/Item/Actions.tsx +4 -13
  121. package/src/app/[variants]/(main)/page/_layout/Body/List/Item/index.tsx +13 -20
  122. package/src/app/[variants]/(main)/page/_layout/Body/List/Item/useDropdownMenu.tsx +3 -3
  123. package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/Actions.tsx +4 -13
  124. package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/index.tsx +16 -23
  125. package/src/app/[variants]/(main)/resource/(home)/_layout/Body/LibraryList/List/Item/useDropdownMenu.tsx +3 -3
  126. package/src/app/[variants]/(main)/resource/library/_layout/Header/LibraryHead.tsx +4 -6
  127. package/src/features/AgentBuilder/TopicSelector.tsx +18 -17
  128. package/src/features/Conversation/ChatItem/style.ts +7 -0
  129. package/src/features/Conversation/Messages/Assistant/Actions/Error.tsx +1 -3
  130. package/src/features/Conversation/Messages/Assistant/Actions/index.tsx +37 -16
  131. package/src/features/Conversation/Messages/AssistantGroup/Actions/index.tsx +36 -17
  132. package/src/features/Conversation/Messages/Supervisor/Actions/index.tsx +36 -17
  133. package/src/features/Conversation/Messages/Task/Actions/Error.tsx +1 -3
  134. package/src/features/Conversation/Messages/Task/Actions/index.tsx +31 -15
  135. package/src/features/Conversation/Messages/User/Actions/index.tsx +1 -1
  136. package/src/features/Conversation/Messages/index.tsx +8 -59
  137. package/src/features/Conversation/components/ShareMessageModal/index.tsx +1 -1
  138. package/src/features/Conversation/hooks/useChatItemContextMenu.tsx +313 -83
  139. package/src/features/NavPanel/components/NavItem.tsx +33 -3
  140. package/src/features/PageEditor/Copilot/TopicSelector/Actions.tsx +6 -14
  141. package/src/features/PageEditor/Copilot/TopicSelector/TopicItem.tsx +1 -0
  142. package/src/features/PageEditor/Copilot/TopicSelector/useDropdownMenu.tsx +6 -3
  143. package/src/features/ResourceManager/components/Explorer/ItemDropdown/DropdownMenu.tsx +12 -35
  144. package/src/features/ResourceManager/components/Explorer/ItemDropdown/useFileItemDropdown.tsx +4 -8
  145. package/src/features/ResourceManager/components/Explorer/ListView/ListItem/index.tsx +162 -160
  146. package/src/features/ResourceManager/components/Explorer/MasonryView/MasonryFileItem/index.tsx +16 -8
  147. package/src/features/ResourceManager/components/Explorer/ToolBar/ActionIconWithChevron.tsx +4 -3
  148. package/src/features/ResourceManager/components/Explorer/ToolBar/BatchActionsDropdown.tsx +6 -12
  149. package/src/features/ResourceManager/components/Explorer/ToolBar/SortDropdown.tsx +8 -8
  150. package/src/features/ResourceManager/components/Explorer/ToolBar/ViewSwitcher.tsx +8 -11
  151. package/src/features/ResourceManager/components/Tree/index.tsx +121 -122
  152. package/src/helpers/toolEngineering/index.ts +1 -1
  153. package/src/layout/GlobalProvider/index.tsx +5 -2
  154. package/src/locales/default/plugin.ts +6 -0
  155. package/src/server/modules/Mecha/AgentToolsEngine/__tests__/index.test.ts +1 -1
  156. package/src/server/modules/Mecha/AgentToolsEngine/index.ts +1 -1
  157. package/src/store/chat/slices/builtinTool/actions/index.ts +1 -11
  158. package/src/store/tool/slices/builtin/executors/index.ts +4 -0
  159. package/src/styles/global.ts +6 -0
  160. package/src/styles/text.ts +1 -1
  161. package/src/tools/executionRuntimes.ts +3 -8
  162. package/src/tools/identifiers.ts +1 -1
  163. package/src/tools/index.ts +1 -1
  164. package/src/tools/inspectors.ts +5 -0
  165. package/src/tools/renders.ts +6 -12
  166. package/packages/builtin-tool-local-system/src/client/Render/RenameLocalFile/index.tsx +0 -37
  167. package/src/features/Conversation/components/ContextMenu.tsx +0 -418
  168. package/src/store/chat/slices/builtinTool/actions/__tests__/localSystem.test.ts +0 -201
  169. package/src/store/chat/slices/builtinTool/actions/knowledgeBase.ts +0 -163
  170. package/src/store/chat/slices/builtinTool/actions/localSystem.ts +0 -241
  171. package/src/tools/knowledge-base/ExecutionRuntime/index.ts +0 -25
  172. package/src/tools/knowledge-base/Render/ReadKnowledge/index.tsx +0 -29
  173. package/src/tools/knowledge-base/Render/SearchKnowledgeBase/index.tsx +0 -29
  174. package/src/tools/knowledge-base/Render/index.ts +0 -7
  175. package/src/tools/knowledge-base/index.ts +0 -12
  176. package/src/tools/local-system/ExecutionRuntime/index.ts +0 -9
  177. package/src/tools/local-system/systemRole.ts +0 -1
@@ -268,20 +268,20 @@
268
268
  "chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
269
269
  "claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
270
270
  "claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
271
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
272
272
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
273
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic’s most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
273
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropic’s most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.",
274
274
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
275
275
  "claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
276
276
  "claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
277
277
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
278
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
279
279
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
280
280
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
281
- "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
281
+ "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
282
282
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
283
283
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
284
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic’s most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
285
285
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
286
286
  "codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
287
287
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
@@ -352,7 +352,7 @@
352
352
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
353
353
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
354
354
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
355
- "deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
355
+ "deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
356
356
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
357
357
  "deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
358
358
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@@ -375,7 +375,7 @@
375
375
  "deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
376
376
  "deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
377
377
  "deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
378
- "deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
378
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
379
379
  "deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
380
380
  "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
381
381
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@@ -466,7 +466,7 @@
466
466
  "ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
467
467
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
468
468
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
469
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
469
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
470
470
  "fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
471
471
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
472
472
  "fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@@ -474,8 +474,8 @@
474
474
  "fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
475
475
  "fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
476
476
  "fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
477
- "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
478
- "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
477
+ "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
478
+ "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
479
479
  "flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
480
480
  "flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
481
481
  "flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
@@ -521,6 +521,7 @@
521
521
  "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
522
522
  "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
523
523
  "gemini-2.5-pro.description": "Gemini 2.5 Pro is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
524
+ "gemini-3-flash-preview.description": "Gemini 3 Flash Preview is Google’s latest best-value model, improving on Gemini 2.5 Flash.",
524
525
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.",
525
526
  "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google’s image generation model and also supports multimodal chat.",
526
527
  "gemini-3-pro-preview.description": "Gemini 3 Pro is Google’s most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
@@ -73,6 +73,8 @@
73
73
  "builtins.lobe-gtd.title": "Task Tools",
74
74
  "builtins.lobe-knowledge-base.apiName.readKnowledge": "Read Library content",
75
75
  "builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Search Library",
76
+ "builtins.lobe-knowledge-base.inspector.andMoreFiles": "and {{count}} more",
77
+ "builtins.lobe-knowledge-base.inspector.noResults": "No results",
76
78
  "builtins.lobe-knowledge-base.title": "Library",
77
79
  "builtins.lobe-local-system.apiName.editLocalFile": "Edit file",
78
80
  "builtins.lobe-local-system.apiName.getCommandOutput": "Get command output",
@@ -86,6 +88,8 @@
86
88
  "builtins.lobe-local-system.apiName.runCommand": "Run command",
87
89
  "builtins.lobe-local-system.apiName.searchLocalFiles": "Search files",
88
90
  "builtins.lobe-local-system.apiName.writeLocalFile": "Write file",
91
+ "builtins.lobe-local-system.inspector.noResults": "No results",
92
+ "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
89
93
  "builtins.lobe-local-system.title": "Local System",
90
94
  "builtins.lobe-page-agent.apiName.batchUpdate": "Batch update nodes",
91
95
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Compare snapshots",
@@ -143,6 +147,7 @@
143
147
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "Read multiple pages",
144
148
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "Read page content",
145
149
  "builtins.lobe-web-browsing.apiName.search": "Search pages",
150
+ "builtins.lobe-web-browsing.inspector.noResults": "No results",
146
151
  "builtins.lobe-web-browsing.title": "Web Search",
147
152
  "confirm": "Confirm",
148
153
  "debug.arguments": "Arguments",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
30
30
  "jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
31
31
  "lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
32
+ "lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
32
33
  "minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
33
34
  "mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
34
35
  "modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
@@ -223,6 +223,78 @@
223
223
  "alibaba/qwen-3-235b.description": "Qwen3 es la última generación de la serie Qwen, que ofrece un conjunto completo de modelos densos y MoE. Basado en un entrenamiento exhaustivo, aporta avances en razonamiento, seguimiento de instrucciones, capacidades de agente y soporte multilingüe.",
224
224
  "alibaba/qwen-3-30b.description": "Qwen3 es la última generación de la serie Qwen, que ofrece un conjunto completo de modelos densos y MoE. Basado en un entrenamiento exhaustivo, aporta avances en razonamiento, seguimiento de instrucciones, capacidades de agente y soporte multilingüe.",
225
225
  "alibaba/qwen-3-32b.description": "Qwen3 es la última generación de la serie Qwen, que ofrece un conjunto completo de modelos densos y MoE. Basado en un entrenamiento exhaustivo, aporta avances en razonamiento, seguimiento de instrucciones, capacidades de agente y soporte multilingüe.",
226
+ "alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct es el modelo de código más agente de Qwen, con un rendimiento destacado en codificación autónoma, uso de navegador por agentes y otras tareas clave de programación, alcanzando resultados comparables al nivel de Claude Sonnet.",
227
+ "amazon/nova-lite.description": "Un modelo multimodal de muy bajo costo con procesamiento extremadamente rápido de entradas de imagen, video y texto.",
228
+ "amazon/nova-micro.description": "Un modelo solo de texto que ofrece una latencia ultra baja a un costo muy reducido.",
229
+ "amazon/nova-pro.description": "Un modelo multimodal altamente capaz con el mejor equilibrio entre precisión, velocidad y costo para una amplia gama de tareas.",
230
+ "amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 es un modelo de incrustación multilingüe ligero y eficiente que admite dimensiones de 1024, 512 y 256.",
231
+ "anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a sus competidores y a Claude 3 Opus en evaluaciones amplias, manteniendo velocidad y costo de nivel medio.",
232
+ "anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a sus competidores y a Claude 3 Opus en evaluaciones amplias, manteniendo velocidad y costo de nivel medio.",
233
+ "anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, que ofrece respuestas casi instantáneas para consultas simples. Permite experiencias de IA fluidas y naturales, y admite entrada de imágenes con una ventana de contexto de 200K.",
234
+ "anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus es el modelo de IA más potente de Anthropic, con un rendimiento de vanguardia en tareas altamente complejas. Maneja indicaciones abiertas y escenarios novedosos con fluidez excepcional y comprensión similar a la humana, y admite entrada de imágenes con una ventana de contexto de 200K.",
235
+ "anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo un alto valor a menor costo. Está diseñado como un modelo confiable para implementaciones de IA a gran escala y admite entrada de imágenes con una ventana de contexto de 200K.",
236
+ "anthropic.claude-instant-v1.description": "Un modelo rápido, económico y capaz para chat diario, análisis de texto, resúmenes y preguntas sobre documentos.",
237
+ "anthropic.claude-v2.description": "Un modelo altamente competente en tareas que van desde diálogos complejos y generación creativa hasta el seguimiento detallado de instrucciones.",
238
+ "anthropic.claude-v2:1.description": "Una versión actualizada de Claude 2 con el doble de ventana de contexto y mejoras en fiabilidad, reducción de alucinaciones y precisión basada en evidencia para documentos largos y RAG.",
239
+ "anthropic/claude-3-haiku.description": "Claude 3 Haiku es el modelo más rápido de Anthropic, diseñado para cargas de trabajo empresariales con indicaciones extensas. Puede analizar rápidamente documentos grandes como informes trimestrales, contratos o casos legales a la mitad del costo de sus pares.",
240
+ "anthropic/claude-3-opus.description": "Claude 3 Opus es el modelo más inteligente de Anthropic, con un rendimiento líder en el mercado en tareas altamente complejas, manejando indicaciones abiertas y escenarios novedosos con fluidez excepcional y comprensión similar a la humana.",
241
+ "anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku ofrece mayor velocidad, precisión en programación y uso de herramientas, adecuado para escenarios con altos requerimientos de velocidad e interacción con herramientas.",
242
+ "anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet es el modelo rápido y eficiente de la familia Sonnet, con mejor rendimiento en programación y razonamiento, con algunas versiones reemplazadas gradualmente por Sonnet 3.7 y posteriores.",
243
+ "anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet es una versión mejorada del modelo Sonnet con mayor capacidad de razonamiento y programación, adecuado para tareas empresariales complejas.",
244
+ "anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 es el modelo rápido de alto rendimiento de Anthropic, con latencia muy baja y alta precisión.",
245
+ "anthropic/claude-opus-4.1.description": "Opus 4.1 es el modelo de gama alta de Anthropic, optimizado para programación, razonamiento complejo y tareas de larga duración.",
246
+ "anthropic/claude-opus-4.5.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, que combina inteligencia de primer nivel con rendimiento escalable para tareas complejas de razonamiento de alta calidad.",
247
+ "anthropic/claude-opus-4.description": "Opus 4 es el modelo insignia de Anthropic, diseñado para tareas complejas y aplicaciones empresariales.",
248
+ "anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 es el último modelo híbrido de razonamiento de Anthropic, optimizado para razonamiento complejo y programación.",
249
+ "anthropic/claude-sonnet-4.description": "Claude Sonnet 4 es el modelo híbrido de razonamiento de Anthropic con capacidad de pensamiento mixto y no pensante.",
250
+ "ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B es un LLM disperso con 72B parámetros totales y 16B activos, basado en una arquitectura MoE agrupada (MoGE). Agrupa expertos durante la selección y restringe los tokens para activar expertos iguales por grupo, equilibrando la carga y mejorando la eficiencia de implementación en Ascend.",
251
+ "aya.description": "Aya 23 es el modelo multilingüe de Cohere que admite 23 idiomas para diversos casos de uso.",
252
+ "aya:35b.description": "Aya 23 es el modelo multilingüe de Cohere que admite 23 idiomas para diversos casos de uso.",
253
+ "azure-DeepSeek-R1-0528.description": "Desplegado por Microsoft; DeepSeek R1 ha sido actualizado a DeepSeek-R1-0528. La actualización mejora el cómputo y las optimizaciones del algoritmo de postentrenamiento, mejorando significativamente la profundidad de razonamiento y la inferencia. Tiene un rendimiento destacado en matemáticas, programación y lógica general, acercándose a modelos líderes como O3 y Gemini 2.5 Pro.",
254
+ "baichuan-m2-32b.description": "Baichuan M2 32B es un modelo MoE de Baichuan Intelligence con gran capacidad de razonamiento.",
255
+ "baichuan/baichuan2-13b-chat.description": "Baichuan-13B es un modelo LLM de código abierto y uso comercial con 13 mil millones de parámetros de Baichuan, que logra resultados líderes en su clase en pruebas de referencia autorizadas en chino e inglés.",
256
+ "baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B es un modelo LLM MoE de Baidu con 300 mil millones de parámetros totales y 47 mil millones activos por token, equilibrando un alto rendimiento con eficiencia computacional. Como modelo central de ERNIE 4.5, destaca en comprensión, generación, razonamiento y programación. Utiliza un método de preentrenamiento multimodal heterogéneo MoE con entrenamiento conjunto texto-visión para mejorar su capacidad general, especialmente en seguimiento de instrucciones y conocimiento del mundo.",
257
+ "baidu/ernie-5.0-thinking-preview.description": "Vista previa de ERNIE 5.0 Thinking, el modelo ERNIE multimodal nativo de próxima generación de Baidu, con gran capacidad en comprensión multimodal, seguimiento de instrucciones, creación, preguntas y respuestas basadas en hechos y uso de herramientas.",
258
+ "black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro es una versión más rápida y mejorada de FLUX Pro, con excelente calidad de imagen y fidelidad a las instrucciones.",
259
+ "black-forest-labs/flux-dev.description": "FLUX Dev es la versión de desarrollo de FLUX para uso no comercial.",
260
+ "black-forest-labs/flux-pro.description": "FLUX Pro es el modelo profesional de FLUX para generación de imágenes de alta calidad.",
261
+ "black-forest-labs/flux-schnell.description": "FLUX Schnell es un modelo de generación de imágenes optimizado para velocidad.",
262
+ "c4ai-aya-expanse-32b.description": "Aya Expanse es un modelo multilingüe de alto rendimiento con 32 mil millones de parámetros que utiliza ajuste por instrucciones, arbitraje de datos, entrenamiento por preferencias y fusión de modelos para competir con modelos monolingües. Soporta 23 idiomas.",
263
+ "c4ai-aya-expanse-8b.description": "Aya Expanse es un modelo multilingüe de alto rendimiento con 8 mil millones de parámetros que utiliza ajuste por instrucciones, arbitraje de datos, entrenamiento por preferencias y fusión de modelos para competir con modelos monolingües. Soporta 23 idiomas.",
264
+ "c4ai-aya-vision-32b.description": "Aya Vision es un modelo multimodal de última generación con excelente rendimiento en pruebas clave de lenguaje, texto y visión. Soporta 23 idiomas. Esta versión de 32 mil millones se enfoca en un rendimiento multilingüe de primer nivel.",
265
+ "c4ai-aya-vision-8b.description": "Aya Vision es un modelo multimodal de última generación con excelente rendimiento en pruebas clave de lenguaje, texto y visión. Esta versión de 8 mil millones se enfoca en baja latencia y alto rendimiento.",
266
+ "charglm-3.description": "CharGLM-3 está diseñado para juegos de rol y compañía emocional, con soporte para memoria de múltiples turnos ultra larga y diálogo personalizado.",
267
+ "charglm-4.description": "CharGLM-4 está diseñado para juegos de rol y compañía emocional, con soporte para memoria de múltiples turnos ultra larga y diálogo personalizado.",
268
+ "chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
269
+ "claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
270
+ "claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
271
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior buque insignia Claude 3 Opus en muchas pruebas.",
272
+ "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
273
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, con soporte para respuestas casi instantáneas o pensamiento extendido con control detallado.",
274
+ "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
275
+ "claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
276
+ "claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
277
+ "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
278
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y pensamiento extendido.",
279
+ "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
280
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
281
+ "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
282
+ "claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
283
+ "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
284
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o pensamiento paso a paso extendido con control detallado para usuarios de API.",
285
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
286
+ "codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
287
+ "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
288
+ "codegemma.description": "CodeGemma es un modelo ligero para tareas de programación variadas, que permite iteración rápida e integración sencilla.",
289
+ "codegemma:2b.description": "CodeGemma es un modelo ligero para tareas de programación variadas, que permite iteración rápida e integración sencilla.",
290
+ "codellama.description": "Code Llama es un modelo LLM enfocado en generación y discusión de código, con amplio soporte de lenguajes para flujos de trabajo de desarrollo.",
291
+ "codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama es un modelo LLM enfocado en generación y discusión de código, con amplio soporte de lenguajes para flujos de trabajo de desarrollo.",
292
+ "codellama:13b.description": "Code Llama es un modelo LLM enfocado en generación y discusión de código, con amplio soporte de lenguajes para flujos de trabajo de desarrollo.",
293
+ "codellama:34b.description": "Code Llama es un modelo LLM enfocado en generación y discusión de código, con amplio soporte de lenguajes para flujos de trabajo de desarrollo.",
294
+ "codellama:70b.description": "Code Llama es un modelo LLM enfocado en generación y discusión de código, con amplio soporte de lenguajes para flujos de trabajo de desarrollo.",
295
+ "codeqwen.description": "CodeQwen1.5 es un modelo de lenguaje grande entrenado con datos extensos de código, diseñado para tareas de programación complejas.",
296
+ "codestral-latest.description": "Codestral es nuestro modelo de codificación más avanzado; la versión v2 (enero 2025) está orientada a tareas de baja latencia y alta frecuencia como FIM, corrección de código y generación de pruebas.",
297
+ "codestral.description": "Codestral es el primer modelo de código de Mistral AI, ofreciendo un sólido soporte para generación de código.",
226
298
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
227
299
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
228
300
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
@@ -73,6 +73,8 @@
73
73
  "builtins.lobe-gtd.title": "Herramientas de Tareas",
74
74
  "builtins.lobe-knowledge-base.apiName.readKnowledge": "Leer contenido de la biblioteca",
75
75
  "builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Buscar en la biblioteca",
76
+ "builtins.lobe-knowledge-base.inspector.andMoreFiles": "y {{count}} más",
77
+ "builtins.lobe-knowledge-base.inspector.noResults": "Sin resultados",
76
78
  "builtins.lobe-knowledge-base.title": "Biblioteca",
77
79
  "builtins.lobe-local-system.apiName.editLocalFile": "Editar archivo",
78
80
  "builtins.lobe-local-system.apiName.getCommandOutput": "Obtener salida del comando",
@@ -86,6 +88,8 @@
86
88
  "builtins.lobe-local-system.apiName.runCommand": "Ejecutar comando",
87
89
  "builtins.lobe-local-system.apiName.searchLocalFiles": "Buscar archivos",
88
90
  "builtins.lobe-local-system.apiName.writeLocalFile": "Escribir archivo",
91
+ "builtins.lobe-local-system.inspector.noResults": "Sin resultados",
92
+ "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
89
93
  "builtins.lobe-local-system.title": "Sistema Local",
90
94
  "builtins.lobe-page-agent.apiName.batchUpdate": "Actualizar nodos en lote",
91
95
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Comparar capturas",
@@ -143,6 +147,7 @@
143
147
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "Leer múltiples páginas",
144
148
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "Leer contenido de la página",
145
149
  "builtins.lobe-web-browsing.apiName.search": "Buscar páginas",
150
+ "builtins.lobe-web-browsing.inspector.noResults": "Sin resultados",
146
151
  "builtins.lobe-web-browsing.title": "Búsqueda Web",
147
152
  "confirm": "Confirmar",
148
153
  "debug.arguments": "Argumentos",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
30
30
  "jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
31
31
  "lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
32
+ "lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
32
33
  "minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
33
34
  "mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
34
35
  "modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
@@ -210,6 +210,92 @@
210
210
  "accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct نسخه تنظیم‌شده برای دستورالعمل از Mixtral MoE 8x7B است که API تکمیل گفت‌وگو در آن فعال شده است.",
211
211
  "accounts/fireworks/models/mythomax-l2-13b.description": "نسخه بهبودیافته‌ای از MythoMix که احتمالاً شکل پالایش‌شده‌تری از آن است و با ترکیب MythoLogic-L2 و Huginn با تکنیک ادغام تنسور بسیار تجربی ساخته شده است. ماهیت منحصربه‌فرد آن را برای داستان‌سرایی و ایفای نقش عالی می‌سازد.",
212
212
  "accounts/fireworks/models/phi-3-vision-128k-instruct.description": "Phi-3-Vision-128K-Instruct یک مدل چندرسانه‌ای سبک و پیشرفته است که از داده‌های مصنوعی و مجموعه داده‌های عمومی وب انتخاب‌شده ساخته شده و بر داده‌های متنی و تصویری با کیفیت بالا و نیازمند استدلال تمرکز دارد. این مدل متعلق به خانواده Phi-3 است و نسخه چندرسانه‌ای آن از طول زمینه ۱۲۸ هزار توکن پشتیبانی می‌کند. این مدل تحت بهبودهای دقیق از جمله تنظیم نظارت‌شده و بهینه‌سازی مستقیم ترجیح قرار گرفته تا پیروی دقیق از دستورالعمل و اقدامات ایمنی قوی را تضمین کند.",
213
+ "accounts/fireworks/models/qwen-qwq-32b-preview.description": "مدل Qwen QwQ بر پیشرفت در استدلال هوش مصنوعی تمرکز دارد و نشان می‌دهد که مدل‌های باز می‌توانند در استدلال با مدل‌های پیشرفته بسته رقابت کنند. QwQ-32B-Preview یک نسخه آزمایشی است که با o1 برابری می‌کند و در استدلال و تحلیل در آزمون‌های GPQA، AIME، MATH-500 و LiveCodeBench از GPT-4o و Claude 3.5 Sonnet پیشی می‌گیرد. توجه: این مدل در حال حاضر به‌صورت آزمایشی و بدون سرور ارائه می‌شود. برای استفاده در محیط تولید، توجه داشته باشید که Fireworks ممکن است این استقرار را بدون اطلاع قبلی متوقف کند.",
214
+ "accounts/fireworks/models/qwen2-vl-72b-instruct.description": "مدل ۷۲B Qwen-VL جدیدترین نسخه از سوی علی‌بابا است که حاصل نزدیک به یک سال نوآوری می‌باشد.",
215
+ "accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 یک سری مدل زبانی بزرگ فقط رمزگشا است که توسط تیم Qwen و علی‌بابا کلاد توسعه یافته و در اندازه‌های 0.5B، 1.5B، 3B، 7B، 14B، 32B و 72B با نسخه‌های پایه و تنظیم‌شده برای دستورالعمل‌ها ارائه می‌شود.",
216
+ "accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder جدیدترین مدل زبانی بزرگ Qwen برای برنامه‌نویسی است (قبلاً با نام CodeQwen شناخته می‌شد). توجه: این مدل در حال حاضر به‌صورت آزمایشی و بدون سرور ارائه می‌شود. برای استفاده در محیط تولید، توجه داشته باشید که Fireworks ممکن است این استقرار را بدون اطلاع قبلی متوقف کند.",
217
+ "accounts/yi-01-ai/models/yi-large.description": "Yi-Large یک مدل زبانی سطح بالا است که در رتبه‌بندی LMSYS درست پس از GPT-4، Gemini 1.5 Pro و Claude 3 Opus قرار دارد. این مدل در پشتیبانی از زبان‌های چندگانه، به‌ویژه اسپانیایی، چینی، ژاپنی، آلمانی و فرانسوی، عملکرد برجسته‌ای دارد. Yi-Large همچنین برای توسعه‌دهندگان مناسب است و از همان ساختار API مشابه OpenAI برای یکپارچه‌سازی آسان استفاده می‌کند.",
218
+ "ai21-jamba-1.5-large.description": "مدلی چندزبانه با ۳۹۸ میلیارد پارامتر (۹۴ میلیارد فعال) با پنجره متنی ۲۵۶ هزار توکن، قابلیت فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر داده‌های واقعی.",
219
+ "ai21-jamba-1.5-mini.description": "مدلی چندزبانه با ۵۲ میلیارد پارامتر (۱۲ میلیارد فعال) با پنجره متنی ۲۵۶ هزار توکن، قابلیت فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر داده‌های واقعی.",
220
+ "ai21-labs/AI21-Jamba-1.5-Large.description": "مدلی چندزبانه با ۳۹۸ میلیارد پارامتر (۹۴ میلیارد فعال) با پنجره متنی ۲۵۶ هزار توکن، قابلیت فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر داده‌های واقعی.",
221
+ "ai21-labs/AI21-Jamba-1.5-Mini.description": "مدلی چندزبانه با ۵۲ میلیارد پارامتر (۱۲ میلیارد فعال) با پنجره متنی ۲۵۶ هزار توکن، قابلیت فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر داده‌های واقعی.",
222
+ "alibaba/qwen-3-14b.description": "Qwen3 جدیدترین نسل از سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و MoE را ارائه می‌دهد. این مدل بر پایه آموزش گسترده ساخته شده و در زمینه‌های استدلال، پیروی از دستورالعمل‌ها، قابلیت‌های عامل‌محور و پشتیبانی چندزبانه پیشرفت‌های چشمگیری دارد.",
223
+ "alibaba/qwen-3-235b.description": "Qwen3 جدیدترین نسل از سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و MoE را ارائه می‌دهد. این مدل بر پایه آموزش گسترده ساخته شده و در زمینه‌های استدلال، پیروی از دستورالعمل‌ها، قابلیت‌های عامل‌محور و پشتیبانی چندزبانه پیشرفت‌های چشمگیری دارد.",
224
+ "alibaba/qwen-3-30b.description": "Qwen3 جدیدترین نسل از سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و MoE را ارائه می‌دهد. این مدل بر پایه آموزش گسترده ساخته شده و در زمینه‌های استدلال، پیروی از دستورالعمل‌ها، قابلیت‌های عامل‌محور و پشتیبانی چندزبانه پیشرفت‌های چشمگیری دارد.",
225
+ "alibaba/qwen-3-32b.description": "Qwen3 جدیدترین نسل از سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و MoE را ارائه می‌دهد. این مدل بر پایه آموزش گسترده ساخته شده و در زمینه‌های استدلال، پیروی از دستورالعمل‌ها، قابلیت‌های عامل‌محور و پشتیبانی چندزبانه پیشرفت‌های چشمگیری دارد.",
226
+ "alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct پیشرفته‌ترین مدل برنامه‌نویسی Qwen است که در وظایف کدنویسی عامل‌محور، استفاده از مرورگر توسط عامل و سایر وظایف اصلی برنامه‌نویسی عملکردی قوی دارد و نتایجی در سطح Claude Sonnet ارائه می‌دهد.",
227
+ "amazon/nova-lite.description": "مدلی چندوجهی با هزینه بسیار پایین که ورودی‌های تصویر، ویدیو و متن را با سرعت بسیار بالا پردازش می‌کند.",
228
+ "amazon/nova-micro.description": "مدلی فقط متنی با تأخیر بسیار پایین و هزینه بسیار کم.",
229
+ "amazon/nova-pro.description": "مدلی چندوجهی با قابلیت بالا که بهترین تعادل بین دقت، سرعت و هزینه را برای طیف گسترده‌ای از وظایف ارائه می‌دهد.",
230
+ "amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 یک مدل جاسازی چندزبانه سبک و کارآمد است که از ابعاد ۱۰۲۴، ۵۱۲ و ۲۵۶ پشتیبانی می‌کند.",
231
+ "anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet استاندارد صنعت را ارتقا داده و در ارزیابی‌های گسترده از رقبا و Claude 3 Opus پیشی می‌گیرد، در حالی که سرعت و هزینه متوسط را حفظ می‌کند.",
232
+ "anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet استاندارد صنعت را ارتقا داده و در ارزیابی‌های گسترده از رقبا و Claude 3 Opus پیشی می‌گیرد، در حالی که سرعت و هزینه متوسط را حفظ می‌کند.",
233
+ "anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که پاسخ‌های تقریباً فوری برای پرسش‌های ساده ارائه می‌دهد. این مدل تجربه‌ای روان و شبیه انسان را فراهم کرده و از ورودی تصویری با پنجره متنی ۲۰۰ هزار توکن پشتیبانی می‌کند.",
234
+ "anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus قدرتمندترین مدل هوش مصنوعی Anthropic است که در وظایف بسیار پیچیده عملکردی در سطح پیشرفته دارد. این مدل درخواست‌های باز و سناریوهای جدید را با روانی و درک انسانی استثنایی مدیریت می‌کند و از ورودی تصویری با پنجره متنی ۲۰۰ هزار توکن پشتیبانی می‌کند.",
235
+ "anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet تعادلی بین هوش و سرعت برای بارهای کاری سازمانی فراهم می‌کند و ارزش بالایی را با هزینه کمتر ارائه می‌دهد. این مدل برای استقرار گسترده هوش مصنوعی طراحی شده و از ورودی تصویری با پنجره متنی ۲۰۰ هزار توکن پشتیبانی می‌کند.",
236
+ "anthropic.claude-instant-v1.description": "مدلی سریع، اقتصادی و در عین حال توانمند برای چت روزمره، تحلیل متن، خلاصه‌سازی و پرسش و پاسخ اسناد.",
237
+ "anthropic.claude-v2.description": "مدلی بسیار توانمند برای وظایف مختلف از گفت‌وگوی پیچیده و تولید خلاقانه تا پیروی دقیق از دستورالعمل‌ها.",
238
+ "anthropic.claude-v2:1.description": "نسخه به‌روزشده Claude 2 با دو برابر پنجره متنی و بهبود در قابلیت اطمینان، کاهش توهمات و دقت مبتنی بر شواهد برای اسناد طولانی و بازیابی اطلاعات.",
239
+ "anthropic/claude-3-haiku.description": "Claude 3 Haiku سریع‌ترین مدل Anthropic است که برای بارهای کاری سازمانی با درخواست‌های طولانی طراحی شده است. این مدل می‌تواند اسناد بزرگ مانند گزارش‌های فصلی، قراردادها یا پرونده‌های حقوقی را با نیمی از هزینه رقبا تحلیل کند.",
240
+ "anthropic/claude-3-opus.description": "Claude 3 Opus هوشمندترین مدل Anthropic است که در وظایف بسیار پیچیده عملکردی در سطح بازار دارد و درخواست‌های باز و سناریوهای جدید را با روانی و درک انسانی استثنایی مدیریت می‌کند.",
241
+ "anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku دارای سرعت بیشتر، دقت بالاتر در کدنویسی و استفاده از ابزارها است و برای سناریوهایی با نیازهای بالا به سرعت و تعامل با ابزارها مناسب است.",
242
+ "anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet مدل سریع و کارآمد خانواده Sonnet است که عملکرد بهتری در کدنویسی و استدلال ارائه می‌دهد و برخی نسخه‌های آن به تدریج با Sonnet 3.7 و نسخه‌های بعدی جایگزین می‌شوند.",
243
+ "anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet نسخه ارتقایافته مدل Sonnet با استدلال و کدنویسی قوی‌تر است که برای وظایف پیچیده در سطح سازمانی مناسب می‌باشد.",
244
+ "anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 مدل سریع با عملکرد بالا از Anthropic است که تأخیر بسیار کم را در کنار دقت بالا ارائه می‌دهد.",
245
+ "anthropic/claude-opus-4.1.description": "Opus 4.1 مدل سطح بالای Anthropic است که برای برنامه‌نویسی، استدلال پیچیده و وظایف طولانی بهینه‌سازی شده است.",
246
+ "anthropic/claude-opus-4.5.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش سطح بالا را با عملکرد مقیاس‌پذیر برای وظایف پیچیده و استدلال با کیفیت بالا ترکیب می‌کند.",
247
+ "anthropic/claude-opus-4.description": "Opus 4 مدل پرچم‌دار Anthropic است که برای وظایف پیچیده و کاربردهای سازمانی طراحی شده است.",
248
+ "anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 جدیدترین مدل استدلال ترکیبی Anthropic است که برای استدلال پیچیده و کدنویسی بهینه‌سازی شده است.",
249
+ "anthropic/claude-sonnet-4.description": "Claude Sonnet 4 مدل استدلال ترکیبی Anthropic است که قابلیت تفکر و عدم تفکر را با هم ترکیب می‌کند.",
250
+ "ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B یک مدل زبانی پراکنده با ۷۲ میلیارد پارامتر کل و ۱۶ میلیارد پارامتر فعال است که بر پایه معماری MoE گروه‌بندی‌شده (MoGE) ساخته شده است. این مدل با گروه‌بندی متخصصان در زمان انتخاب و محدود کردن فعال‌سازی توکن‌ها به تعداد مساوی متخصص در هر گروه، تعادل بار را حفظ کرده و بهره‌وری استقرار را در پلتفرم Ascend بهبود می‌بخشد.",
251
+ "aya.description": "Aya 23 مدل چندزبانه شرکت Cohere است که از ۲۳ زبان برای کاربردهای متنوع پشتیبانی می‌کند.",
252
+ "aya:35b.description": "Aya 23 مدل چندزبانه شرکت Cohere است که از ۲۳ زبان برای کاربردهای متنوع پشتیبانی می‌کند.",
253
+ "azure-DeepSeek-R1-0528.description": "این مدل توسط مایکروسافت استقرار یافته است؛ DeepSeek R1 به نسخه DeepSeek-R1-0528 ارتقا یافته است. این به‌روزرسانی با افزایش توان محاسباتی و بهینه‌سازی الگوریتم‌های پس‌آموزش، عمق استدلال و استنتاج را به‌طور چشمگیری بهبود می‌بخشد. عملکرد آن در آزمون‌های ریاضی، برنامه‌نویسی و منطق عمومی بسیار قوی است و به مدل‌های پیشرو مانند O3 و Gemini 2.5 Pro نزدیک می‌شود.",
254
+ "baichuan-m2-32b.description": "Baichuan M2 32B یک مدل MoE از شرکت Baichuan Intelligence است که در استدلال عملکرد قدرتمندی دارد.",
255
+ "baichuan/baichuan2-13b-chat.description": "Baichuan-13B یک مدل زبانی منبع‌باز با ۱۳ میلیارد پارامتر است که برای استفاده تجاری نیز مجاز است. این مدل در آزمون‌های معتبر چینی و انگلیسی، بهترین نتایج را در میان مدل‌های هم‌رده خود کسب کرده است.",
256
+ "baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B یک مدل MoE از شرکت Baidu با ۳۰۰ میلیارد پارامتر کل و ۴۷ میلیارد پارامتر فعال به ازای هر توکن است که تعادل بین عملکرد قوی و بهره‌وری محاسباتی را برقرار می‌کند. این مدل به‌عنوان هسته اصلی ERNIE 4.5 در درک، تولید، استدلال و برنامه‌نویسی بسیار توانمند است. با استفاده از روش پیش‌آموزش چندوجهی ناهمگن MoE و آموزش مشترک متن-تصویر، توانایی کلی خود را به‌ویژه در پیروی از دستورالعمل‌ها و دانش عمومی افزایش داده است.",
257
+ "baidu/ernie-5.0-thinking-preview.description": "پیش‌نمایش مدل ERNIE 5.0 Thinking نسل بعدی مدل چندوجهی بومی شرکت Baidu است که در درک چندوجهی، پیروی از دستورالعمل‌ها، تولید محتوا، پرسش و پاسخ واقعی و استفاده از ابزارها عملکرد بسیار خوبی دارد.",
258
+ "black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro نسخه سریع‌تر و بهبودیافته FLUX Pro است که کیفیت تصویر عالی و تبعیت دقیق از دستورات را ارائه می‌دهد.",
259
+ "black-forest-labs/flux-dev.description": "FLUX Dev نسخه توسعه‌ای مدل FLUX برای استفاده غیرتجاری است.",
260
+ "black-forest-labs/flux-pro.description": "FLUX Pro مدل حرفه‌ای FLUX برای تولید تصاویر با کیفیت بالا است.",
261
+ "black-forest-labs/flux-schnell.description": "FLUX Schnell یک مدل تولید تصویر سریع است که برای سرعت بهینه‌سازی شده است.",
262
+ "c4ai-aya-expanse-32b.description": "Aya Expanse یک مدل چندزبانه قدرتمند با ۳۲ میلیارد پارامتر است که با استفاده از تنظیمات دستوری، انتخاب داده، آموزش ترجیحی و ادغام مدل‌ها، عملکردی در حد مدل‌های تک‌زبانه ارائه می‌دهد. این مدل از ۲۳ زبان پشتیبانی می‌کند.",
263
+ "c4ai-aya-expanse-8b.description": "Aya Expanse یک مدل چندزبانه قدرتمند با ۸ میلیارد پارامتر است که با استفاده از تنظیمات دستوری، انتخاب داده، آموزش ترجیحی و ادغام مدل‌ها، عملکردی در حد مدل‌های تک‌زبانه ارائه می‌دهد. این مدل از ۲۳ زبان پشتیبانی می‌کند.",
264
+ "c4ai-aya-vision-32b.description": "Aya Vision یک مدل چندوجهی پیشرفته است که در آزمون‌های کلیدی زبان، متن و تصویر عملکرد بسیار خوبی دارد. این نسخه ۳۲ میلیاردی بر عملکرد چندزبانه سطح بالا تمرکز دارد و از ۲۳ زبان پشتیبانی می‌کند.",
265
+ "c4ai-aya-vision-8b.description": "Aya Vision یک مدل چندوجهی پیشرفته است که در آزمون‌های کلیدی زبان، متن و تصویر عملکرد بسیار خوبی دارد. این نسخه ۸ میلیاردی بر تأخیر کم و عملکرد قوی تمرکز دارد.",
266
+ "charglm-3.description": "CharGLM-3 برای نقش‌آفرینی و همراهی احساسی طراحی شده است و از حافظه چندنوبتی بسیار طولانی و گفت‌وگوی شخصی‌سازی‌شده پشتیبانی می‌کند.",
267
+ "charglm-4.description": "CharGLM-4 برای نقش‌آفرینی و همراهی احساسی طراحی شده است و از حافظه چندنوبتی بسیار طولانی و گفت‌وگوی شخصی‌سازی‌شده پشتیبانی می‌کند.",
268
+ "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
269
+ "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
270
+ "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
271
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که در مهارت‌های مختلف بهبود یافته و در بسیاری از آزمون‌ها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.",
272
+ "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
273
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic است و اولین مدل استدلال ترکیبی در بازار محسوب می‌شود که از پاسخ‌های تقریباً فوری یا تفکر طولانی با کنترل دقیق پشتیبانی می‌کند.",
274
+ "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
275
+ "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
276
+ "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
277
+ "claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
278
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت فوق‌العاده و تفکر گسترده همراه است.",
279
+ "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
280
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
281
+ "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
282
+ "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
283
+ "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
284
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با کنترل دقیق برای کاربران API ارائه می‌دهد.",
285
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
286
+ "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
287
+ "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
288
+ "codegemma.description": "CodeGemma یک مدل سبک برای وظایف متنوع برنامه‌نویسی است که امکان تکرار سریع و یکپارچه‌سازی آسان را فراهم می‌کند.",
289
+ "codegemma:2b.description": "CodeGemma یک مدل سبک برای وظایف متنوع برنامه‌نویسی است که امکان تکرار سریع و یکپارچه‌سازی آسان را فراهم می‌کند.",
290
+ "codellama.description": "Code Llama یک مدل زبانی بزرگ متمرکز بر تولید و بحث در مورد کد است که از زبان‌های مختلف برای جریان‌های کاری توسعه‌دهندگان پشتیبانی می‌کند.",
291
+ "codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama یک مدل زبانی بزرگ متمرکز بر تولید و بحث در مورد کد است که از زبان‌های مختلف برای جریان‌های کاری توسعه‌دهندگان پشتیبانی می‌کند.",
292
+ "codellama:13b.description": "Code Llama یک مدل زبانی بزرگ متمرکز بر تولید و بحث در مورد کد است که از زبان‌های مختلف برای جریان‌های کاری توسعه‌دهندگان پشتیبانی می‌کند.",
293
+ "codellama:34b.description": "Code Llama یک مدل زبانی بزرگ متمرکز بر تولید و بحث در مورد کد است که از زبان‌های مختلف برای جریان‌های کاری توسعه‌دهندگان پشتیبانی می‌کند.",
294
+ "codellama:70b.description": "Code Llama یک مدل زبانی بزرگ متمرکز بر تولید و بحث در مورد کد است که از زبان‌های مختلف برای جریان‌های کاری توسعه‌دهندگان پشتیبانی می‌کند.",
295
+ "codeqwen.description": "CodeQwen1.5 یک مدل زبانی بزرگ است که بر پایه داده‌های گسترده کد آموزش دیده و برای وظایف پیچیده برنامه‌نویسی طراحی شده است.",
296
+ "codestral-latest.description": "Codestral پیشرفته‌ترین مدل کدنویسی ماست؛ نسخه v2 (ژانویه ۲۰۲۵) برای وظایف با تأخیر کم و فرکانس بالا مانند FIM، اصلاح کد و تولید تست بهینه شده است.",
297
+ "codestral.description": "Codestral اولین مدل کدنویسی از Mistral AI است که پشتیبانی قوی برای تولید کد ارائه می‌دهد.",
298
+ "codex-mini-latest.description": "codex-mini-latest نسخه تنظیم‌شده مدل o4-mini برای رابط خط فرمان Codex است. برای استفاده مستقیم از API، توصیه می‌شود با gpt-4.1 شروع کنید.",
213
299
  "meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد طراحی شده است. این مدل به‌عنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیط‌هایی با منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع مناسب است.",
214
300
  "meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری.",
215
301
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامه‌های عامل با قابلیت درک بصری.",
@@ -73,6 +73,8 @@
73
73
  "builtins.lobe-gtd.title": "ابزارهای وظیفه",
74
74
  "builtins.lobe-knowledge-base.apiName.readKnowledge": "خواندن محتوای کتابخانه",
75
75
  "builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "جستجوی کتابخانه",
76
+ "builtins.lobe-knowledge-base.inspector.andMoreFiles": "و {{count}} مورد دیگر",
77
+ "builtins.lobe-knowledge-base.inspector.noResults": "نتیجه‌ای یافت نشد",
76
78
  "builtins.lobe-knowledge-base.title": "کتابخانه",
77
79
  "builtins.lobe-local-system.apiName.editLocalFile": "ویرایش فایل",
78
80
  "builtins.lobe-local-system.apiName.getCommandOutput": "دریافت خروجی فرمان",
@@ -86,6 +88,8 @@
86
88
  "builtins.lobe-local-system.apiName.runCommand": "اجرای فرمان",
87
89
  "builtins.lobe-local-system.apiName.searchLocalFiles": "جستجوی فایل‌ها",
88
90
  "builtins.lobe-local-system.apiName.writeLocalFile": "نوشتن فایل",
91
+ "builtins.lobe-local-system.inspector.noResults": "نتیجه‌ای یافت نشد",
92
+ "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
89
93
  "builtins.lobe-local-system.title": "سیستم محلی",
90
94
  "builtins.lobe-page-agent.apiName.batchUpdate": "به‌روزرسانی دسته‌ای گره‌ها",
91
95
  "builtins.lobe-page-agent.apiName.compareSnapshots": "مقایسه نسخه‌ها",
@@ -143,6 +147,7 @@
143
147
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "خواندن چندین صفحه",
144
148
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "خواندن محتوای صفحه",
145
149
  "builtins.lobe-web-browsing.apiName.search": "جستجوی صفحات",
150
+ "builtins.lobe-web-browsing.inspector.noResults": "نتیجه‌ای یافت نشد",
146
151
  "builtins.lobe-web-browsing.title": "جستجوی وب",
147
152
  "confirm": "تأیید",
148
153
  "debug.arguments": "آرگومان‌ها",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
30
30
  "jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
31
31
  "lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
32
+ "lobehub.description": "LobeHub Cloud از رابط‌های برنامه‌نویسی رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
32
33
  "minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
33
34
  "mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
34
35
  "modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",
@@ -247,6 +247,55 @@
247
247
  "anthropic/claude-opus-4.description": "Opus 4 est le modèle phare d’Anthropic, conçu pour les tâches complexes et les applications en entreprise.",
248
248
  "anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 est le dernier modèle hybride de raisonnement d’Anthropic, optimisé pour le raisonnement complexe et la programmation.",
249
249
  "anthropic/claude-sonnet-4.description": "Claude Sonnet 4 est un modèle hybride de raisonnement d’Anthropic, combinant des capacités de réflexion et d’exécution directe.",
250
+ "ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B est un modèle LLM parcimonieux avec 72 milliards de paramètres au total et 16 milliards actifs, basé sur une architecture MoE groupée (MoGE). Il regroupe les experts lors de la sélection et contraint les jetons à activer un nombre égal d'experts par groupe, équilibrant ainsi la charge et améliorant l'efficacité du déploiement sur Ascend.",
251
+ "aya.description": "Aya 23 est le modèle multilingue de Cohere prenant en charge 23 langues pour une grande variété de cas d’usage.",
252
+ "aya:35b.description": "Aya 23 est le modèle multilingue de Cohere prenant en charge 23 langues pour une grande variété de cas d’usage.",
253
+ "azure-DeepSeek-R1-0528.description": "Déployé par Microsoft, DeepSeek R1 a été mis à jour vers DeepSeek-R1-0528. Cette mise à jour améliore la puissance de calcul et les algorithmes de post-entraînement, renforçant considérablement la profondeur de raisonnement et les capacités d’inférence. Il offre d’excellentes performances en mathématiques, en programmation et en logique générale, rivalisant avec les modèles de pointe comme O3 et Gemini 2.5 Pro.",
254
+ "baichuan-m2-32b.description": "Baichuan M2 32B est un modèle MoE développé par Baichuan Intelligence, doté de solides capacités de raisonnement.",
255
+ "baichuan/baichuan2-13b-chat.description": "Baichuan-13B est un LLM open source de 13 milliards de paramètres, utilisable commercialement, développé par Baichuan. Il atteint des performances de premier plan pour sa taille sur des benchmarks chinois et anglais reconnus.",
256
+ "baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B est un LLM MoE de Baidu avec 300 milliards de paramètres au total et 47 milliards actifs par jeton, alliant hautes performances et efficacité de calcul. En tant que modèle central d’ERNIE 4.5, il excelle en compréhension, génération, raisonnement et programmation. Il utilise une méthode de pré-entraînement multimodale hétérogène MoE avec un apprentissage conjoint texte-image pour renforcer ses capacités globales, notamment le suivi d’instructions et les connaissances générales.",
257
+ "baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview est le modèle ERNIE multimodal de nouvelle génération de Baidu, performant en compréhension multimodale, suivi d’instructions, création, questions-réponses factuelles et utilisation d’outils.",
258
+ "black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro est une version plus rapide et améliorée de FLUX Pro, offrant une excellente qualité d’image et un respect précis des instructions.",
259
+ "black-forest-labs/flux-dev.description": "FLUX Dev est la version de développement de FLUX, destinée à un usage non commercial.",
260
+ "black-forest-labs/flux-pro.description": "FLUX Pro est le modèle professionnel de FLUX, conçu pour une production d’images de haute qualité.",
261
+ "black-forest-labs/flux-schnell.description": "FLUX Schnell est un modèle de génération d’images rapide, optimisé pour la vitesse.",
262
+ "c4ai-aya-expanse-32b.description": "Aya Expanse est un modèle multilingue haute performance de 32 milliards de paramètres, utilisant l’ajustement par instruction, l’arbitrage de données, l’entraînement par préférence et la fusion de modèles pour rivaliser avec les modèles monolingues. Il prend en charge 23 langues.",
263
+ "c4ai-aya-expanse-8b.description": "Aya Expanse est un modèle multilingue haute performance de 8 milliards de paramètres, utilisant l’ajustement par instruction, l’arbitrage de données, l’entraînement par préférence et la fusion de modèles pour rivaliser avec les modèles monolingues. Il prend en charge 23 langues.",
264
+ "c4ai-aya-vision-32b.description": "Aya Vision est un modèle multimodal de pointe performant sur les principaux benchmarks de langue, texte et vision. Cette version 32B est axée sur des performances multilingues de haut niveau et prend en charge 23 langues.",
265
+ "c4ai-aya-vision-8b.description": "Aya Vision est un modèle multimodal de pointe performant sur les principaux benchmarks de langue, texte et vision. Cette version 8B est optimisée pour une faible latence et de bonnes performances.",
266
+ "charglm-3.description": "CharGLM-3 est conçu pour le jeu de rôle et la compagnie émotionnelle, avec une mémoire multi-tours ultra-longue et des dialogues personnalisés.",
267
+ "charglm-4.description": "CharGLM-4 est conçu pour le jeu de rôle et la compagnie émotionnelle, avec une mémoire multi-tours ultra-longue et des dialogues personnalisés.",
268
+ "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
269
+ "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
270
+ "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
271
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic, amélioré sur de nombreuses compétences et surpassant l’ancien modèle phare Claude 3 Opus sur plusieurs benchmarks.",
272
+ "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
273
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent d’Anthropic et le premier modèle de raisonnement hybride sur le marché, capable de fournir des réponses instantanées ou une réflexion approfondie avec un contrôle précis.",
274
+ "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
275
+ "claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
276
+ "claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
277
+ "claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
278
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, combinant vitesse fulgurante et réflexion approfondie.",
279
+ "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
280
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
281
+ "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
282
+ "claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
283
+ "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
284
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d’Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion détaillée avec un contrôle précis pour les utilisateurs d’API.",
285
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
286
+ "codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
287
+ "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
288
+ "codegemma.description": "CodeGemma est un modèle léger pour diverses tâches de programmation, permettant une itération rapide et une intégration facile.",
289
+ "codegemma:2b.description": "CodeGemma est un modèle léger pour diverses tâches de programmation, permettant une itération rapide et une intégration facile.",
290
+ "codellama.description": "Code Llama est un LLM spécialisé dans la génération et la discussion de code, avec une large prise en charge des langages pour les flux de travail des développeurs.",
291
+ "codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama est un LLM spécialisé dans la génération et la discussion de code, avec une large prise en charge des langages pour les flux de travail des développeurs.",
292
+ "codellama:13b.description": "Code Llama est un LLM spécialisé dans la génération et la discussion de code, avec une large prise en charge des langages pour les flux de travail des développeurs.",
293
+ "codellama:34b.description": "Code Llama est un LLM spécialisé dans la génération et la discussion de code, avec une large prise en charge des langages pour les flux de travail des développeurs.",
294
+ "codellama:70b.description": "Code Llama est un LLM spécialisé dans la génération et la discussion de code, avec une large prise en charge des langages pour les flux de travail des développeurs.",
295
+ "codeqwen.description": "CodeQwen1.5 est un grand modèle de langage entraîné sur de vastes données de code, conçu pour des tâches de programmation complexes.",
296
+ "codestral-latest.description": "Codestral est notre modèle de codage le plus avancé ; la version v2 (janvier 2025) cible les tâches à faible latence et haute fréquence comme FIM, la correction de code et la génération de tests.",
297
+ "codestral.description": "Codestral est le premier modèle de code de Mistral AI, offrant un excellent support pour la génération de code.",
298
+ "codex-mini-latest.description": "codex-mini-latest est un modèle o4-mini affiné pour l'interface en ligne de commande Codex. Pour une utilisation directe via l'API, nous recommandons de commencer avec gpt-4.1.",
250
299
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
251
300
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
252
301
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
@@ -73,6 +73,8 @@
73
73
  "builtins.lobe-gtd.title": "Outils de tâches",
74
74
  "builtins.lobe-knowledge-base.apiName.readKnowledge": "Lire le contenu de la Bibliothèque",
75
75
  "builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Rechercher dans la Bibliothèque",
76
+ "builtins.lobe-knowledge-base.inspector.andMoreFiles": "et {{count}} de plus",
77
+ "builtins.lobe-knowledge-base.inspector.noResults": "Aucun résultat",
76
78
  "builtins.lobe-knowledge-base.title": "Bibliothèque",
77
79
  "builtins.lobe-local-system.apiName.editLocalFile": "Modifier le fichier",
78
80
  "builtins.lobe-local-system.apiName.getCommandOutput": "Obtenir la sortie de la commande",
@@ -86,6 +88,8 @@
86
88
  "builtins.lobe-local-system.apiName.runCommand": "Exécuter la commande",
87
89
  "builtins.lobe-local-system.apiName.searchLocalFiles": "Rechercher des fichiers",
88
90
  "builtins.lobe-local-system.apiName.writeLocalFile": "Écrire dans le fichier",
91
+ "builtins.lobe-local-system.inspector.noResults": "Aucun résultat",
92
+ "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
89
93
  "builtins.lobe-local-system.title": "Système local",
90
94
  "builtins.lobe-page-agent.apiName.batchUpdate": "Mettre à jour plusieurs nœuds",
91
95
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Comparer les instantanés",
@@ -143,6 +147,7 @@
143
147
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "Lire plusieurs pages",
144
148
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "Lire le contenu de la page",
145
149
  "builtins.lobe-web-browsing.apiName.search": "Rechercher des pages",
150
+ "builtins.lobe-web-browsing.inspector.noResults": "Aucun résultat",
146
151
  "builtins.lobe-web-browsing.title": "Recherche Web",
147
152
  "confirm": "Confirmer",
148
153
  "debug.arguments": "Arguments",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
30
30
  "jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
31
31
  "lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
32
+ "lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de Crédits liés aux jetons des modèles.",
32
33
  "minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
33
34
  "mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
34
35
  "modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",