@lobehub/lobehub 2.0.0-next.186 → 2.0.0-next.188
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/models.json +89 -5
- package/locales/ar/plugin.json +5 -0
- package/locales/ar/providers.json +1 -0
- package/locales/bg-BG/models.json +68 -0
- package/locales/bg-BG/plugin.json +5 -0
- package/locales/bg-BG/providers.json +1 -0
- package/locales/de-DE/models.json +85 -0
- package/locales/de-DE/plugin.json +5 -0
- package/locales/de-DE/providers.json +1 -0
- package/locales/en-US/models.json +11 -10
- package/locales/en-US/plugin.json +5 -0
- package/locales/en-US/providers.json +1 -0
- package/locales/es-ES/models.json +72 -0
- package/locales/es-ES/plugin.json +5 -0
- package/locales/es-ES/providers.json +1 -0
- package/locales/fa-IR/models.json +86 -0
- package/locales/fa-IR/plugin.json +5 -0
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fr-FR/models.json +49 -0
- package/locales/fr-FR/plugin.json +5 -0
- package/locales/fr-FR/providers.json +1 -0
- package/locales/it-IT/models.json +82 -0
- package/locales/it-IT/plugin.json +5 -0
- package/locales/it-IT/providers.json +1 -0
- package/locales/ja-JP/models.json +42 -5
- package/locales/ja-JP/plugin.json +5 -0
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ko-KR/models.json +54 -0
- package/locales/ko-KR/plugin.json +5 -0
- package/locales/ko-KR/providers.json +1 -0
- package/locales/nl-NL/models.json +12 -1
- package/locales/nl-NL/plugin.json +5 -0
- package/locales/nl-NL/providers.json +1 -0
- package/locales/pl-PL/models.json +46 -0
- package/locales/pl-PL/plugin.json +5 -0
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pt-BR/models.json +59 -0
- package/locales/pt-BR/plugin.json +5 -0
- package/locales/pt-BR/providers.json +1 -0
- package/locales/ru-RU/models.json +85 -0
- package/locales/ru-RU/plugin.json +5 -0
- package/locales/ru-RU/providers.json +1 -0
- package/locales/tr-TR/models.json +81 -0
- package/locales/tr-TR/plugin.json +5 -0
- package/locales/tr-TR/providers.json +1 -0
- package/locales/vi-VN/models.json +54 -0
- package/locales/vi-VN/plugin.json +5 -0
- package/locales/vi-VN/providers.json +1 -0
- package/locales/zh-CN/models.json +42 -5
- package/locales/zh-CN/plugin.json +5 -0
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-TW/models.json +85 -0
- package/locales/zh-TW/plugin.json +5 -0
- package/locales/zh-TW/providers.json +1 -0
- package/package.json +1 -1
- package/packages/builtin-tool-gtd/src/manifest.ts +13 -8
- package/packages/builtin-tool-gtd/src/systemRole.ts +54 -19
- package/packages/builtin-tool-knowledge-base/package.json +1 -0
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/ReadKnowledge/index.tsx +97 -0
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/SearchKnowledgeBase/index.tsx +75 -0
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/index.ts +11 -0
- package/packages/builtin-tool-knowledge-base/src/client/Render/ReadKnowledge/FileCard.tsx +12 -12
- package/packages/builtin-tool-knowledge-base/src/client/Render/ReadKnowledge/index.tsx +16 -25
- package/packages/builtin-tool-knowledge-base/src/client/Render/SearchKnowledgeBase/Item/index.tsx +21 -47
- package/packages/builtin-tool-knowledge-base/src/client/Render/SearchKnowledgeBase/index.tsx +19 -31
- package/packages/builtin-tool-knowledge-base/src/client/Render/index.ts +0 -5
- package/packages/builtin-tool-knowledge-base/src/client/index.ts +5 -1
- package/packages/builtin-tool-knowledge-base/src/executor/index.ts +119 -0
- package/packages/builtin-tool-local-system/package.json +1 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/EditLocalFile/index.tsx +44 -29
- package/packages/builtin-tool-local-system/src/client/Inspector/GrepContent/index.tsx +20 -18
- package/packages/builtin-tool-local-system/src/client/Inspector/ListLocalFiles/index.tsx +76 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/ReadLocalFile/index.tsx +8 -32
- package/packages/builtin-tool-local-system/src/client/Inspector/RenameLocalFile/index.tsx +62 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/SearchLocalFiles/index.tsx +17 -11
- package/packages/builtin-tool-local-system/src/client/Inspector/WriteLocalFile/index.tsx +61 -0
- package/packages/builtin-tool-local-system/src/client/Inspector/index.ts +6 -0
- package/packages/builtin-tool-local-system/src/client/Render/EditLocalFile/index.tsx +6 -1
- package/packages/builtin-tool-local-system/src/client/Render/SearchFiles/SearchQuery/SearchView.tsx +19 -31
- package/packages/builtin-tool-local-system/src/client/Render/SearchFiles/SearchQuery/index.tsx +2 -42
- package/packages/builtin-tool-local-system/src/client/Render/index.ts +0 -2
- package/packages/builtin-tool-local-system/src/client/components/FilePathDisplay.tsx +56 -0
- package/packages/builtin-tool-local-system/src/client/components/index.ts +2 -0
- package/packages/builtin-tool-local-system/src/executor/index.ts +435 -0
- package/packages/builtin-tool-web-browsing/src/client/Inspector/Search/index.tsx +32 -5
- package/packages/fetch-sse/src/__tests__/request.test.ts +608 -0
- package/packages/model-bank/src/aiModels/aihubmix.ts +44 -8
- package/packages/model-bank/src/aiModels/google.ts +49 -17
- package/packages/model-bank/src/aiModels/hunyuan.ts +20 -0
- package/packages/model-bank/src/aiModels/infiniai.ts +48 -7
- package/packages/model-bank/src/aiModels/lobehub.ts +13 -11
- package/packages/model-bank/src/aiModels/minimax.ts +46 -2
- package/packages/model-bank/src/aiModels/ollamacloud.ts +40 -5
- package/packages/model-bank/src/aiModels/openai.ts +6 -3
- package/packages/model-bank/src/aiModels/qwen.ts +1 -1
- package/packages/model-bank/src/aiModels/siliconcloud.ts +60 -0
- package/packages/model-bank/src/aiModels/vertexai.ts +77 -44
- package/packages/model-bank/src/aiModels/volcengine.ts +111 -2
- package/packages/model-bank/src/aiModels/zenmux.ts +19 -13
- package/packages/model-bank/src/aiModels/zhipu.ts +64 -2
- package/packages/model-bank/src/types/aiModel.ts +3 -0
- package/packages/model-runtime/src/core/contextBuilders/google.test.ts +84 -0
- package/packages/model-runtime/src/core/contextBuilders/google.ts +37 -1
- package/packages/model-runtime/src/providers/volcengine/index.ts +2 -1
- package/packages/model-runtime/src/providers/zhipu/index.test.ts +0 -27
- package/packages/model-runtime/src/providers/zhipu/index.ts +1 -1
- package/packages/model-runtime/src/utils/modelParse.ts +26 -21
- package/packages/types/src/agent/chatConfig.ts +6 -2
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +40 -1
- package/src/features/ChatInput/ActionBar/Model/GPT52ProReasoningEffortSlider.tsx +59 -0
- package/src/features/ChatInput/ActionBar/Model/GPT52ReasoningEffortSlider.tsx +61 -0
- package/src/features/ChatInput/ActionBar/Model/TextVerbositySlider.tsx +1 -1
- package/src/features/ChatInput/ActionBar/Model/ThinkingLevel2Slider.tsx +58 -0
- package/src/features/ChatInput/ActionBar/Model/ThinkingLevelSlider.tsx +10 -8
- package/src/helpers/toolEngineering/index.ts +1 -1
- package/src/locales/default/plugin.ts +6 -0
- package/src/server/modules/Mecha/AgentToolsEngine/__tests__/index.test.ts +1 -1
- package/src/server/modules/Mecha/AgentToolsEngine/index.ts +1 -1
- package/src/services/chat/mecha/modelParamsResolver.ts +11 -0
- package/src/store/chat/slices/builtinTool/actions/index.ts +1 -11
- package/src/store/tool/slices/builtin/executors/index.ts +4 -0
- package/src/styles/text.ts +1 -1
- package/src/tools/executionRuntimes.ts +3 -8
- package/src/tools/identifiers.ts +1 -1
- package/src/tools/index.ts +1 -1
- package/src/tools/inspectors.ts +5 -0
- package/src/tools/renders.ts +6 -12
- package/packages/builtin-tool-local-system/src/client/Render/RenameLocalFile/index.tsx +0 -37
- package/src/store/chat/slices/builtinTool/actions/__tests__/localSystem.test.ts +0 -201
- package/src/store/chat/slices/builtinTool/actions/knowledgeBase.ts +0 -163
- package/src/store/chat/slices/builtinTool/actions/localSystem.ts +0 -241
- package/src/tools/knowledge-base/ExecutionRuntime/index.ts +0 -25
- package/src/tools/knowledge-base/Render/ReadKnowledge/index.tsx +0 -29
- package/src/tools/knowledge-base/Render/SearchKnowledgeBase/index.tsx +0 -29
- package/src/tools/knowledge-base/Render/index.ts +0 -7
- package/src/tools/knowledge-base/index.ts +0 -12
- package/src/tools/local-system/ExecutionRuntime/index.ts +0 -9
- package/src/tools/local-system/systemRole.ts +0 -1
|
@@ -268,20 +268,20 @@
|
|
|
268
268
|
"chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
|
|
269
269
|
"claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
270
270
|
"claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
271
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model
|
|
271
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
|
|
272
272
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
|
|
273
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
273
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropic’s most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.",
|
|
274
274
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
275
275
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
|
|
276
276
|
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
|
277
277
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
|
|
278
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and
|
|
278
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
|
|
279
279
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
|
|
280
280
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
281
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and
|
|
281
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
282
282
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
|
|
283
283
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
|
|
284
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
284
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic’s most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
|
|
285
285
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
|
|
286
286
|
"codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
|
|
287
287
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
|
|
@@ -352,7 +352,7 @@
|
|
|
352
352
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
353
353
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
354
354
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
|
|
355
|
-
"deepseek-chat.description": "
|
|
355
|
+
"deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
|
|
356
356
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
|
|
357
357
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
358
358
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
@@ -375,7 +375,7 @@
|
|
|
375
375
|
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
|
|
376
376
|
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
|
|
377
377
|
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
|
|
378
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
378
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
|
|
379
379
|
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
|
|
380
380
|
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
|
|
381
381
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
|
|
@@ -466,7 +466,7 @@
|
|
|
466
466
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
|
|
467
467
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
|
|
468
468
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
|
|
469
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
469
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
|
|
470
470
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
|
|
471
471
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
|
|
472
472
|
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
|
|
@@ -474,8 +474,8 @@
|
|
|
474
474
|
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
|
|
475
475
|
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
|
|
476
476
|
"fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
|
|
477
|
-
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team
|
|
478
|
-
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with
|
|
477
|
+
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
|
|
478
|
+
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
|
|
479
479
|
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
|
|
480
480
|
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
|
|
481
481
|
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
|
|
@@ -521,6 +521,7 @@
|
|
|
521
521
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
|
|
522
522
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
|
|
523
523
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
|
|
524
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash Preview is Google’s latest best-value model, improving on Gemini 2.5 Flash.",
|
|
524
525
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.",
|
|
525
526
|
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google’s image generation model and also supports multimodal chat.",
|
|
526
527
|
"gemini-3-pro-preview.description": "Gemini 3 Pro is Google’s most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
|
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "Task Tools",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "Read Library content",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Search Library",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "and {{count}} more",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "No results",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "Library",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "Edit file",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "Get command output",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "Run command",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "Search files",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "Write file",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "No results",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "Local System",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Batch update nodes",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Compare snapshots",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "Read multiple pages",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "Read page content",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "Search pages",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "No results",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "Web Search",
|
|
147
152
|
"confirm": "Confirm",
|
|
148
153
|
"debug.arguments": "Arguments",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
|
|
30
30
|
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
|
|
31
31
|
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
|
|
32
33
|
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
|
|
34
35
|
"modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
|
|
@@ -223,6 +223,78 @@
|
|
|
223
223
|
"alibaba/qwen-3-235b.description": "Qwen3 es la última generación de la serie Qwen, que ofrece un conjunto completo de modelos densos y MoE. Basado en un entrenamiento exhaustivo, aporta avances en razonamiento, seguimiento de instrucciones, capacidades de agente y soporte multilingüe.",
|
|
224
224
|
"alibaba/qwen-3-30b.description": "Qwen3 es la última generación de la serie Qwen, que ofrece un conjunto completo de modelos densos y MoE. Basado en un entrenamiento exhaustivo, aporta avances en razonamiento, seguimiento de instrucciones, capacidades de agente y soporte multilingüe.",
|
|
225
225
|
"alibaba/qwen-3-32b.description": "Qwen3 es la última generación de la serie Qwen, que ofrece un conjunto completo de modelos densos y MoE. Basado en un entrenamiento exhaustivo, aporta avances en razonamiento, seguimiento de instrucciones, capacidades de agente y soporte multilingüe.",
|
|
226
|
+
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct es el modelo de código más agente de Qwen, con un rendimiento destacado en codificación autónoma, uso de navegador por agentes y otras tareas clave de programación, alcanzando resultados comparables al nivel de Claude Sonnet.",
|
|
227
|
+
"amazon/nova-lite.description": "Un modelo multimodal de muy bajo costo con procesamiento extremadamente rápido de entradas de imagen, video y texto.",
|
|
228
|
+
"amazon/nova-micro.description": "Un modelo solo de texto que ofrece una latencia ultra baja a un costo muy reducido.",
|
|
229
|
+
"amazon/nova-pro.description": "Un modelo multimodal altamente capaz con el mejor equilibrio entre precisión, velocidad y costo para una amplia gama de tareas.",
|
|
230
|
+
"amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 es un modelo de incrustación multilingüe ligero y eficiente que admite dimensiones de 1024, 512 y 256.",
|
|
231
|
+
"anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a sus competidores y a Claude 3 Opus en evaluaciones amplias, manteniendo velocidad y costo de nivel medio.",
|
|
232
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a sus competidores y a Claude 3 Opus en evaluaciones amplias, manteniendo velocidad y costo de nivel medio.",
|
|
233
|
+
"anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, que ofrece respuestas casi instantáneas para consultas simples. Permite experiencias de IA fluidas y naturales, y admite entrada de imágenes con una ventana de contexto de 200K.",
|
|
234
|
+
"anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus es el modelo de IA más potente de Anthropic, con un rendimiento de vanguardia en tareas altamente complejas. Maneja indicaciones abiertas y escenarios novedosos con fluidez excepcional y comprensión similar a la humana, y admite entrada de imágenes con una ventana de contexto de 200K.",
|
|
235
|
+
"anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo un alto valor a menor costo. Está diseñado como un modelo confiable para implementaciones de IA a gran escala y admite entrada de imágenes con una ventana de contexto de 200K.",
|
|
236
|
+
"anthropic.claude-instant-v1.description": "Un modelo rápido, económico y capaz para chat diario, análisis de texto, resúmenes y preguntas sobre documentos.",
|
|
237
|
+
"anthropic.claude-v2.description": "Un modelo altamente competente en tareas que van desde diálogos complejos y generación creativa hasta el seguimiento detallado de instrucciones.",
|
|
238
|
+
"anthropic.claude-v2:1.description": "Una versión actualizada de Claude 2 con el doble de ventana de contexto y mejoras en fiabilidad, reducción de alucinaciones y precisión basada en evidencia para documentos largos y RAG.",
|
|
239
|
+
"anthropic/claude-3-haiku.description": "Claude 3 Haiku es el modelo más rápido de Anthropic, diseñado para cargas de trabajo empresariales con indicaciones extensas. Puede analizar rápidamente documentos grandes como informes trimestrales, contratos o casos legales a la mitad del costo de sus pares.",
|
|
240
|
+
"anthropic/claude-3-opus.description": "Claude 3 Opus es el modelo más inteligente de Anthropic, con un rendimiento líder en el mercado en tareas altamente complejas, manejando indicaciones abiertas y escenarios novedosos con fluidez excepcional y comprensión similar a la humana.",
|
|
241
|
+
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku ofrece mayor velocidad, precisión en programación y uso de herramientas, adecuado para escenarios con altos requerimientos de velocidad e interacción con herramientas.",
|
|
242
|
+
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet es el modelo rápido y eficiente de la familia Sonnet, con mejor rendimiento en programación y razonamiento, con algunas versiones reemplazadas gradualmente por Sonnet 3.7 y posteriores.",
|
|
243
|
+
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet es una versión mejorada del modelo Sonnet con mayor capacidad de razonamiento y programación, adecuado para tareas empresariales complejas.",
|
|
244
|
+
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 es el modelo rápido de alto rendimiento de Anthropic, con latencia muy baja y alta precisión.",
|
|
245
|
+
"anthropic/claude-opus-4.1.description": "Opus 4.1 es el modelo de gama alta de Anthropic, optimizado para programación, razonamiento complejo y tareas de larga duración.",
|
|
246
|
+
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, que combina inteligencia de primer nivel con rendimiento escalable para tareas complejas de razonamiento de alta calidad.",
|
|
247
|
+
"anthropic/claude-opus-4.description": "Opus 4 es el modelo insignia de Anthropic, diseñado para tareas complejas y aplicaciones empresariales.",
|
|
248
|
+
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 es el último modelo híbrido de razonamiento de Anthropic, optimizado para razonamiento complejo y programación.",
|
|
249
|
+
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 es el modelo híbrido de razonamiento de Anthropic con capacidad de pensamiento mixto y no pensante.",
|
|
250
|
+
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B es un LLM disperso con 72B parámetros totales y 16B activos, basado en una arquitectura MoE agrupada (MoGE). Agrupa expertos durante la selección y restringe los tokens para activar expertos iguales por grupo, equilibrando la carga y mejorando la eficiencia de implementación en Ascend.",
|
|
251
|
+
"aya.description": "Aya 23 es el modelo multilingüe de Cohere que admite 23 idiomas para diversos casos de uso.",
|
|
252
|
+
"aya:35b.description": "Aya 23 es el modelo multilingüe de Cohere que admite 23 idiomas para diversos casos de uso.",
|
|
253
|
+
"azure-DeepSeek-R1-0528.description": "Desplegado por Microsoft; DeepSeek R1 ha sido actualizado a DeepSeek-R1-0528. La actualización mejora el cómputo y las optimizaciones del algoritmo de postentrenamiento, mejorando significativamente la profundidad de razonamiento y la inferencia. Tiene un rendimiento destacado en matemáticas, programación y lógica general, acercándose a modelos líderes como O3 y Gemini 2.5 Pro.",
|
|
254
|
+
"baichuan-m2-32b.description": "Baichuan M2 32B es un modelo MoE de Baichuan Intelligence con gran capacidad de razonamiento.",
|
|
255
|
+
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B es un modelo LLM de código abierto y uso comercial con 13 mil millones de parámetros de Baichuan, que logra resultados líderes en su clase en pruebas de referencia autorizadas en chino e inglés.",
|
|
256
|
+
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B es un modelo LLM MoE de Baidu con 300 mil millones de parámetros totales y 47 mil millones activos por token, equilibrando un alto rendimiento con eficiencia computacional. Como modelo central de ERNIE 4.5, destaca en comprensión, generación, razonamiento y programación. Utiliza un método de preentrenamiento multimodal heterogéneo MoE con entrenamiento conjunto texto-visión para mejorar su capacidad general, especialmente en seguimiento de instrucciones y conocimiento del mundo.",
|
|
257
|
+
"baidu/ernie-5.0-thinking-preview.description": "Vista previa de ERNIE 5.0 Thinking, el modelo ERNIE multimodal nativo de próxima generación de Baidu, con gran capacidad en comprensión multimodal, seguimiento de instrucciones, creación, preguntas y respuestas basadas en hechos y uso de herramientas.",
|
|
258
|
+
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro es una versión más rápida y mejorada de FLUX Pro, con excelente calidad de imagen y fidelidad a las instrucciones.",
|
|
259
|
+
"black-forest-labs/flux-dev.description": "FLUX Dev es la versión de desarrollo de FLUX para uso no comercial.",
|
|
260
|
+
"black-forest-labs/flux-pro.description": "FLUX Pro es el modelo profesional de FLUX para generación de imágenes de alta calidad.",
|
|
261
|
+
"black-forest-labs/flux-schnell.description": "FLUX Schnell es un modelo de generación de imágenes optimizado para velocidad.",
|
|
262
|
+
"c4ai-aya-expanse-32b.description": "Aya Expanse es un modelo multilingüe de alto rendimiento con 32 mil millones de parámetros que utiliza ajuste por instrucciones, arbitraje de datos, entrenamiento por preferencias y fusión de modelos para competir con modelos monolingües. Soporta 23 idiomas.",
|
|
263
|
+
"c4ai-aya-expanse-8b.description": "Aya Expanse es un modelo multilingüe de alto rendimiento con 8 mil millones de parámetros que utiliza ajuste por instrucciones, arbitraje de datos, entrenamiento por preferencias y fusión de modelos para competir con modelos monolingües. Soporta 23 idiomas.",
|
|
264
|
+
"c4ai-aya-vision-32b.description": "Aya Vision es un modelo multimodal de última generación con excelente rendimiento en pruebas clave de lenguaje, texto y visión. Soporta 23 idiomas. Esta versión de 32 mil millones se enfoca en un rendimiento multilingüe de primer nivel.",
|
|
265
|
+
"c4ai-aya-vision-8b.description": "Aya Vision es un modelo multimodal de última generación con excelente rendimiento en pruebas clave de lenguaje, texto y visión. Esta versión de 8 mil millones se enfoca en baja latencia y alto rendimiento.",
|
|
266
|
+
"charglm-3.description": "CharGLM-3 está diseñado para juegos de rol y compañía emocional, con soporte para memoria de múltiples turnos ultra larga y diálogo personalizado.",
|
|
267
|
+
"charglm-4.description": "CharGLM-4 está diseñado para juegos de rol y compañía emocional, con soporte para memoria de múltiples turnos ultra larga y diálogo personalizado.",
|
|
268
|
+
"chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
|
|
269
|
+
"claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
270
|
+
"claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
271
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior buque insignia Claude 3 Opus en muchas pruebas.",
|
|
272
|
+
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
|
|
273
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, con soporte para respuestas casi instantáneas o pensamiento extendido con control detallado.",
|
|
274
|
+
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
275
|
+
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
|
|
276
|
+
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
277
|
+
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
|
|
278
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y pensamiento extendido.",
|
|
279
|
+
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
|
|
280
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
281
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
282
|
+
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
|
|
283
|
+
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
|
|
284
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o pensamiento paso a paso extendido con control detallado para usuarios de API.",
|
|
285
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
|
|
286
|
+
"codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
|
|
287
|
+
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
|
|
288
|
+
"codegemma.description": "CodeGemma es un modelo ligero para tareas de programación variadas, que permite iteración rápida e integración sencilla.",
|
|
289
|
+
"codegemma:2b.description": "CodeGemma es un modelo ligero para tareas de programación variadas, que permite iteración rápida e integración sencilla.",
|
|
290
|
+
"codellama.description": "Code Llama es un modelo LLM enfocado en generación y discusión de código, con amplio soporte de lenguajes para flujos de trabajo de desarrollo.",
|
|
291
|
+
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama es un modelo LLM enfocado en generación y discusión de código, con amplio soporte de lenguajes para flujos de trabajo de desarrollo.",
|
|
292
|
+
"codellama:13b.description": "Code Llama es un modelo LLM enfocado en generación y discusión de código, con amplio soporte de lenguajes para flujos de trabajo de desarrollo.",
|
|
293
|
+
"codellama:34b.description": "Code Llama es un modelo LLM enfocado en generación y discusión de código, con amplio soporte de lenguajes para flujos de trabajo de desarrollo.",
|
|
294
|
+
"codellama:70b.description": "Code Llama es un modelo LLM enfocado en generación y discusión de código, con amplio soporte de lenguajes para flujos de trabajo de desarrollo.",
|
|
295
|
+
"codeqwen.description": "CodeQwen1.5 es un modelo de lenguaje grande entrenado con datos extensos de código, diseñado para tareas de programación complejas.",
|
|
296
|
+
"codestral-latest.description": "Codestral es nuestro modelo de codificación más avanzado; la versión v2 (enero 2025) está orientada a tareas de baja latencia y alta frecuencia como FIM, corrección de código y generación de pruebas.",
|
|
297
|
+
"codestral.description": "Codestral es el primer modelo de código de Mistral AI, ofreciendo un sólido soporte para generación de código.",
|
|
226
298
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
|
|
227
299
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
|
|
228
300
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
|
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "Herramientas de Tareas",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "Leer contenido de la biblioteca",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Buscar en la biblioteca",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "y {{count}} más",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "Sin resultados",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "Biblioteca",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "Editar archivo",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "Obtener salida del comando",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "Ejecutar comando",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "Buscar archivos",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "Escribir archivo",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "Sin resultados",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "Sistema Local",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Actualizar nodos en lote",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Comparar capturas",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "Leer múltiples páginas",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "Leer contenido de la página",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "Buscar páginas",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "Sin resultados",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "Búsqueda Web",
|
|
147
152
|
"confirm": "Confirmar",
|
|
148
153
|
"debug.arguments": "Argumentos",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
|
|
30
30
|
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
|
|
31
31
|
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
|
|
32
33
|
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
|
|
34
35
|
"modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
|
|
@@ -210,6 +210,92 @@
|
|
|
210
210
|
"accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct نسخه تنظیمشده برای دستورالعمل از Mixtral MoE 8x7B است که API تکمیل گفتوگو در آن فعال شده است.",
|
|
211
211
|
"accounts/fireworks/models/mythomax-l2-13b.description": "نسخه بهبودیافتهای از MythoMix که احتمالاً شکل پالایششدهتری از آن است و با ترکیب MythoLogic-L2 و Huginn با تکنیک ادغام تنسور بسیار تجربی ساخته شده است. ماهیت منحصربهفرد آن را برای داستانسرایی و ایفای نقش عالی میسازد.",
|
|
212
212
|
"accounts/fireworks/models/phi-3-vision-128k-instruct.description": "Phi-3-Vision-128K-Instruct یک مدل چندرسانهای سبک و پیشرفته است که از دادههای مصنوعی و مجموعه دادههای عمومی وب انتخابشده ساخته شده و بر دادههای متنی و تصویری با کیفیت بالا و نیازمند استدلال تمرکز دارد. این مدل متعلق به خانواده Phi-3 است و نسخه چندرسانهای آن از طول زمینه ۱۲۸ هزار توکن پشتیبانی میکند. این مدل تحت بهبودهای دقیق از جمله تنظیم نظارتشده و بهینهسازی مستقیم ترجیح قرار گرفته تا پیروی دقیق از دستورالعمل و اقدامات ایمنی قوی را تضمین کند.",
|
|
213
|
+
"accounts/fireworks/models/qwen-qwq-32b-preview.description": "مدل Qwen QwQ بر پیشرفت در استدلال هوش مصنوعی تمرکز دارد و نشان میدهد که مدلهای باز میتوانند در استدلال با مدلهای پیشرفته بسته رقابت کنند. QwQ-32B-Preview یک نسخه آزمایشی است که با o1 برابری میکند و در استدلال و تحلیل در آزمونهای GPQA، AIME، MATH-500 و LiveCodeBench از GPT-4o و Claude 3.5 Sonnet پیشی میگیرد. توجه: این مدل در حال حاضر بهصورت آزمایشی و بدون سرور ارائه میشود. برای استفاده در محیط تولید، توجه داشته باشید که Fireworks ممکن است این استقرار را بدون اطلاع قبلی متوقف کند.",
|
|
214
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct.description": "مدل ۷۲B Qwen-VL جدیدترین نسخه از سوی علیبابا است که حاصل نزدیک به یک سال نوآوری میباشد.",
|
|
215
|
+
"accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 یک سری مدل زبانی بزرگ فقط رمزگشا است که توسط تیم Qwen و علیبابا کلاد توسعه یافته و در اندازههای 0.5B، 1.5B، 3B، 7B، 14B، 32B و 72B با نسخههای پایه و تنظیمشده برای دستورالعملها ارائه میشود.",
|
|
216
|
+
"accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder جدیدترین مدل زبانی بزرگ Qwen برای برنامهنویسی است (قبلاً با نام CodeQwen شناخته میشد). توجه: این مدل در حال حاضر بهصورت آزمایشی و بدون سرور ارائه میشود. برای استفاده در محیط تولید، توجه داشته باشید که Fireworks ممکن است این استقرار را بدون اطلاع قبلی متوقف کند.",
|
|
217
|
+
"accounts/yi-01-ai/models/yi-large.description": "Yi-Large یک مدل زبانی سطح بالا است که در رتبهبندی LMSYS درست پس از GPT-4، Gemini 1.5 Pro و Claude 3 Opus قرار دارد. این مدل در پشتیبانی از زبانهای چندگانه، بهویژه اسپانیایی، چینی، ژاپنی، آلمانی و فرانسوی، عملکرد برجستهای دارد. Yi-Large همچنین برای توسعهدهندگان مناسب است و از همان ساختار API مشابه OpenAI برای یکپارچهسازی آسان استفاده میکند.",
|
|
218
|
+
"ai21-jamba-1.5-large.description": "مدلی چندزبانه با ۳۹۸ میلیارد پارامتر (۹۴ میلیارد فعال) با پنجره متنی ۲۵۶ هزار توکن، قابلیت فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر دادههای واقعی.",
|
|
219
|
+
"ai21-jamba-1.5-mini.description": "مدلی چندزبانه با ۵۲ میلیارد پارامتر (۱۲ میلیارد فعال) با پنجره متنی ۲۵۶ هزار توکن، قابلیت فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر دادههای واقعی.",
|
|
220
|
+
"ai21-labs/AI21-Jamba-1.5-Large.description": "مدلی چندزبانه با ۳۹۸ میلیارد پارامتر (۹۴ میلیارد فعال) با پنجره متنی ۲۵۶ هزار توکن، قابلیت فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر دادههای واقعی.",
|
|
221
|
+
"ai21-labs/AI21-Jamba-1.5-Mini.description": "مدلی چندزبانه با ۵۲ میلیارد پارامتر (۱۲ میلیارد فعال) با پنجره متنی ۲۵۶ هزار توکن، قابلیت فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر دادههای واقعی.",
|
|
222
|
+
"alibaba/qwen-3-14b.description": "Qwen3 جدیدترین نسل از سری Qwen است که مجموعهای جامع از مدلهای متراکم و MoE را ارائه میدهد. این مدل بر پایه آموزش گسترده ساخته شده و در زمینههای استدلال، پیروی از دستورالعملها، قابلیتهای عاملمحور و پشتیبانی چندزبانه پیشرفتهای چشمگیری دارد.",
|
|
223
|
+
"alibaba/qwen-3-235b.description": "Qwen3 جدیدترین نسل از سری Qwen است که مجموعهای جامع از مدلهای متراکم و MoE را ارائه میدهد. این مدل بر پایه آموزش گسترده ساخته شده و در زمینههای استدلال، پیروی از دستورالعملها، قابلیتهای عاملمحور و پشتیبانی چندزبانه پیشرفتهای چشمگیری دارد.",
|
|
224
|
+
"alibaba/qwen-3-30b.description": "Qwen3 جدیدترین نسل از سری Qwen است که مجموعهای جامع از مدلهای متراکم و MoE را ارائه میدهد. این مدل بر پایه آموزش گسترده ساخته شده و در زمینههای استدلال، پیروی از دستورالعملها، قابلیتهای عاملمحور و پشتیبانی چندزبانه پیشرفتهای چشمگیری دارد.",
|
|
225
|
+
"alibaba/qwen-3-32b.description": "Qwen3 جدیدترین نسل از سری Qwen است که مجموعهای جامع از مدلهای متراکم و MoE را ارائه میدهد. این مدل بر پایه آموزش گسترده ساخته شده و در زمینههای استدلال، پیروی از دستورالعملها، قابلیتهای عاملمحور و پشتیبانی چندزبانه پیشرفتهای چشمگیری دارد.",
|
|
226
|
+
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct پیشرفتهترین مدل برنامهنویسی Qwen است که در وظایف کدنویسی عاملمحور، استفاده از مرورگر توسط عامل و سایر وظایف اصلی برنامهنویسی عملکردی قوی دارد و نتایجی در سطح Claude Sonnet ارائه میدهد.",
|
|
227
|
+
"amazon/nova-lite.description": "مدلی چندوجهی با هزینه بسیار پایین که ورودیهای تصویر، ویدیو و متن را با سرعت بسیار بالا پردازش میکند.",
|
|
228
|
+
"amazon/nova-micro.description": "مدلی فقط متنی با تأخیر بسیار پایین و هزینه بسیار کم.",
|
|
229
|
+
"amazon/nova-pro.description": "مدلی چندوجهی با قابلیت بالا که بهترین تعادل بین دقت، سرعت و هزینه را برای طیف گستردهای از وظایف ارائه میدهد.",
|
|
230
|
+
"amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 یک مدل جاسازی چندزبانه سبک و کارآمد است که از ابعاد ۱۰۲۴، ۵۱۲ و ۲۵۶ پشتیبانی میکند.",
|
|
231
|
+
"anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet استاندارد صنعت را ارتقا داده و در ارزیابیهای گسترده از رقبا و Claude 3 Opus پیشی میگیرد، در حالی که سرعت و هزینه متوسط را حفظ میکند.",
|
|
232
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet استاندارد صنعت را ارتقا داده و در ارزیابیهای گسترده از رقبا و Claude 3 Opus پیشی میگیرد، در حالی که سرعت و هزینه متوسط را حفظ میکند.",
|
|
233
|
+
"anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که پاسخهای تقریباً فوری برای پرسشهای ساده ارائه میدهد. این مدل تجربهای روان و شبیه انسان را فراهم کرده و از ورودی تصویری با پنجره متنی ۲۰۰ هزار توکن پشتیبانی میکند.",
|
|
234
|
+
"anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus قدرتمندترین مدل هوش مصنوعی Anthropic است که در وظایف بسیار پیچیده عملکردی در سطح پیشرفته دارد. این مدل درخواستهای باز و سناریوهای جدید را با روانی و درک انسانی استثنایی مدیریت میکند و از ورودی تصویری با پنجره متنی ۲۰۰ هزار توکن پشتیبانی میکند.",
|
|
235
|
+
"anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet تعادلی بین هوش و سرعت برای بارهای کاری سازمانی فراهم میکند و ارزش بالایی را با هزینه کمتر ارائه میدهد. این مدل برای استقرار گسترده هوش مصنوعی طراحی شده و از ورودی تصویری با پنجره متنی ۲۰۰ هزار توکن پشتیبانی میکند.",
|
|
236
|
+
"anthropic.claude-instant-v1.description": "مدلی سریع، اقتصادی و در عین حال توانمند برای چت روزمره، تحلیل متن، خلاصهسازی و پرسش و پاسخ اسناد.",
|
|
237
|
+
"anthropic.claude-v2.description": "مدلی بسیار توانمند برای وظایف مختلف از گفتوگوی پیچیده و تولید خلاقانه تا پیروی دقیق از دستورالعملها.",
|
|
238
|
+
"anthropic.claude-v2:1.description": "نسخه بهروزشده Claude 2 با دو برابر پنجره متنی و بهبود در قابلیت اطمینان، کاهش توهمات و دقت مبتنی بر شواهد برای اسناد طولانی و بازیابی اطلاعات.",
|
|
239
|
+
"anthropic/claude-3-haiku.description": "Claude 3 Haiku سریعترین مدل Anthropic است که برای بارهای کاری سازمانی با درخواستهای طولانی طراحی شده است. این مدل میتواند اسناد بزرگ مانند گزارشهای فصلی، قراردادها یا پروندههای حقوقی را با نیمی از هزینه رقبا تحلیل کند.",
|
|
240
|
+
"anthropic/claude-3-opus.description": "Claude 3 Opus هوشمندترین مدل Anthropic است که در وظایف بسیار پیچیده عملکردی در سطح بازار دارد و درخواستهای باز و سناریوهای جدید را با روانی و درک انسانی استثنایی مدیریت میکند.",
|
|
241
|
+
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku دارای سرعت بیشتر، دقت بالاتر در کدنویسی و استفاده از ابزارها است و برای سناریوهایی با نیازهای بالا به سرعت و تعامل با ابزارها مناسب است.",
|
|
242
|
+
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet مدل سریع و کارآمد خانواده Sonnet است که عملکرد بهتری در کدنویسی و استدلال ارائه میدهد و برخی نسخههای آن به تدریج با Sonnet 3.7 و نسخههای بعدی جایگزین میشوند.",
|
|
243
|
+
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet نسخه ارتقایافته مدل Sonnet با استدلال و کدنویسی قویتر است که برای وظایف پیچیده در سطح سازمانی مناسب میباشد.",
|
|
244
|
+
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 مدل سریع با عملکرد بالا از Anthropic است که تأخیر بسیار کم را در کنار دقت بالا ارائه میدهد.",
|
|
245
|
+
"anthropic/claude-opus-4.1.description": "Opus 4.1 مدل سطح بالای Anthropic است که برای برنامهنویسی، استدلال پیچیده و وظایف طولانی بهینهسازی شده است.",
|
|
246
|
+
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش سطح بالا را با عملکرد مقیاسپذیر برای وظایف پیچیده و استدلال با کیفیت بالا ترکیب میکند.",
|
|
247
|
+
"anthropic/claude-opus-4.description": "Opus 4 مدل پرچمدار Anthropic است که برای وظایف پیچیده و کاربردهای سازمانی طراحی شده است.",
|
|
248
|
+
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 جدیدترین مدل استدلال ترکیبی Anthropic است که برای استدلال پیچیده و کدنویسی بهینهسازی شده است.",
|
|
249
|
+
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 مدل استدلال ترکیبی Anthropic است که قابلیت تفکر و عدم تفکر را با هم ترکیب میکند.",
|
|
250
|
+
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B یک مدل زبانی پراکنده با ۷۲ میلیارد پارامتر کل و ۱۶ میلیارد پارامتر فعال است که بر پایه معماری MoE گروهبندیشده (MoGE) ساخته شده است. این مدل با گروهبندی متخصصان در زمان انتخاب و محدود کردن فعالسازی توکنها به تعداد مساوی متخصص در هر گروه، تعادل بار را حفظ کرده و بهرهوری استقرار را در پلتفرم Ascend بهبود میبخشد.",
|
|
251
|
+
"aya.description": "Aya 23 مدل چندزبانه شرکت Cohere است که از ۲۳ زبان برای کاربردهای متنوع پشتیبانی میکند.",
|
|
252
|
+
"aya:35b.description": "Aya 23 مدل چندزبانه شرکت Cohere است که از ۲۳ زبان برای کاربردهای متنوع پشتیبانی میکند.",
|
|
253
|
+
"azure-DeepSeek-R1-0528.description": "این مدل توسط مایکروسافت استقرار یافته است؛ DeepSeek R1 به نسخه DeepSeek-R1-0528 ارتقا یافته است. این بهروزرسانی با افزایش توان محاسباتی و بهینهسازی الگوریتمهای پسآموزش، عمق استدلال و استنتاج را بهطور چشمگیری بهبود میبخشد. عملکرد آن در آزمونهای ریاضی، برنامهنویسی و منطق عمومی بسیار قوی است و به مدلهای پیشرو مانند O3 و Gemini 2.5 Pro نزدیک میشود.",
|
|
254
|
+
"baichuan-m2-32b.description": "Baichuan M2 32B یک مدل MoE از شرکت Baichuan Intelligence است که در استدلال عملکرد قدرتمندی دارد.",
|
|
255
|
+
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B یک مدل زبانی منبعباز با ۱۳ میلیارد پارامتر است که برای استفاده تجاری نیز مجاز است. این مدل در آزمونهای معتبر چینی و انگلیسی، بهترین نتایج را در میان مدلهای همرده خود کسب کرده است.",
|
|
256
|
+
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B یک مدل MoE از شرکت Baidu با ۳۰۰ میلیارد پارامتر کل و ۴۷ میلیارد پارامتر فعال به ازای هر توکن است که تعادل بین عملکرد قوی و بهرهوری محاسباتی را برقرار میکند. این مدل بهعنوان هسته اصلی ERNIE 4.5 در درک، تولید، استدلال و برنامهنویسی بسیار توانمند است. با استفاده از روش پیشآموزش چندوجهی ناهمگن MoE و آموزش مشترک متن-تصویر، توانایی کلی خود را بهویژه در پیروی از دستورالعملها و دانش عمومی افزایش داده است.",
|
|
257
|
+
"baidu/ernie-5.0-thinking-preview.description": "پیشنمایش مدل ERNIE 5.0 Thinking نسل بعدی مدل چندوجهی بومی شرکت Baidu است که در درک چندوجهی، پیروی از دستورالعملها، تولید محتوا، پرسش و پاسخ واقعی و استفاده از ابزارها عملکرد بسیار خوبی دارد.",
|
|
258
|
+
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro نسخه سریعتر و بهبودیافته FLUX Pro است که کیفیت تصویر عالی و تبعیت دقیق از دستورات را ارائه میدهد.",
|
|
259
|
+
"black-forest-labs/flux-dev.description": "FLUX Dev نسخه توسعهای مدل FLUX برای استفاده غیرتجاری است.",
|
|
260
|
+
"black-forest-labs/flux-pro.description": "FLUX Pro مدل حرفهای FLUX برای تولید تصاویر با کیفیت بالا است.",
|
|
261
|
+
"black-forest-labs/flux-schnell.description": "FLUX Schnell یک مدل تولید تصویر سریع است که برای سرعت بهینهسازی شده است.",
|
|
262
|
+
"c4ai-aya-expanse-32b.description": "Aya Expanse یک مدل چندزبانه قدرتمند با ۳۲ میلیارد پارامتر است که با استفاده از تنظیمات دستوری، انتخاب داده، آموزش ترجیحی و ادغام مدلها، عملکردی در حد مدلهای تکزبانه ارائه میدهد. این مدل از ۲۳ زبان پشتیبانی میکند.",
|
|
263
|
+
"c4ai-aya-expanse-8b.description": "Aya Expanse یک مدل چندزبانه قدرتمند با ۸ میلیارد پارامتر است که با استفاده از تنظیمات دستوری، انتخاب داده، آموزش ترجیحی و ادغام مدلها، عملکردی در حد مدلهای تکزبانه ارائه میدهد. این مدل از ۲۳ زبان پشتیبانی میکند.",
|
|
264
|
+
"c4ai-aya-vision-32b.description": "Aya Vision یک مدل چندوجهی پیشرفته است که در آزمونهای کلیدی زبان، متن و تصویر عملکرد بسیار خوبی دارد. این نسخه ۳۲ میلیاردی بر عملکرد چندزبانه سطح بالا تمرکز دارد و از ۲۳ زبان پشتیبانی میکند.",
|
|
265
|
+
"c4ai-aya-vision-8b.description": "Aya Vision یک مدل چندوجهی پیشرفته است که در آزمونهای کلیدی زبان، متن و تصویر عملکرد بسیار خوبی دارد. این نسخه ۸ میلیاردی بر تأخیر کم و عملکرد قوی تمرکز دارد.",
|
|
266
|
+
"charglm-3.description": "CharGLM-3 برای نقشآفرینی و همراهی احساسی طراحی شده است و از حافظه چندنوبتی بسیار طولانی و گفتوگوی شخصیسازیشده پشتیبانی میکند.",
|
|
267
|
+
"charglm-4.description": "CharGLM-4 برای نقشآفرینی و همراهی احساسی طراحی شده است و از حافظه چندنوبتی بسیار طولانی و گفتوگوی شخصیسازیشده پشتیبانی میکند.",
|
|
268
|
+
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
269
|
+
"claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
270
|
+
"claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
271
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic است که در مهارتهای مختلف بهبود یافته و در بسیاری از آزمونها از مدل پرچمدار قبلی Claude 3 Opus پیشی گرفته است.",
|
|
272
|
+
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخهای سریع برای وظایف سبک ارائه میدهد.",
|
|
273
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic است و اولین مدل استدلال ترکیبی در بازار محسوب میشود که از پاسخهای تقریباً فوری یا تفکر طولانی با کنترل دقیق پشتیبانی میکند.",
|
|
274
|
+
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
275
|
+
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای پاسخهای تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
|
|
276
|
+
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
277
|
+
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار میکند و با هزینه کمتر، بهرهوری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه میدهد.",
|
|
278
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت فوقالعاده و تفکر گسترده همراه است.",
|
|
279
|
+
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که میتواند فرآیند استدلال خود را آشکار کند.",
|
|
280
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
281
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
282
|
+
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برجسته را با عملکرد مقیاسپذیر ترکیب میکند و برای وظایف پیچیدهای که نیاز به پاسخهای باکیفیت و استدلال دارند، ایدهآل است.",
|
|
283
|
+
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام طولانی با فرآیند قابل مشاهده تولید کند.",
|
|
284
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخهای تقریباً فوری یا تفکر گامبهگام طولانی با کنترل دقیق برای کاربران API ارائه میدهد.",
|
|
285
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
|
|
286
|
+
"codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامهنویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی میکند تا بهرهوری توسعهدهندگان را افزایش دهد.",
|
|
287
|
+
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی میکند و طیف گستردهای از سناریوهای توسعه نرمافزار را پوشش میدهد. این مدل یکی از بهترین مدلهای کد زیر ۱۰ میلیارد پارامتر است.",
|
|
288
|
+
"codegemma.description": "CodeGemma یک مدل سبک برای وظایف متنوع برنامهنویسی است که امکان تکرار سریع و یکپارچهسازی آسان را فراهم میکند.",
|
|
289
|
+
"codegemma:2b.description": "CodeGemma یک مدل سبک برای وظایف متنوع برنامهنویسی است که امکان تکرار سریع و یکپارچهسازی آسان را فراهم میکند.",
|
|
290
|
+
"codellama.description": "Code Llama یک مدل زبانی بزرگ متمرکز بر تولید و بحث در مورد کد است که از زبانهای مختلف برای جریانهای کاری توسعهدهندگان پشتیبانی میکند.",
|
|
291
|
+
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama یک مدل زبانی بزرگ متمرکز بر تولید و بحث در مورد کد است که از زبانهای مختلف برای جریانهای کاری توسعهدهندگان پشتیبانی میکند.",
|
|
292
|
+
"codellama:13b.description": "Code Llama یک مدل زبانی بزرگ متمرکز بر تولید و بحث در مورد کد است که از زبانهای مختلف برای جریانهای کاری توسعهدهندگان پشتیبانی میکند.",
|
|
293
|
+
"codellama:34b.description": "Code Llama یک مدل زبانی بزرگ متمرکز بر تولید و بحث در مورد کد است که از زبانهای مختلف برای جریانهای کاری توسعهدهندگان پشتیبانی میکند.",
|
|
294
|
+
"codellama:70b.description": "Code Llama یک مدل زبانی بزرگ متمرکز بر تولید و بحث در مورد کد است که از زبانهای مختلف برای جریانهای کاری توسعهدهندگان پشتیبانی میکند.",
|
|
295
|
+
"codeqwen.description": "CodeQwen1.5 یک مدل زبانی بزرگ است که بر پایه دادههای گسترده کد آموزش دیده و برای وظایف پیچیده برنامهنویسی طراحی شده است.",
|
|
296
|
+
"codestral-latest.description": "Codestral پیشرفتهترین مدل کدنویسی ماست؛ نسخه v2 (ژانویه ۲۰۲۵) برای وظایف با تأخیر کم و فرکانس بالا مانند FIM، اصلاح کد و تولید تست بهینه شده است.",
|
|
297
|
+
"codestral.description": "Codestral اولین مدل کدنویسی از Mistral AI است که پشتیبانی قوی برای تولید کد ارائه میدهد.",
|
|
298
|
+
"codex-mini-latest.description": "codex-mini-latest نسخه تنظیمشده مدل o4-mini برای رابط خط فرمان Codex است. برای استفاده مستقیم از API، توصیه میشود با gpt-4.1 شروع کنید.",
|
|
213
299
|
"meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعهدهندگان، پژوهشگران و شرکتها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد طراحی شده است. این مدل بهعنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیطهایی با منابع محدود، دستگاههای لبه و زمانهای آموزش سریع مناسب است.",
|
|
214
300
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری.",
|
|
215
301
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامههای عامل با قابلیت درک بصری.",
|
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "ابزارهای وظیفه",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "خواندن محتوای کتابخانه",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "جستجوی کتابخانه",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "و {{count}} مورد دیگر",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "نتیجهای یافت نشد",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "کتابخانه",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "ویرایش فایل",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "دریافت خروجی فرمان",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "اجرای فرمان",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "جستجوی فایلها",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "نوشتن فایل",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "نتیجهای یافت نشد",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "سیستم محلی",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "بهروزرسانی دستهای گرهها",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "مقایسه نسخهها",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "خواندن چندین صفحه",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "خواندن محتوای صفحه",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "جستجوی صفحات",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "نتیجهای یافت نشد",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "جستجوی وب",
|
|
147
152
|
"confirm": "تأیید",
|
|
148
153
|
"debug.arguments": "آرگومانها",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "یک سازمان متنباز متمرکز بر تحقیقات مدلهای بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه میدهد تا مدلها و الگوریتمهای پیشرفته را در دسترس قرار دهد.",
|
|
30
30
|
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدلهای برداری، رتبهبندها و مدلهای زبانی کوچک برای ساخت اپلیکیشنهای جستجوی مولد و چندوجهی با کیفیت بالا است.",
|
|
31
31
|
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدلهای زبانی بزرگ روی رایانه شخصی شماست.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud از رابطهای برنامهنویسی رسمی برای دسترسی به مدلهای هوش مصنوعی استفاده میکند و مصرف را با اعتباراتی که به توکنهای مدل وابستهاند، اندازهگیری میکند.",
|
|
32
33
|
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدلهای پایه چندوجهی از جمله مدلهای متنی با پارامترهای تریلیونی، مدلهای گفتاری و تصویری توسعه میدهد و اپهایی مانند Hailuo AI را ارائه میکند.",
|
|
33
34
|
"mistral.description": "Mistral مدلهای عمومی، تخصصی و تحقیقاتی پیشرفتهای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه میدهد و از فراخوانی توابع برای یکپارچهسازی سفارشی پشتیبانی میکند.",
|
|
34
35
|
"modelscope.description": "ModelScope پلتفرم مدل بهعنوانسرویس Alibaba Cloud است که مجموعهای گسترده از مدلهای هوش مصنوعی و خدمات استنتاج را ارائه میدهد.",
|
|
@@ -247,6 +247,55 @@
|
|
|
247
247
|
"anthropic/claude-opus-4.description": "Opus 4 est le modèle phare d’Anthropic, conçu pour les tâches complexes et les applications en entreprise.",
|
|
248
248
|
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 est le dernier modèle hybride de raisonnement d’Anthropic, optimisé pour le raisonnement complexe et la programmation.",
|
|
249
249
|
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 est un modèle hybride de raisonnement d’Anthropic, combinant des capacités de réflexion et d’exécution directe.",
|
|
250
|
+
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B est un modèle LLM parcimonieux avec 72 milliards de paramètres au total et 16 milliards actifs, basé sur une architecture MoE groupée (MoGE). Il regroupe les experts lors de la sélection et contraint les jetons à activer un nombre égal d'experts par groupe, équilibrant ainsi la charge et améliorant l'efficacité du déploiement sur Ascend.",
|
|
251
|
+
"aya.description": "Aya 23 est le modèle multilingue de Cohere prenant en charge 23 langues pour une grande variété de cas d’usage.",
|
|
252
|
+
"aya:35b.description": "Aya 23 est le modèle multilingue de Cohere prenant en charge 23 langues pour une grande variété de cas d’usage.",
|
|
253
|
+
"azure-DeepSeek-R1-0528.description": "Déployé par Microsoft, DeepSeek R1 a été mis à jour vers DeepSeek-R1-0528. Cette mise à jour améliore la puissance de calcul et les algorithmes de post-entraînement, renforçant considérablement la profondeur de raisonnement et les capacités d’inférence. Il offre d’excellentes performances en mathématiques, en programmation et en logique générale, rivalisant avec les modèles de pointe comme O3 et Gemini 2.5 Pro.",
|
|
254
|
+
"baichuan-m2-32b.description": "Baichuan M2 32B est un modèle MoE développé par Baichuan Intelligence, doté de solides capacités de raisonnement.",
|
|
255
|
+
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B est un LLM open source de 13 milliards de paramètres, utilisable commercialement, développé par Baichuan. Il atteint des performances de premier plan pour sa taille sur des benchmarks chinois et anglais reconnus.",
|
|
256
|
+
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B est un LLM MoE de Baidu avec 300 milliards de paramètres au total et 47 milliards actifs par jeton, alliant hautes performances et efficacité de calcul. En tant que modèle central d’ERNIE 4.5, il excelle en compréhension, génération, raisonnement et programmation. Il utilise une méthode de pré-entraînement multimodale hétérogène MoE avec un apprentissage conjoint texte-image pour renforcer ses capacités globales, notamment le suivi d’instructions et les connaissances générales.",
|
|
257
|
+
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview est le modèle ERNIE multimodal de nouvelle génération de Baidu, performant en compréhension multimodale, suivi d’instructions, création, questions-réponses factuelles et utilisation d’outils.",
|
|
258
|
+
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro est une version plus rapide et améliorée de FLUX Pro, offrant une excellente qualité d’image et un respect précis des instructions.",
|
|
259
|
+
"black-forest-labs/flux-dev.description": "FLUX Dev est la version de développement de FLUX, destinée à un usage non commercial.",
|
|
260
|
+
"black-forest-labs/flux-pro.description": "FLUX Pro est le modèle professionnel de FLUX, conçu pour une production d’images de haute qualité.",
|
|
261
|
+
"black-forest-labs/flux-schnell.description": "FLUX Schnell est un modèle de génération d’images rapide, optimisé pour la vitesse.",
|
|
262
|
+
"c4ai-aya-expanse-32b.description": "Aya Expanse est un modèle multilingue haute performance de 32 milliards de paramètres, utilisant l’ajustement par instruction, l’arbitrage de données, l’entraînement par préférence et la fusion de modèles pour rivaliser avec les modèles monolingues. Il prend en charge 23 langues.",
|
|
263
|
+
"c4ai-aya-expanse-8b.description": "Aya Expanse est un modèle multilingue haute performance de 8 milliards de paramètres, utilisant l’ajustement par instruction, l’arbitrage de données, l’entraînement par préférence et la fusion de modèles pour rivaliser avec les modèles monolingues. Il prend en charge 23 langues.",
|
|
264
|
+
"c4ai-aya-vision-32b.description": "Aya Vision est un modèle multimodal de pointe performant sur les principaux benchmarks de langue, texte et vision. Cette version 32B est axée sur des performances multilingues de haut niveau et prend en charge 23 langues.",
|
|
265
|
+
"c4ai-aya-vision-8b.description": "Aya Vision est un modèle multimodal de pointe performant sur les principaux benchmarks de langue, texte et vision. Cette version 8B est optimisée pour une faible latence et de bonnes performances.",
|
|
266
|
+
"charglm-3.description": "CharGLM-3 est conçu pour le jeu de rôle et la compagnie émotionnelle, avec une mémoire multi-tours ultra-longue et des dialogues personnalisés.",
|
|
267
|
+
"charglm-4.description": "CharGLM-4 est conçu pour le jeu de rôle et la compagnie émotionnelle, avec une mémoire multi-tours ultra-longue et des dialogues personnalisés.",
|
|
268
|
+
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
|
|
269
|
+
"claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
270
|
+
"claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
271
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic, amélioré sur de nombreuses compétences et surpassant l’ancien modèle phare Claude 3 Opus sur plusieurs benchmarks.",
|
|
272
|
+
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
|
|
273
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent d’Anthropic et le premier modèle de raisonnement hybride sur le marché, capable de fournir des réponses instantanées ou une réflexion approfondie avec un contrôle précis.",
|
|
274
|
+
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
275
|
+
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
|
|
276
|
+
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
277
|
+
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
|
|
278
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, combinant vitesse fulgurante et réflexion approfondie.",
|
|
279
|
+
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
|
|
280
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
281
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
282
|
+
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
|
|
283
|
+
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
|
|
284
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d’Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion détaillée avec un contrôle précis pour les utilisateurs d’API.",
|
|
285
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
|
|
286
|
+
"codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
|
|
287
|
+
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
|
|
288
|
+
"codegemma.description": "CodeGemma est un modèle léger pour diverses tâches de programmation, permettant une itération rapide et une intégration facile.",
|
|
289
|
+
"codegemma:2b.description": "CodeGemma est un modèle léger pour diverses tâches de programmation, permettant une itération rapide et une intégration facile.",
|
|
290
|
+
"codellama.description": "Code Llama est un LLM spécialisé dans la génération et la discussion de code, avec une large prise en charge des langages pour les flux de travail des développeurs.",
|
|
291
|
+
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama est un LLM spécialisé dans la génération et la discussion de code, avec une large prise en charge des langages pour les flux de travail des développeurs.",
|
|
292
|
+
"codellama:13b.description": "Code Llama est un LLM spécialisé dans la génération et la discussion de code, avec une large prise en charge des langages pour les flux de travail des développeurs.",
|
|
293
|
+
"codellama:34b.description": "Code Llama est un LLM spécialisé dans la génération et la discussion de code, avec une large prise en charge des langages pour les flux de travail des développeurs.",
|
|
294
|
+
"codellama:70b.description": "Code Llama est un LLM spécialisé dans la génération et la discussion de code, avec une large prise en charge des langages pour les flux de travail des développeurs.",
|
|
295
|
+
"codeqwen.description": "CodeQwen1.5 est un grand modèle de langage entraîné sur de vastes données de code, conçu pour des tâches de programmation complexes.",
|
|
296
|
+
"codestral-latest.description": "Codestral est notre modèle de codage le plus avancé ; la version v2 (janvier 2025) cible les tâches à faible latence et haute fréquence comme FIM, la correction de code et la génération de tests.",
|
|
297
|
+
"codestral.description": "Codestral est le premier modèle de code de Mistral AI, offrant un excellent support pour la génération de code.",
|
|
298
|
+
"codex-mini-latest.description": "codex-mini-latest est un modèle o4-mini affiné pour l'interface en ligne de commande Codex. Pour une utilisation directe via l'API, nous recommandons de commencer avec gpt-4.1.",
|
|
250
299
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
|
|
251
300
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
|
|
252
301
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
|
|
@@ -73,6 +73,8 @@
|
|
|
73
73
|
"builtins.lobe-gtd.title": "Outils de tâches",
|
|
74
74
|
"builtins.lobe-knowledge-base.apiName.readKnowledge": "Lire le contenu de la Bibliothèque",
|
|
75
75
|
"builtins.lobe-knowledge-base.apiName.searchKnowledgeBase": "Rechercher dans la Bibliothèque",
|
|
76
|
+
"builtins.lobe-knowledge-base.inspector.andMoreFiles": "et {{count}} de plus",
|
|
77
|
+
"builtins.lobe-knowledge-base.inspector.noResults": "Aucun résultat",
|
|
76
78
|
"builtins.lobe-knowledge-base.title": "Bibliothèque",
|
|
77
79
|
"builtins.lobe-local-system.apiName.editLocalFile": "Modifier le fichier",
|
|
78
80
|
"builtins.lobe-local-system.apiName.getCommandOutput": "Obtenir la sortie de la commande",
|
|
@@ -86,6 +88,8 @@
|
|
|
86
88
|
"builtins.lobe-local-system.apiName.runCommand": "Exécuter la commande",
|
|
87
89
|
"builtins.lobe-local-system.apiName.searchLocalFiles": "Rechercher des fichiers",
|
|
88
90
|
"builtins.lobe-local-system.apiName.writeLocalFile": "Écrire dans le fichier",
|
|
91
|
+
"builtins.lobe-local-system.inspector.noResults": "Aucun résultat",
|
|
92
|
+
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
89
93
|
"builtins.lobe-local-system.title": "Système local",
|
|
90
94
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Mettre à jour plusieurs nœuds",
|
|
91
95
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Comparer les instantanés",
|
|
@@ -143,6 +147,7 @@
|
|
|
143
147
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "Lire plusieurs pages",
|
|
144
148
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "Lire le contenu de la page",
|
|
145
149
|
"builtins.lobe-web-browsing.apiName.search": "Rechercher des pages",
|
|
150
|
+
"builtins.lobe-web-browsing.inspector.noResults": "Aucun résultat",
|
|
146
151
|
"builtins.lobe-web-browsing.title": "Recherche Web",
|
|
147
152
|
"confirm": "Confirmer",
|
|
148
153
|
"debug.arguments": "Arguments",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
|
|
30
30
|
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
|
|
31
31
|
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de Crédits liés aux jetons des modèles.",
|
|
32
33
|
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
|
|
34
35
|
"modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
|