@lobehub/lobehub 2.0.0-next.272 → 2.0.0-next.274
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +59 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +7 -0
- package/locales/ar/common.json +1 -1
- package/locales/ar/discover.json +2 -2
- package/locales/ar/models.json +40 -12
- package/locales/ar/onboarding.json +1 -1
- package/locales/ar/plugin.json +22 -1
- package/locales/ar/providers.json +0 -1
- package/locales/bg-BG/chat.json +7 -0
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/discover.json +2 -2
- package/locales/bg-BG/models.json +48 -13
- package/locales/bg-BG/onboarding.json +1 -1
- package/locales/bg-BG/plugin.json +22 -1
- package/locales/bg-BG/providers.json +0 -1
- package/locales/de-DE/chat.json +7 -0
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/discover.json +2 -2
- package/locales/de-DE/models.json +37 -13
- package/locales/de-DE/onboarding.json +3 -0
- package/locales/de-DE/plugin.json +22 -1
- package/locales/de-DE/providers.json +0 -1
- package/locales/en-US/chat.json +7 -0
- package/locales/en-US/discover.json +2 -2
- package/locales/en-US/models.json +15 -15
- package/locales/en-US/plugin.json +22 -1
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/chat.json +7 -0
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/discover.json +2 -2
- package/locales/es-ES/models.json +32 -14
- package/locales/es-ES/onboarding.json +3 -0
- package/locales/es-ES/plugin.json +22 -1
- package/locales/es-ES/providers.json +0 -1
- package/locales/fa-IR/chat.json +7 -0
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/discover.json +2 -2
- package/locales/fa-IR/models.json +36 -14
- package/locales/fa-IR/onboarding.json +3 -0
- package/locales/fa-IR/plugin.json +22 -1
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fr-FR/chat.json +7 -0
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/discover.json +2 -2
- package/locales/fr-FR/models.json +95 -13
- package/locales/fr-FR/onboarding.json +3 -0
- package/locales/fr-FR/plugin.json +22 -1
- package/locales/fr-FR/providers.json +0 -1
- package/locales/it-IT/chat.json +7 -0
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/discover.json +2 -2
- package/locales/it-IT/models.json +8 -13
- package/locales/it-IT/onboarding.json +3 -0
- package/locales/it-IT/plugin.json +22 -1
- package/locales/it-IT/providers.json +0 -1
- package/locales/ja-JP/chat.json +7 -0
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/discover.json +2 -2
- package/locales/ja-JP/models.json +76 -8
- package/locales/ja-JP/onboarding.json +3 -0
- package/locales/ja-JP/plugin.json +22 -1
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ko-KR/chat.json +7 -0
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/discover.json +2 -2
- package/locales/ko-KR/models.json +8 -15
- package/locales/ko-KR/onboarding.json +3 -0
- package/locales/ko-KR/plugin.json +22 -1
- package/locales/ko-KR/providers.json +0 -1
- package/locales/nl-NL/chat.json +7 -0
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/discover.json +2 -2
- package/locales/nl-NL/models.json +98 -9
- package/locales/nl-NL/onboarding.json +3 -0
- package/locales/nl-NL/plugin.json +22 -1
- package/locales/nl-NL/providers.json +0 -1
- package/locales/pl-PL/chat.json +7 -0
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/discover.json +2 -2
- package/locales/pl-PL/models.json +38 -13
- package/locales/pl-PL/onboarding.json +3 -0
- package/locales/pl-PL/plugin.json +22 -1
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pt-BR/chat.json +7 -0
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/discover.json +2 -2
- package/locales/pt-BR/models.json +50 -13
- package/locales/pt-BR/onboarding.json +3 -0
- package/locales/pt-BR/plugin.json +22 -1
- package/locales/pt-BR/providers.json +0 -1
- package/locales/ru-RU/chat.json +7 -0
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/discover.json +2 -2
- package/locales/ru-RU/models.json +54 -13
- package/locales/ru-RU/onboarding.json +3 -0
- package/locales/ru-RU/plugin.json +22 -1
- package/locales/ru-RU/providers.json +0 -1
- package/locales/tr-TR/chat.json +7 -0
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/discover.json +2 -2
- package/locales/tr-TR/models.json +40 -13
- package/locales/tr-TR/onboarding.json +3 -0
- package/locales/tr-TR/plugin.json +22 -1
- package/locales/tr-TR/providers.json +0 -1
- package/locales/vi-VN/chat.json +7 -0
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/discover.json +2 -2
- package/locales/vi-VN/models.json +8 -8
- package/locales/vi-VN/onboarding.json +3 -0
- package/locales/vi-VN/plugin.json +22 -1
- package/locales/vi-VN/providers.json +0 -1
- package/locales/zh-CN/chat.json +7 -0
- package/locales/zh-CN/discover.json +2 -2
- package/locales/zh-CN/models.json +95 -13
- package/locales/zh-CN/onboarding.json +3 -0
- package/locales/zh-CN/plugin.json +22 -1
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/chat.json +7 -0
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/discover.json +2 -2
- package/locales/zh-TW/models.json +86 -13
- package/locales/zh-TW/onboarding.json +3 -0
- package/locales/zh-TW/plugin.json +22 -1
- package/locales/zh-TW/providers.json +0 -1
- package/package.json +1 -1
- package/packages/builtin-tool-agent-builder/package.json +1 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/GetAvailableModels/index.tsx +66 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/InstallPlugin/index.tsx +63 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/SearchMarketTools/index.tsx +64 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/UpdateConfig/index.tsx +94 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/UpdatePrompt/index.tsx +96 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/index.ts +29 -0
- package/packages/builtin-tool-agent-builder/src/client/index.ts +13 -0
- package/packages/builtin-tool-agent-builder/src/executor.ts +132 -0
- package/packages/builtin-tool-cloud-sandbox/src/client/Inspector/ExecuteCode/index.tsx +5 -14
- package/packages/builtin-tool-cloud-sandbox/src/client/Inspector/RunCommand/index.tsx +5 -13
- package/packages/builtin-tool-group-agent-builder/package.json +7 -1
- package/packages/builtin-tool-group-agent-builder/src/ExecutionRuntime/index.ts +331 -87
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/BatchCreateAgents/index.tsx +110 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/CreateAgent/index.tsx +72 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/InviteAgent/index.tsx +57 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/RemoveAgent/index.tsx +57 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/SearchAgent/index.tsx +66 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateAgentPrompt/index.tsx +120 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateGroup/index.tsx +87 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateGroupPrompt/index.tsx +99 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/index.ts +52 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/BatchCreateAgents.tsx +103 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/UpdateAgentPrompt/index.tsx +36 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/UpdateGroupPrompt/index.tsx +36 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/index.ts +16 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/BatchCreateAgents/index.tsx +88 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/UpdateAgentPrompt/index.tsx +37 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/UpdateGroupPrompt/index.tsx +35 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/index.ts +22 -0
- package/packages/builtin-tool-group-agent-builder/src/client/index.ts +26 -0
- package/packages/builtin-tool-group-agent-builder/src/executor.ts +284 -0
- package/packages/builtin-tool-group-agent-builder/src/index.ts +1 -14
- package/packages/builtin-tool-group-agent-builder/src/manifest.ts +160 -15
- package/packages/builtin-tool-group-agent-builder/src/systemRole.ts +232 -46
- package/packages/builtin-tool-group-agent-builder/src/types.ts +191 -41
- package/packages/builtin-tool-group-management/src/client/Inspector/Broadcast/index.tsx +2 -2
- package/packages/builtin-tool-group-management/src/manifest.ts +1 -1
- package/packages/builtin-tool-gtd/src/client/Inspector/ClearTodos/index.tsx +5 -11
- package/packages/builtin-tool-gtd/src/client/Inspector/CompleteTodos/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/CreatePlan/index.tsx +6 -15
- package/packages/builtin-tool-gtd/src/client/Inspector/CreateTodos/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +6 -17
- package/packages/builtin-tool-gtd/src/client/Inspector/RemoveTodos/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/UpdatePlan/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/UpdateTodos/index.tsx +3 -9
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/ReadKnowledge/index.tsx +4 -16
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/SearchKnowledgeBase/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/EditLocalFile/index.tsx +4 -12
- package/packages/builtin-tool-local-system/src/client/Inspector/GlobLocalFiles/index.tsx +5 -13
- package/packages/builtin-tool-local-system/src/client/Inspector/GrepContent/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/ListLocalFiles/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/ReadLocalFile/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/RenameLocalFile/index.tsx +5 -11
- package/packages/builtin-tool-local-system/src/client/Inspector/RunCommand/index.tsx +5 -13
- package/packages/builtin-tool-local-system/src/client/Inspector/SearchLocalFiles/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/WriteLocalFile/index.tsx +6 -15
- package/packages/builtin-tool-notebook/src/client/Inspector/CreateDocument/index.tsx +7 -15
- package/packages/builtin-tool-page-agent/src/client/Inspector/EditTitle/index.tsx +5 -14
- package/packages/builtin-tool-page-agent/src/client/Inspector/GetPageContent/index.tsx +7 -8
- package/packages/builtin-tool-page-agent/src/client/Inspector/InitPage/index.tsx +4 -10
- package/packages/builtin-tool-page-agent/src/client/Inspector/ModifyNodes/index.tsx +3 -9
- package/packages/builtin-tool-page-agent/src/client/Inspector/ReplaceText/index.tsx +5 -11
- package/packages/builtin-tool-web-browsing/src/client/Inspector/CrawlMultiPages/index.tsx +6 -15
- package/packages/builtin-tool-web-browsing/src/client/Inspector/CrawlSinglePage/index.tsx +6 -15
- package/packages/builtin-tool-web-browsing/src/client/Inspector/Search/index.tsx +4 -15
- package/packages/database/src/models/chatGroup.ts +1 -1
- package/packages/model-bank/src/aiModels/aihubmix.ts +2 -1
- package/packages/model-bank/src/aiModels/google.ts +2 -1
- package/packages/model-bank/src/aiModels/infiniai.ts +9 -6
- package/packages/model-bank/src/aiModels/minimax.ts +9 -5
- package/packages/model-bank/src/aiModels/ollamacloud.ts +4 -2
- package/packages/model-bank/src/aiModels/vertexai.ts +2 -1
- package/packages/types/src/agentGroup/index.ts +8 -0
- package/patches/@upstash__qstash.patch +13 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Header/Nav.tsx +1 -1
- package/src/app/[variants]/(main)/agent/cron/[cronId]/index.tsx +4 -3
- package/src/app/[variants]/(main)/agent/profile/features/ProfileEditor/index.tsx +1 -1
- package/src/app/[variants]/(main)/agent/profile/features/store/action.ts +18 -21
- package/src/app/[variants]/(main)/group/_layout/GroupIdSync.tsx +6 -1
- package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/AgentProfilePopup.tsx +29 -21
- package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/GroupMember.tsx +1 -0
- package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/GroupMemberItem.tsx +35 -18
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/AddTopicButon.tsx +2 -10
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/Nav.tsx +10 -2
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/index.tsx +1 -2
- package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/AgentBuilderProvider.tsx +1 -0
- package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/TopicSelector.tsx +15 -9
- package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/index.tsx +12 -6
- package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor/AgentHeader.tsx → GroupProfile/GroupHeader.tsx} +22 -29
- package/src/app/[variants]/(main)/group/profile/features/GroupProfile/index.tsx +96 -0
- package/src/app/[variants]/(main)/group/profile/features/Header/AgentBuilderToggle.tsx +3 -4
- package/src/app/[variants]/(main)/group/profile/features/Header/AutoSaveHint.tsx +11 -7
- package/src/app/[variants]/(main)/group/profile/features/Header/ChromeTabs/index.tsx +147 -0
- package/src/app/[variants]/(main)/group/profile/features/Header/index.tsx +104 -13
- package/src/app/[variants]/(main)/group/profile/features/MemberProfile/AgentHeader.tsx +222 -0
- package/src/app/[variants]/(main)/group/profile/features/MemberProfile/index.tsx +155 -0
- package/src/app/[variants]/(main)/group/profile/features/ProfileHydration.tsx +63 -5
- package/src/app/[variants]/(main)/group/profile/index.tsx +34 -37
- package/src/app/[variants]/(mobile)/(home)/_layout/SessionHydration.tsx +1 -1
- package/src/app/[variants]/(mobile)/(home)/features/SessionListContent/List/Item/index.tsx +1 -1
- package/src/features/AgentBuilder/index.tsx +16 -1
- package/src/features/Conversation/Messages/AssistantGroup/Tool/Inspector/StatusIndicator.tsx +3 -2
- package/src/features/EditorCanvas/EditorCanvas.test.tsx +206 -0
- package/src/features/EditorCanvas/EditorDataMode.tsx +53 -19
- package/src/features/EditorModal/index.tsx +2 -2
- package/src/features/NavPanel/components/SessionHydration.tsx +1 -1
- package/src/features/ShareModal/ShareImage/ChatList/index.tsx +1 -1
- package/src/features/ShareModal/SharePdf/index.tsx +1 -1
- package/src/hooks/useBidirectionalQuerySync.ts +112 -0
- package/src/locales/default/chat.ts +10 -0
- package/src/locales/default/plugin.ts +22 -1
- package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +45 -45
- package/src/server/modules/KeyVaultsEncrypt/index.ts +6 -6
- package/src/server/modules/S3/index.ts +1 -1
- package/src/server/routers/lambda/agent.ts +24 -0
- package/src/server/routers/lambda/agentGroup.ts +39 -0
- package/src/services/agent.ts +22 -0
- package/src/services/chatGroup/index.ts +14 -0
- package/src/store/agent/selectors/selectors.ts +3 -0
- package/src/store/agentGroup/initialState.ts +6 -0
- package/src/store/agentGroup/selectors/byId.ts +3 -1
- package/src/store/agentGroup/selectors/current.ts +2 -2
- package/src/store/agentGroup/slices/lifecycle.ts +18 -0
- package/src/store/chat/agents/__tests__/createAgentExecutors/fixtures/mockStore.ts +1 -1
- package/src/store/chat/slices/aiAgent/actions/__tests__/agentGroup.test.ts +4 -1
- package/src/store/chat/slices/aiAgent/actions/agentGroup.ts +1 -1
- package/src/store/chat/slices/aiChat/actions/__tests__/conversationLifecycle.test.ts +65 -0
- package/src/store/chat/slices/aiChat/actions/conversationLifecycle.ts +2 -1
- package/src/store/chat/slices/builtinTool/actions/__tests__/search.test.ts +1 -1
- package/src/store/chat/slices/builtinTool/actions/index.ts +1 -6
- package/src/store/chat/slices/message/action.test.ts +5 -5
- package/src/store/chat/slices/message/actions/publicApi.ts +5 -5
- package/src/store/chat/slices/message/initialState.ts +0 -5
- package/src/store/chat/slices/message/selectors/displayMessage.test.ts +4 -4
- package/src/store/chat/slices/plugin/action.test.ts +54 -19
- package/src/store/chat/slices/plugin/actions/pluginTypes.ts +15 -21
- package/src/store/chat/slices/topic/action.test.ts +74 -24
- package/src/store/chat/slices/topic/action.ts +21 -13
- package/src/store/chat/slices/topic/selectors.test.ts +1 -1
- package/src/store/global/initialState.ts +10 -0
- package/src/store/global/selectors/systemStatus.ts +5 -0
- package/src/store/groupProfile/action.ts +168 -0
- package/src/store/groupProfile/index.ts +16 -0
- package/src/{app/[variants]/(main)/group/profile/features/store → store/groupProfile}/initialState.ts +17 -0
- package/src/store/groupProfile/selectors.ts +13 -0
- package/src/store/tool/slices/builtin/executors/index.ts +4 -0
- package/src/styles/text.ts +16 -0
- package/src/tools/inspectors.ts +13 -0
- package/src/tools/renders.ts +3 -0
- package/src/tools/streamings.ts +8 -0
- package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/TypoBar.tsx +0 -129
- package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/index.tsx +0 -138
- package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/useSlashItems.tsx +0 -139
- package/src/app/[variants]/(main)/group/profile/features/ProfileEditor/index.tsx +0 -82
- package/src/app/[variants]/(main)/group/profile/features/ProfileProvider.tsx +0 -20
- package/src/app/[variants]/(main)/group/profile/features/StoreUpdater.tsx +0 -24
- package/src/app/[variants]/(main)/group/profile/features/store/action.ts +0 -163
- package/src/app/[variants]/(main)/group/profile/features/store/index.ts +0 -23
- package/src/app/[variants]/(main)/group/profile/features/store/selectors.ts +0 -7
- package/src/features/EditorModal/EditorCanvas.tsx +0 -84
- package/src/features/EditorModal/Typobar.tsx +0 -139
- package/src/store/chat/slices/builtinTool/actions/agentBuilder.ts +0 -192
- package/src/store/chat/slices/builtinTool/actions/groupAgentBuilder.ts +0 -242
- package/src/tools/executionRuntimes.ts +0 -14
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/AgentTool.tsx +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/MentionDropdown.tsx +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/index.tsx +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/types.ts +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/useMentionItems.tsx +0 -0
|
@@ -73,9 +73,9 @@
|
|
|
73
73
|
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick is a large MoE model with efficient expert activation for strong reasoning performance.",
|
|
74
74
|
"MiniMax-M1.description": "A new in-house reasoning model with 80K chain-of-thought and 1M input, delivering performance comparable to top global models.",
|
|
75
75
|
"MiniMax-M2-Stable.description": "Built for efficient coding and agent workflows, with higher concurrency for commercial use.",
|
|
76
|
-
"MiniMax-M2.1-Lightning.description": "
|
|
77
|
-
"MiniMax-M2.1.description": "
|
|
78
|
-
"MiniMax-M2.description": "
|
|
76
|
+
"MiniMax-M2.1-Lightning.description": "Powerful multilingual programming capabilities, comprehensively upgraded programming experience. Faster and more efficient.",
|
|
77
|
+
"MiniMax-M2.1.description": "Powerful multilingual programming capabilities, comprehensively upgraded programming experience",
|
|
78
|
+
"MiniMax-M2.description": "Built specifically for efficient coding and Agent workflows",
|
|
79
79
|
"MiniMax-Text-01.description": "MiniMax-01 introduces large-scale linear attention beyond classic Transformers, with 456B parameters and 45.9B activated per pass. It achieves top-tier performance and supports up to 4M tokens of context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
|
80
80
|
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is an open-weights large-scale hybrid-attention reasoning model with 456B total parameters and ~45.9B active per token. It natively supports 1M context and uses Flash Attention to cut FLOPs by 75% on 100K-token generation vs DeepSeek R1. With an MoE architecture plus CISPO and hybrid-attention RL training, it achieves leading performance on long-input reasoning and real software engineering tasks.",
|
|
81
81
|
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefines agent efficiency. It is a compact, fast, cost-effective MoE model with 230B total and 10B active parameters, built for top-tier coding and agent tasks while retaining strong general intelligence. With only 10B active parameters, it rivals much larger models, making it ideal for high-efficiency applications.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model,
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic’s most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team
|
|
483
|
-
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
|
|
483
|
+
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
|
|
484
484
|
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
|
|
486
486
|
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
|
|
@@ -526,7 +526,7 @@
|
|
|
526
526
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
|
|
527
527
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
|
|
528
528
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
|
|
529
|
-
"gemini-3-flash-preview.description": "Gemini 3 Flash
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash is the smartest model built for speed, combining cutting-edge intelligence with excellent search grounding.",
|
|
530
530
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话。",
|
|
531
531
|
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google’s image generation model and also supports multimodal chat.",
|
|
532
532
|
"gemini-3-pro-preview.description": "Gemini 3 Pro is Google’s most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
|
|
@@ -865,7 +865,7 @@
|
|
|
865
865
|
"mimo-v2-flash.description": "MiMo-V2-Flash: An efficient model for reasoning, coding, and agent foundations.",
|
|
866
866
|
"minicpm-v.description": "MiniCPM-V is OpenBMB’s next-generation multimodal model with excellent OCR and multimodal understanding for wide-ranging use cases.",
|
|
867
867
|
"minimax-m2.1.description": "MiniMax-M2.1 是 MiniMax 系列的最新版本,专为多语言编程和真实世界复杂任务优化。作为一款 AI 原生模型,MiniMax-M2.1 在模型性能、智能体框架支持以及多场景适配方面实现了显著提升,旨在帮助企业和个人更快地找到 AI 原生的工作与生活方式。",
|
|
868
|
-
"minimax-m2.description": "MiniMax M2
|
|
868
|
+
"minimax-m2.description": "MiniMax M2 is an efficient large language model built specifically for coding and agent workflows.",
|
|
869
869
|
"minimax/minimax-m2.description": "MiniMax-M2 is a high-value model that excels at coding and agent tasks for many engineering scenarios.",
|
|
870
870
|
"minimaxai/minimax-m2.description": "MiniMax-M2 is a compact, fast, cost-effective MoE model (230B total, 10B active) built for top-tier coding and agent performance while retaining strong general intelligence. It excels at multi-file edits, code-run-fix loops, test validation, and complex toolchains.",
|
|
871
871
|
"ministral-3b-latest.description": "Ministral 3B is Mistral’s top-tier edge model.",
|
|
@@ -5,6 +5,7 @@
|
|
|
5
5
|
"builtins.lobe-agent-builder.apiName.getConfig": "Get config",
|
|
6
6
|
"builtins.lobe-agent-builder.apiName.getMeta": "Get metadata",
|
|
7
7
|
"builtins.lobe-agent-builder.apiName.getPrompt": "Get system prompt",
|
|
8
|
+
"builtins.lobe-agent-builder.apiName.installPlugin": "Install Skill",
|
|
8
9
|
"builtins.lobe-agent-builder.apiName.searchMarketTools": "Search Skill market",
|
|
9
10
|
"builtins.lobe-agent-builder.apiName.searchOfficialTools": "Search official Skills",
|
|
10
11
|
"builtins.lobe-agent-builder.apiName.setModel": "Set model",
|
|
@@ -15,6 +16,12 @@
|
|
|
15
16
|
"builtins.lobe-agent-builder.apiName.updateConfig": "Update config",
|
|
16
17
|
"builtins.lobe-agent-builder.apiName.updateMeta": "Update metadata",
|
|
17
18
|
"builtins.lobe-agent-builder.apiName.updatePrompt": "Update system prompt",
|
|
19
|
+
"builtins.lobe-agent-builder.inspector.chars": " chars",
|
|
20
|
+
"builtins.lobe-agent-builder.inspector.disablePlugin": "Disable",
|
|
21
|
+
"builtins.lobe-agent-builder.inspector.enablePlugin": "Enable",
|
|
22
|
+
"builtins.lobe-agent-builder.inspector.modelsCount": "{{count}} models",
|
|
23
|
+
"builtins.lobe-agent-builder.inspector.noResults": "No results",
|
|
24
|
+
"builtins.lobe-agent-builder.inspector.togglePlugin": "Toggle",
|
|
18
25
|
"builtins.lobe-agent-builder.title": "Agent Builder Expert",
|
|
19
26
|
"builtins.lobe-cloud-sandbox.apiName.editLocalFile": "Edit file",
|
|
20
27
|
"builtins.lobe-cloud-sandbox.apiName.executeCode": "Execute code",
|
|
@@ -31,13 +38,27 @@
|
|
|
31
38
|
"builtins.lobe-cloud-sandbox.apiName.searchLocalFiles": "Search files",
|
|
32
39
|
"builtins.lobe-cloud-sandbox.apiName.writeLocalFile": "Write file",
|
|
33
40
|
"builtins.lobe-cloud-sandbox.title": "Cloud Sandbox",
|
|
41
|
+
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Batch create agents",
|
|
42
|
+
"builtins.lobe-group-agent-builder.apiName.createAgent": "Create agent",
|
|
34
43
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Get available models",
|
|
35
44
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Install Skill",
|
|
36
45
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "Invite member",
|
|
37
46
|
"builtins.lobe-group-agent-builder.apiName.removeAgent": "Remove member",
|
|
47
|
+
"builtins.lobe-group-agent-builder.apiName.searchAgent": "Search agents",
|
|
38
48
|
"builtins.lobe-group-agent-builder.apiName.searchMarketTools": "Search Skill market",
|
|
39
49
|
"builtins.lobe-group-agent-builder.apiName.updateAgentConfig": "Update agent config",
|
|
40
|
-
"builtins.lobe-group-agent-builder.apiName.
|
|
50
|
+
"builtins.lobe-group-agent-builder.apiName.updateAgentPrompt": "Update agent prompt",
|
|
51
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroup": "Update group",
|
|
52
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroupPrompt": "Update group prompt",
|
|
53
|
+
"builtins.lobe-group-agent-builder.apiName.updateSupervisorPrompt": "Update supervisor prompt",
|
|
54
|
+
"builtins.lobe-group-agent-builder.inspector.agents": "agents",
|
|
55
|
+
"builtins.lobe-group-agent-builder.inspector.avatar": "Avatar",
|
|
56
|
+
"builtins.lobe-group-agent-builder.inspector.backgroundColor": "Background color",
|
|
57
|
+
"builtins.lobe-group-agent-builder.inspector.description": "Description",
|
|
58
|
+
"builtins.lobe-group-agent-builder.inspector.noResults": "No results",
|
|
59
|
+
"builtins.lobe-group-agent-builder.inspector.openingMessage": "Opening message",
|
|
60
|
+
"builtins.lobe-group-agent-builder.inspector.openingQuestions": "Opening questions",
|
|
61
|
+
"builtins.lobe-group-agent-builder.inspector.title": "Title",
|
|
41
62
|
"builtins.lobe-group-agent-builder.title": "Group Builder Expert",
|
|
42
63
|
"builtins.lobe-group-management.apiName.broadcast": "All speak",
|
|
43
64
|
"builtins.lobe-group-management.apiName.createAgent": "Add group member",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
|
|
30
30
|
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
|
|
31
31
|
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
|
|
33
32
|
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
|
|
35
34
|
"modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
|
package/locales/es-ES/chat.json
CHANGED
|
@@ -71,11 +71,18 @@
|
|
|
71
71
|
"group.desc": "Avanza una tarea con múltiples Agentes en un espacio compartido.",
|
|
72
72
|
"group.memberTooltip": "Hay {{count}} miembros en el grupo",
|
|
73
73
|
"group.orchestratorThinking": "El Orquestador está pensando...",
|
|
74
|
+
"group.profile.contentPlaceholder": "Establece aquí los objetivos y modos de trabajo del grupo. Esta información será compartida con todos los miembros del grupo.",
|
|
75
|
+
"group.profile.external": "Externo",
|
|
76
|
+
"group.profile.externalAgentWarning": "Este es un agente externo. Los cambios realizados aquí modificarán directamente la configuración original del agente.",
|
|
77
|
+
"group.profile.groupSettings": "Configuración del grupo",
|
|
78
|
+
"group.profile.supervisor": "Supervisor",
|
|
79
|
+
"group.profile.supervisorPlaceholder": "El supervisor coordina a los distintos agentes. Al establecer la información del supervisor aquí, se permite una coordinación del flujo de trabajo más precisa.",
|
|
74
80
|
"group.removeMember": "Eliminar miembro",
|
|
75
81
|
"group.title": "Grupo",
|
|
76
82
|
"groupDescription": "Descripción del grupo",
|
|
77
83
|
"groupSidebar.agentProfile.chat": "Chat",
|
|
78
84
|
"groupSidebar.agentProfile.model": "Modelo",
|
|
85
|
+
"groupSidebar.agentProfile.settings": "Configuración",
|
|
79
86
|
"groupSidebar.members.addMember": "Agregar miembro",
|
|
80
87
|
"groupSidebar.members.enableOrchestrator": "Habilitar Orquestador",
|
|
81
88
|
"groupSidebar.members.memberSettings": "Configuración de miembros",
|
|
@@ -134,6 +134,8 @@
|
|
|
134
134
|
"cmdk.search.communityAgent": "Agente de la comunidad",
|
|
135
135
|
"cmdk.search.file": "Archivo",
|
|
136
136
|
"cmdk.search.files": "Archivos",
|
|
137
|
+
"cmdk.search.folder": "Carpeta",
|
|
138
|
+
"cmdk.search.folders": "Carpetas",
|
|
137
139
|
"cmdk.search.loading": "Buscando...",
|
|
138
140
|
"cmdk.search.market": "Comunidad",
|
|
139
141
|
"cmdk.search.mcp": "Servidor MCP",
|
|
@@ -56,12 +56,12 @@
|
|
|
56
56
|
"assistants.more": "Más",
|
|
57
57
|
"assistants.plugins": "Habilidades Integradas",
|
|
58
58
|
"assistants.recentSubmits": "Actualizaciones Recientes",
|
|
59
|
-
"assistants.sorts.recommended": "Recomendado",
|
|
60
59
|
"assistants.sorts.createdAt": "Recientemente Publicado",
|
|
61
60
|
"assistants.sorts.identifier": "ID del Agente",
|
|
62
61
|
"assistants.sorts.knowledgeCount": "Bibliotecas",
|
|
63
62
|
"assistants.sorts.myown": "Ver Mis Agentes",
|
|
64
63
|
"assistants.sorts.pluginCount": "Habilidades",
|
|
64
|
+
"assistants.sorts.recommended": "Recomendado",
|
|
65
65
|
"assistants.sorts.title": "Nombre del Agente",
|
|
66
66
|
"assistants.sorts.tokenUsage": "Uso de Tokens",
|
|
67
67
|
"assistants.status.archived.reasons.official": "La plataforma eliminó este Agente por motivos de seguridad, políticas u otras preocupaciones.",
|
|
@@ -83,12 +83,12 @@
|
|
|
83
83
|
"assistants.withKnowledge": "Este Agente incluye Bibliotecas",
|
|
84
84
|
"assistants.withPlugin": "Este Agente incluye Habilidades",
|
|
85
85
|
"back": "Volver al Descubrimiento",
|
|
86
|
-
"category.assistant.discover": "Descubrir",
|
|
87
86
|
"category.assistant.academic": "Académico",
|
|
88
87
|
"category.assistant.all": "Todos",
|
|
89
88
|
"category.assistant.career": "Carrera",
|
|
90
89
|
"category.assistant.copywriting": "Redacción",
|
|
91
90
|
"category.assistant.design": "Diseño",
|
|
91
|
+
"category.assistant.discover": "Descubrir",
|
|
92
92
|
"category.assistant.education": "Educación",
|
|
93
93
|
"category.assistant.emotions": "Emociones",
|
|
94
94
|
"category.assistant.entertainment": "Entretenimiento",
|
|
@@ -73,9 +73,9 @@
|
|
|
73
73
|
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick es un modelo MoE grande con activación eficiente de expertos para un rendimiento sólido en razonamiento.",
|
|
74
74
|
"MiniMax-M1.description": "Nuevo modelo de razonamiento interno con 80K de cadena de pensamiento y 1M de entrada, con rendimiento comparable a los mejores modelos globales.",
|
|
75
75
|
"MiniMax-M2-Stable.description": "Diseñado para codificación eficiente y flujos de trabajo de agentes, con mayor concurrencia para uso comercial.",
|
|
76
|
-
"MiniMax-M2.1-Lightning.description": "
|
|
77
|
-
"MiniMax-M2.1.description": "
|
|
78
|
-
"MiniMax-M2.description": "Diseñado para una codificación eficiente y flujos de trabajo con agentes",
|
|
76
|
+
"MiniMax-M2.1-Lightning.description": "Potentes capacidades de programación multilingüe, experiencia de desarrollo completamente mejorada. Más rápido y eficiente.",
|
|
77
|
+
"MiniMax-M2.1.description": "Potentes capacidades de programación multilingüe, experiencia de desarrollo completamente mejorada",
|
|
78
|
+
"MiniMax-M2.description": "Diseñado específicamente para una codificación eficiente y flujos de trabajo con agentes",
|
|
79
79
|
"MiniMax-Text-01.description": "MiniMax-01 introduce atención lineal a gran escala más allá de los Transformers clásicos, con 456B de parámetros y 45.9B activados por paso. Logra rendimiento de primer nivel y admite hasta 4M tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
|
80
80
|
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 es un modelo de razonamiento híbrido de gran escala con pesos abiertos, 456B de parámetros totales y ~45.9B activos por token. Admite nativamente 1M de contexto y utiliza Flash Attention para reducir FLOPs en un 75% en generación de 100K tokens frente a DeepSeek R1. Con arquitectura MoE más CISPO y entrenamiento híbrido con atención y RL, logra rendimiento líder en razonamiento con entradas largas y tareas reales de ingeniería de software.",
|
|
81
81
|
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefine la eficiencia de los agentes. Es un modelo MoE compacto, rápido y rentable con 230B totales y 10B parámetros activos, diseñado para tareas de codificación y agentes de alto nivel, manteniendo una inteligencia general sólida. Con solo 10B activos, rivaliza con modelos mucho más grandes, ideal para aplicaciones de alta eficiencia.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al modelo anterior más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso que los usuarios pueden seguir. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agentes.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Un nuevo modelo de código abierto que combina habilidades generales y de programación. Conserva el diálogo general del modelo conversacional y la sólida capacidad de codificación del modelo de programación, con una mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
|
|
379
379
|
"deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "El modo de razonamiento DeepSeek V3.2 genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen, con una generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "
|
|
483
|
-
"fal-ai/qwen-image.description": "
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen que permite ediciones semánticas y de apariencia, edita texto en chino e inglés con precisión y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con una impresionante representación de texto en chino y una amplia variedad de estilos visuales.",
|
|
484
484
|
"flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
|
|
486
486
|
"flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
|
|
@@ -526,7 +526,6 @@
|
|
|
526
526
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
|
527
527
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
|
528
528
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
|
529
|
-
"gemini-3-flash-preview.description": "Gemini 3 Flash es el modelo más inteligente diseñado para la velocidad, combinando inteligencia de vanguardia con una integración excepcional con la búsqueda.",
|
|
530
529
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, compatible también con chat multimodal.",
|
|
531
530
|
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, compatible también con chat multimodal.",
|
|
532
531
|
"gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre un razonamiento de última generación.",
|
|
@@ -573,6 +572,25 @@
|
|
|
573
572
|
"glm-z1-flashx.description": "Rápido y de bajo costo: versión Flash mejorada con razonamiento ultrarrápido y mayor concurrencia.",
|
|
574
573
|
"glm-zero-preview.description": "GLM-Zero-Preview ofrece razonamiento complejo sólido, destacando en lógica, matemáticas y programación.",
|
|
575
574
|
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, que combina inteligencia excepcional y rendimiento escalable para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
|
|
575
|
+
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash ofrece capacidades de nueva generación, incluyendo excelente velocidad, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
|
|
576
|
+
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental es el modelo multimodal experimental más reciente de Google, con mejoras de calidad respecto a versiones anteriores, especialmente en conocimiento del mundo, código y contexto largo.",
|
|
577
|
+
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite es una variante ligera de Gemini con el razonamiento desactivado por defecto para mejorar la latencia y el costo, aunque puede activarse mediante parámetros.",
|
|
578
|
+
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite ofrece funciones de nueva generación como velocidad excepcional, uso integrado de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
|
|
579
|
+
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash es el modelo de razonamiento de alto rendimiento de Google para tareas multimodales extendidas.",
|
|
580
|
+
"google/gemini-2.5-flash-image-free.description": "Nivel gratuito de Gemini 2.5 Flash Image con generación multimodal de cuota limitada.",
|
|
581
|
+
"google/gemini-2.5-flash-image-preview.description": "Modelo experimental Gemini 2.5 Flash con soporte para generación de imágenes.",
|
|
582
|
+
"google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) es el modelo de generación de imágenes de Google con soporte para conversación multimodal.",
|
|
583
|
+
"google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite es la variante ligera de Gemini 2.5 optimizada para latencia y costo, ideal para escenarios de alto rendimiento.",
|
|
584
|
+
"google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash es el modelo insignia más avanzado de Google, diseñado para tareas de razonamiento, programación, matemáticas y ciencia. Incluye razonamiento integrado para ofrecer respuestas más precisas con un procesamiento de contexto más fino.\n\nNota: Este modelo tiene dos variantes: con y sin razonamiento. El precio de salida varía significativamente según si el razonamiento está activado. Si eliges la variante estándar (sin el sufijo “:thinking”), el modelo evitará explícitamente generar tokens de razonamiento.\n\nPara usar el razonamiento y recibir tokens de razonamiento, debes seleccionar la variante “:thinking”, que conlleva un precio de salida más alto.\n\nGemini 2.5 Flash también puede configurarse mediante el parámetro “max reasoning tokens” como se documenta (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
|
|
585
|
+
"google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash es el modelo insignia más avanzado de Google, diseñado para tareas de razonamiento, programación, matemáticas y ciencia. Incluye razonamiento integrado para ofrecer respuestas más precisas con un procesamiento de contexto más fino.\n\nNota: Este modelo tiene dos variantes: con y sin razonamiento. El precio de salida varía significativamente según si el razonamiento está activado. Si eliges la variante estándar (sin el sufijo “:thinking”), el modelo evitará explícitamente generar tokens de razonamiento.\n\nPara usar el razonamiento y recibir tokens de razonamiento, debes seleccionar la variante “:thinking”, que conlleva un precio de salida más alto.\n\nGemini 2.5 Flash también puede configurarse mediante el parámetro “max reasoning tokens” como se documenta (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
|
|
586
|
+
"google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) es la familia de modelos de Google que abarca desde baja latencia hasta razonamiento de alto rendimiento.",
|
|
587
|
+
"google/gemini-2.5-pro-free.description": "El nivel gratuito de Gemini 2.5 Pro ofrece generación multimodal de contexto largo con cuota limitada, ideal para pruebas y flujos de trabajo ligeros.",
|
|
588
|
+
"google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google para resolver problemas complejos en código, matemáticas y STEM, y para analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
|
589
|
+
"google/gemini-2.5-pro.description": "Gemini 2.5 Pro es el modelo insignia de razonamiento de Google con soporte de contexto largo para tareas complejas.",
|
|
590
|
+
"google/gemini-3-pro-image-preview-free.description": "Nivel gratuito de Gemini 3 Pro Image con generación multimodal de cuota limitada.",
|
|
591
|
+
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google con soporte para conversación multimodal.",
|
|
592
|
+
"google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free ofrece la misma comprensión y razonamiento multimodal que la versión estándar, pero con límites de cuota y frecuencia, ideal para pruebas y uso ocasional.",
|
|
593
|
+
"google/gemini-3-pro-preview.description": "Gemini 3 Pro es el modelo de razonamiento multimodal de nueva generación de la familia Gemini, capaz de comprender texto, audio, imágenes y video, y manejar tareas complejas y grandes bases de código.",
|
|
576
594
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
|
|
577
595
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
|
|
578
596
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
|
|
@@ -12,6 +12,9 @@
|
|
|
12
12
|
"interests.area.writing": "Creación de Contenido",
|
|
13
13
|
"interests.hint": "Puedes cambiar esto en cualquier momento desde la configuración",
|
|
14
14
|
"interests.placeholder": "Escribe tus intereses...",
|
|
15
|
+
"interests.title": "¿En qué áreas estás interesado?",
|
|
16
|
+
"interests.title2": "Esto me ayudará a conocerte mejor",
|
|
17
|
+
"interests.title3": "Tómate tu tiempo, así podré conocerte mejor",
|
|
15
18
|
"modeSelection.desc": "Elige el modo que mejor se adapte a ti",
|
|
16
19
|
"modeSelection.hint": "Puedes cambiar esto en cualquier momento desde la configuración",
|
|
17
20
|
"modeSelection.lite.desc": "Ideal para conversaciones cotidianas, preguntas y respuestas, productividad ligera y probar modelos",
|
|
@@ -5,6 +5,7 @@
|
|
|
5
5
|
"builtins.lobe-agent-builder.apiName.getConfig": "Obtener configuración",
|
|
6
6
|
"builtins.lobe-agent-builder.apiName.getMeta": "Obtener metadatos",
|
|
7
7
|
"builtins.lobe-agent-builder.apiName.getPrompt": "Obtener mensaje del sistema",
|
|
8
|
+
"builtins.lobe-agent-builder.apiName.installPlugin": "Instalar habilidad",
|
|
8
9
|
"builtins.lobe-agent-builder.apiName.searchMarketTools": "Buscar en el mercado de habilidades",
|
|
9
10
|
"builtins.lobe-agent-builder.apiName.searchOfficialTools": "Buscar habilidades oficiales",
|
|
10
11
|
"builtins.lobe-agent-builder.apiName.setModel": "Establecer modelo",
|
|
@@ -15,6 +16,12 @@
|
|
|
15
16
|
"builtins.lobe-agent-builder.apiName.updateConfig": "Actualizar configuración",
|
|
16
17
|
"builtins.lobe-agent-builder.apiName.updateMeta": "Actualizar metadatos",
|
|
17
18
|
"builtins.lobe-agent-builder.apiName.updatePrompt": "Actualizar mensaje del sistema",
|
|
19
|
+
"builtins.lobe-agent-builder.inspector.chars": " caracteres",
|
|
20
|
+
"builtins.lobe-agent-builder.inspector.disablePlugin": "Desactivar",
|
|
21
|
+
"builtins.lobe-agent-builder.inspector.enablePlugin": "Activar",
|
|
22
|
+
"builtins.lobe-agent-builder.inspector.modelsCount": "{{count}} modelos",
|
|
23
|
+
"builtins.lobe-agent-builder.inspector.noResults": "Sin resultados",
|
|
24
|
+
"builtins.lobe-agent-builder.inspector.togglePlugin": "Alternar",
|
|
18
25
|
"builtins.lobe-agent-builder.title": "Experto en Creación de Agentes",
|
|
19
26
|
"builtins.lobe-cloud-sandbox.apiName.editLocalFile": "Editar archivo",
|
|
20
27
|
"builtins.lobe-cloud-sandbox.apiName.executeCode": "Ejecutar código",
|
|
@@ -31,13 +38,27 @@
|
|
|
31
38
|
"builtins.lobe-cloud-sandbox.apiName.searchLocalFiles": "Buscar archivos",
|
|
32
39
|
"builtins.lobe-cloud-sandbox.apiName.writeLocalFile": "Escribir archivo",
|
|
33
40
|
"builtins.lobe-cloud-sandbox.title": "Sandbox en la Nube",
|
|
41
|
+
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Crear agentes en lote",
|
|
42
|
+
"builtins.lobe-group-agent-builder.apiName.createAgent": "Crear agente",
|
|
34
43
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Obtener modelos disponibles",
|
|
35
44
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Instalar habilidad",
|
|
36
45
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "Invitar miembro",
|
|
37
46
|
"builtins.lobe-group-agent-builder.apiName.removeAgent": "Eliminar miembro",
|
|
47
|
+
"builtins.lobe-group-agent-builder.apiName.searchAgent": "Buscar agentes",
|
|
38
48
|
"builtins.lobe-group-agent-builder.apiName.searchMarketTools": "Buscar en el mercado de habilidades",
|
|
39
49
|
"builtins.lobe-group-agent-builder.apiName.updateAgentConfig": "Actualizar configuración del agente",
|
|
40
|
-
"builtins.lobe-group-agent-builder.apiName.
|
|
50
|
+
"builtins.lobe-group-agent-builder.apiName.updateAgentPrompt": "Actualizar prompt del agente",
|
|
51
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroup": "Actualizar grupo",
|
|
52
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroupPrompt": "Actualizar prompt del grupo",
|
|
53
|
+
"builtins.lobe-group-agent-builder.apiName.updateSupervisorPrompt": "Actualizar prompt del supervisor",
|
|
54
|
+
"builtins.lobe-group-agent-builder.inspector.agents": "agentes",
|
|
55
|
+
"builtins.lobe-group-agent-builder.inspector.avatar": "Avatar",
|
|
56
|
+
"builtins.lobe-group-agent-builder.inspector.backgroundColor": "Color de fondo",
|
|
57
|
+
"builtins.lobe-group-agent-builder.inspector.description": "Descripción",
|
|
58
|
+
"builtins.lobe-group-agent-builder.inspector.noResults": "Sin resultados",
|
|
59
|
+
"builtins.lobe-group-agent-builder.inspector.openingMessage": "Mensaje de bienvenida",
|
|
60
|
+
"builtins.lobe-group-agent-builder.inspector.openingQuestions": "Preguntas iniciales",
|
|
61
|
+
"builtins.lobe-group-agent-builder.inspector.title": "Título",
|
|
41
62
|
"builtins.lobe-group-agent-builder.title": "Experto en Creación de Grupos",
|
|
42
63
|
"builtins.lobe-group-management.apiName.broadcast": "Hablan todos",
|
|
43
64
|
"builtins.lobe-group-management.apiName.createAgent": "Agregar miembro al grupo",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
|
|
30
30
|
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
|
|
31
31
|
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
|
|
33
32
|
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
|
|
35
34
|
"modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
|
package/locales/fa-IR/chat.json
CHANGED
|
@@ -71,11 +71,18 @@
|
|
|
71
71
|
"group.desc": "با چند عامل در یک فضای مشترک، یک وظیفه را پیش ببرید.",
|
|
72
72
|
"group.memberTooltip": "{{count}} عضو در گروه وجود دارد",
|
|
73
73
|
"group.orchestratorThinking": "هماهنگکننده در حال تفکر است...",
|
|
74
|
+
"group.profile.contentPlaceholder": "اهداف گروه/شیوههای کاری را اینجا تنظیم کنید. این اطلاعات با تمام اعضای گروه به اشتراک گذاشته خواهد شد.",
|
|
75
|
+
"group.profile.external": "خارجی",
|
|
76
|
+
"group.profile.externalAgentWarning": "این یک عامل خارجی است. تغییراتی که در اینجا اعمال میشود، مستقیماً پیکربندی اصلی عامل را تغییر میدهد.",
|
|
77
|
+
"group.profile.groupSettings": "تنظیمات گروه",
|
|
78
|
+
"group.profile.supervisor": "ناظر",
|
|
79
|
+
"group.profile.supervisorPlaceholder": "ناظر هماهنگکنندهی عوامل مختلف است. تنظیم اطلاعات ناظر در اینجا امکان هماهنگی دقیقتر جریان کار را فراهم میکند.",
|
|
74
80
|
"group.removeMember": "حذف عضو",
|
|
75
81
|
"group.title": "گروه",
|
|
76
82
|
"groupDescription": "توضیحات گروه",
|
|
77
83
|
"groupSidebar.agentProfile.chat": "گفتگو",
|
|
78
84
|
"groupSidebar.agentProfile.model": "مدل",
|
|
85
|
+
"groupSidebar.agentProfile.settings": "تنظیمات",
|
|
79
86
|
"groupSidebar.members.addMember": "افزودن عضو",
|
|
80
87
|
"groupSidebar.members.enableOrchestrator": "فعالسازی هماهنگکننده",
|
|
81
88
|
"groupSidebar.members.memberSettings": "تنظیمات اعضا",
|
|
@@ -134,6 +134,8 @@
|
|
|
134
134
|
"cmdk.search.communityAgent": "عامل انجمن",
|
|
135
135
|
"cmdk.search.file": "فایل",
|
|
136
136
|
"cmdk.search.files": "فایلها",
|
|
137
|
+
"cmdk.search.folder": "پوشه",
|
|
138
|
+
"cmdk.search.folders": "پوشهها",
|
|
137
139
|
"cmdk.search.loading": "در حال جستجو...",
|
|
138
140
|
"cmdk.search.market": "انجمن",
|
|
139
141
|
"cmdk.search.mcp": "سرور MCP",
|
|
@@ -56,12 +56,12 @@
|
|
|
56
56
|
"assistants.more": "بیشتر",
|
|
57
57
|
"assistants.plugins": "مهارتهای یکپارچه",
|
|
58
58
|
"assistants.recentSubmits": "بهروزرسانیهای اخیر",
|
|
59
|
-
"assistants.sorts.recommended": "پیشنهادی",
|
|
60
59
|
"assistants.sorts.createdAt": "تازهترینها",
|
|
61
60
|
"assistants.sorts.identifier": "شناسه عامل",
|
|
62
61
|
"assistants.sorts.knowledgeCount": "تعداد کتابخانهها",
|
|
63
62
|
"assistants.sorts.myown": "مشاهده عوامل من",
|
|
64
63
|
"assistants.sorts.pluginCount": "تعداد مهارتها",
|
|
64
|
+
"assistants.sorts.recommended": "پیشنهادی",
|
|
65
65
|
"assistants.sorts.title": "نام عامل",
|
|
66
66
|
"assistants.sorts.tokenUsage": "مصرف توکن",
|
|
67
67
|
"assistants.status.archived.reasons.official": "این عامل به دلایل امنیتی، سیاستی یا سایر موارد توسط پلتفرم حذف شده است.",
|
|
@@ -83,12 +83,12 @@
|
|
|
83
83
|
"assistants.withKnowledge": "این عامل شامل کتابخانهها است",
|
|
84
84
|
"assistants.withPlugin": "این عامل شامل مهارتها است",
|
|
85
85
|
"back": "بازگشت به اکتشاف",
|
|
86
|
-
"category.assistant.discover": "اکتشاف",
|
|
87
86
|
"category.assistant.academic": "آکادمیک",
|
|
88
87
|
"category.assistant.all": "همه",
|
|
89
88
|
"category.assistant.career": "شغلی",
|
|
90
89
|
"category.assistant.copywriting": "کپیرایتینگ",
|
|
91
90
|
"category.assistant.design": "طراحی",
|
|
91
|
+
"category.assistant.discover": "اکتشاف",
|
|
92
92
|
"category.assistant.education": "آموزشی",
|
|
93
93
|
"category.assistant.emotions": "احساسی",
|
|
94
94
|
"category.assistant.entertainment": "سرگرمی",
|