@lobehub/lobehub 2.0.0-next.272 → 2.0.0-next.274
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +59 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +7 -0
- package/locales/ar/common.json +1 -1
- package/locales/ar/discover.json +2 -2
- package/locales/ar/models.json +40 -12
- package/locales/ar/onboarding.json +1 -1
- package/locales/ar/plugin.json +22 -1
- package/locales/ar/providers.json +0 -1
- package/locales/bg-BG/chat.json +7 -0
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/discover.json +2 -2
- package/locales/bg-BG/models.json +48 -13
- package/locales/bg-BG/onboarding.json +1 -1
- package/locales/bg-BG/plugin.json +22 -1
- package/locales/bg-BG/providers.json +0 -1
- package/locales/de-DE/chat.json +7 -0
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/discover.json +2 -2
- package/locales/de-DE/models.json +37 -13
- package/locales/de-DE/onboarding.json +3 -0
- package/locales/de-DE/plugin.json +22 -1
- package/locales/de-DE/providers.json +0 -1
- package/locales/en-US/chat.json +7 -0
- package/locales/en-US/discover.json +2 -2
- package/locales/en-US/models.json +15 -15
- package/locales/en-US/plugin.json +22 -1
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/chat.json +7 -0
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/discover.json +2 -2
- package/locales/es-ES/models.json +32 -14
- package/locales/es-ES/onboarding.json +3 -0
- package/locales/es-ES/plugin.json +22 -1
- package/locales/es-ES/providers.json +0 -1
- package/locales/fa-IR/chat.json +7 -0
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/discover.json +2 -2
- package/locales/fa-IR/models.json +36 -14
- package/locales/fa-IR/onboarding.json +3 -0
- package/locales/fa-IR/plugin.json +22 -1
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fr-FR/chat.json +7 -0
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/discover.json +2 -2
- package/locales/fr-FR/models.json +95 -13
- package/locales/fr-FR/onboarding.json +3 -0
- package/locales/fr-FR/plugin.json +22 -1
- package/locales/fr-FR/providers.json +0 -1
- package/locales/it-IT/chat.json +7 -0
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/discover.json +2 -2
- package/locales/it-IT/models.json +8 -13
- package/locales/it-IT/onboarding.json +3 -0
- package/locales/it-IT/plugin.json +22 -1
- package/locales/it-IT/providers.json +0 -1
- package/locales/ja-JP/chat.json +7 -0
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/discover.json +2 -2
- package/locales/ja-JP/models.json +76 -8
- package/locales/ja-JP/onboarding.json +3 -0
- package/locales/ja-JP/plugin.json +22 -1
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ko-KR/chat.json +7 -0
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/discover.json +2 -2
- package/locales/ko-KR/models.json +8 -15
- package/locales/ko-KR/onboarding.json +3 -0
- package/locales/ko-KR/plugin.json +22 -1
- package/locales/ko-KR/providers.json +0 -1
- package/locales/nl-NL/chat.json +7 -0
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/discover.json +2 -2
- package/locales/nl-NL/models.json +98 -9
- package/locales/nl-NL/onboarding.json +3 -0
- package/locales/nl-NL/plugin.json +22 -1
- package/locales/nl-NL/providers.json +0 -1
- package/locales/pl-PL/chat.json +7 -0
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/discover.json +2 -2
- package/locales/pl-PL/models.json +38 -13
- package/locales/pl-PL/onboarding.json +3 -0
- package/locales/pl-PL/plugin.json +22 -1
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pt-BR/chat.json +7 -0
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/discover.json +2 -2
- package/locales/pt-BR/models.json +50 -13
- package/locales/pt-BR/onboarding.json +3 -0
- package/locales/pt-BR/plugin.json +22 -1
- package/locales/pt-BR/providers.json +0 -1
- package/locales/ru-RU/chat.json +7 -0
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/discover.json +2 -2
- package/locales/ru-RU/models.json +54 -13
- package/locales/ru-RU/onboarding.json +3 -0
- package/locales/ru-RU/plugin.json +22 -1
- package/locales/ru-RU/providers.json +0 -1
- package/locales/tr-TR/chat.json +7 -0
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/discover.json +2 -2
- package/locales/tr-TR/models.json +40 -13
- package/locales/tr-TR/onboarding.json +3 -0
- package/locales/tr-TR/plugin.json +22 -1
- package/locales/tr-TR/providers.json +0 -1
- package/locales/vi-VN/chat.json +7 -0
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/discover.json +2 -2
- package/locales/vi-VN/models.json +8 -8
- package/locales/vi-VN/onboarding.json +3 -0
- package/locales/vi-VN/plugin.json +22 -1
- package/locales/vi-VN/providers.json +0 -1
- package/locales/zh-CN/chat.json +7 -0
- package/locales/zh-CN/discover.json +2 -2
- package/locales/zh-CN/models.json +95 -13
- package/locales/zh-CN/onboarding.json +3 -0
- package/locales/zh-CN/plugin.json +22 -1
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/chat.json +7 -0
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/discover.json +2 -2
- package/locales/zh-TW/models.json +86 -13
- package/locales/zh-TW/onboarding.json +3 -0
- package/locales/zh-TW/plugin.json +22 -1
- package/locales/zh-TW/providers.json +0 -1
- package/package.json +1 -1
- package/packages/builtin-tool-agent-builder/package.json +1 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/GetAvailableModels/index.tsx +66 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/InstallPlugin/index.tsx +63 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/SearchMarketTools/index.tsx +64 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/UpdateConfig/index.tsx +94 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/UpdatePrompt/index.tsx +96 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/index.ts +29 -0
- package/packages/builtin-tool-agent-builder/src/client/index.ts +13 -0
- package/packages/builtin-tool-agent-builder/src/executor.ts +132 -0
- package/packages/builtin-tool-cloud-sandbox/src/client/Inspector/ExecuteCode/index.tsx +5 -14
- package/packages/builtin-tool-cloud-sandbox/src/client/Inspector/RunCommand/index.tsx +5 -13
- package/packages/builtin-tool-group-agent-builder/package.json +7 -1
- package/packages/builtin-tool-group-agent-builder/src/ExecutionRuntime/index.ts +331 -87
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/BatchCreateAgents/index.tsx +110 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/CreateAgent/index.tsx +72 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/InviteAgent/index.tsx +57 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/RemoveAgent/index.tsx +57 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/SearchAgent/index.tsx +66 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateAgentPrompt/index.tsx +120 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateGroup/index.tsx +87 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateGroupPrompt/index.tsx +99 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/index.ts +52 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/BatchCreateAgents.tsx +103 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/UpdateAgentPrompt/index.tsx +36 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/UpdateGroupPrompt/index.tsx +36 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/index.ts +16 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/BatchCreateAgents/index.tsx +88 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/UpdateAgentPrompt/index.tsx +37 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/UpdateGroupPrompt/index.tsx +35 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/index.ts +22 -0
- package/packages/builtin-tool-group-agent-builder/src/client/index.ts +26 -0
- package/packages/builtin-tool-group-agent-builder/src/executor.ts +284 -0
- package/packages/builtin-tool-group-agent-builder/src/index.ts +1 -14
- package/packages/builtin-tool-group-agent-builder/src/manifest.ts +160 -15
- package/packages/builtin-tool-group-agent-builder/src/systemRole.ts +232 -46
- package/packages/builtin-tool-group-agent-builder/src/types.ts +191 -41
- package/packages/builtin-tool-group-management/src/client/Inspector/Broadcast/index.tsx +2 -2
- package/packages/builtin-tool-group-management/src/manifest.ts +1 -1
- package/packages/builtin-tool-gtd/src/client/Inspector/ClearTodos/index.tsx +5 -11
- package/packages/builtin-tool-gtd/src/client/Inspector/CompleteTodos/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/CreatePlan/index.tsx +6 -15
- package/packages/builtin-tool-gtd/src/client/Inspector/CreateTodos/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +6 -17
- package/packages/builtin-tool-gtd/src/client/Inspector/RemoveTodos/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/UpdatePlan/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/UpdateTodos/index.tsx +3 -9
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/ReadKnowledge/index.tsx +4 -16
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/SearchKnowledgeBase/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/EditLocalFile/index.tsx +4 -12
- package/packages/builtin-tool-local-system/src/client/Inspector/GlobLocalFiles/index.tsx +5 -13
- package/packages/builtin-tool-local-system/src/client/Inspector/GrepContent/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/ListLocalFiles/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/ReadLocalFile/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/RenameLocalFile/index.tsx +5 -11
- package/packages/builtin-tool-local-system/src/client/Inspector/RunCommand/index.tsx +5 -13
- package/packages/builtin-tool-local-system/src/client/Inspector/SearchLocalFiles/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/WriteLocalFile/index.tsx +6 -15
- package/packages/builtin-tool-notebook/src/client/Inspector/CreateDocument/index.tsx +7 -15
- package/packages/builtin-tool-page-agent/src/client/Inspector/EditTitle/index.tsx +5 -14
- package/packages/builtin-tool-page-agent/src/client/Inspector/GetPageContent/index.tsx +7 -8
- package/packages/builtin-tool-page-agent/src/client/Inspector/InitPage/index.tsx +4 -10
- package/packages/builtin-tool-page-agent/src/client/Inspector/ModifyNodes/index.tsx +3 -9
- package/packages/builtin-tool-page-agent/src/client/Inspector/ReplaceText/index.tsx +5 -11
- package/packages/builtin-tool-web-browsing/src/client/Inspector/CrawlMultiPages/index.tsx +6 -15
- package/packages/builtin-tool-web-browsing/src/client/Inspector/CrawlSinglePage/index.tsx +6 -15
- package/packages/builtin-tool-web-browsing/src/client/Inspector/Search/index.tsx +4 -15
- package/packages/database/src/models/chatGroup.ts +1 -1
- package/packages/model-bank/src/aiModels/aihubmix.ts +2 -1
- package/packages/model-bank/src/aiModels/google.ts +2 -1
- package/packages/model-bank/src/aiModels/infiniai.ts +9 -6
- package/packages/model-bank/src/aiModels/minimax.ts +9 -5
- package/packages/model-bank/src/aiModels/ollamacloud.ts +4 -2
- package/packages/model-bank/src/aiModels/vertexai.ts +2 -1
- package/packages/types/src/agentGroup/index.ts +8 -0
- package/patches/@upstash__qstash.patch +13 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Header/Nav.tsx +1 -1
- package/src/app/[variants]/(main)/agent/cron/[cronId]/index.tsx +4 -3
- package/src/app/[variants]/(main)/agent/profile/features/ProfileEditor/index.tsx +1 -1
- package/src/app/[variants]/(main)/agent/profile/features/store/action.ts +18 -21
- package/src/app/[variants]/(main)/group/_layout/GroupIdSync.tsx +6 -1
- package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/AgentProfilePopup.tsx +29 -21
- package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/GroupMember.tsx +1 -0
- package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/GroupMemberItem.tsx +35 -18
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/AddTopicButon.tsx +2 -10
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/Nav.tsx +10 -2
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/index.tsx +1 -2
- package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/AgentBuilderProvider.tsx +1 -0
- package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/TopicSelector.tsx +15 -9
- package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/index.tsx +12 -6
- package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor/AgentHeader.tsx → GroupProfile/GroupHeader.tsx} +22 -29
- package/src/app/[variants]/(main)/group/profile/features/GroupProfile/index.tsx +96 -0
- package/src/app/[variants]/(main)/group/profile/features/Header/AgentBuilderToggle.tsx +3 -4
- package/src/app/[variants]/(main)/group/profile/features/Header/AutoSaveHint.tsx +11 -7
- package/src/app/[variants]/(main)/group/profile/features/Header/ChromeTabs/index.tsx +147 -0
- package/src/app/[variants]/(main)/group/profile/features/Header/index.tsx +104 -13
- package/src/app/[variants]/(main)/group/profile/features/MemberProfile/AgentHeader.tsx +222 -0
- package/src/app/[variants]/(main)/group/profile/features/MemberProfile/index.tsx +155 -0
- package/src/app/[variants]/(main)/group/profile/features/ProfileHydration.tsx +63 -5
- package/src/app/[variants]/(main)/group/profile/index.tsx +34 -37
- package/src/app/[variants]/(mobile)/(home)/_layout/SessionHydration.tsx +1 -1
- package/src/app/[variants]/(mobile)/(home)/features/SessionListContent/List/Item/index.tsx +1 -1
- package/src/features/AgentBuilder/index.tsx +16 -1
- package/src/features/Conversation/Messages/AssistantGroup/Tool/Inspector/StatusIndicator.tsx +3 -2
- package/src/features/EditorCanvas/EditorCanvas.test.tsx +206 -0
- package/src/features/EditorCanvas/EditorDataMode.tsx +53 -19
- package/src/features/EditorModal/index.tsx +2 -2
- package/src/features/NavPanel/components/SessionHydration.tsx +1 -1
- package/src/features/ShareModal/ShareImage/ChatList/index.tsx +1 -1
- package/src/features/ShareModal/SharePdf/index.tsx +1 -1
- package/src/hooks/useBidirectionalQuerySync.ts +112 -0
- package/src/locales/default/chat.ts +10 -0
- package/src/locales/default/plugin.ts +22 -1
- package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +45 -45
- package/src/server/modules/KeyVaultsEncrypt/index.ts +6 -6
- package/src/server/modules/S3/index.ts +1 -1
- package/src/server/routers/lambda/agent.ts +24 -0
- package/src/server/routers/lambda/agentGroup.ts +39 -0
- package/src/services/agent.ts +22 -0
- package/src/services/chatGroup/index.ts +14 -0
- package/src/store/agent/selectors/selectors.ts +3 -0
- package/src/store/agentGroup/initialState.ts +6 -0
- package/src/store/agentGroup/selectors/byId.ts +3 -1
- package/src/store/agentGroup/selectors/current.ts +2 -2
- package/src/store/agentGroup/slices/lifecycle.ts +18 -0
- package/src/store/chat/agents/__tests__/createAgentExecutors/fixtures/mockStore.ts +1 -1
- package/src/store/chat/slices/aiAgent/actions/__tests__/agentGroup.test.ts +4 -1
- package/src/store/chat/slices/aiAgent/actions/agentGroup.ts +1 -1
- package/src/store/chat/slices/aiChat/actions/__tests__/conversationLifecycle.test.ts +65 -0
- package/src/store/chat/slices/aiChat/actions/conversationLifecycle.ts +2 -1
- package/src/store/chat/slices/builtinTool/actions/__tests__/search.test.ts +1 -1
- package/src/store/chat/slices/builtinTool/actions/index.ts +1 -6
- package/src/store/chat/slices/message/action.test.ts +5 -5
- package/src/store/chat/slices/message/actions/publicApi.ts +5 -5
- package/src/store/chat/slices/message/initialState.ts +0 -5
- package/src/store/chat/slices/message/selectors/displayMessage.test.ts +4 -4
- package/src/store/chat/slices/plugin/action.test.ts +54 -19
- package/src/store/chat/slices/plugin/actions/pluginTypes.ts +15 -21
- package/src/store/chat/slices/topic/action.test.ts +74 -24
- package/src/store/chat/slices/topic/action.ts +21 -13
- package/src/store/chat/slices/topic/selectors.test.ts +1 -1
- package/src/store/global/initialState.ts +10 -0
- package/src/store/global/selectors/systemStatus.ts +5 -0
- package/src/store/groupProfile/action.ts +168 -0
- package/src/store/groupProfile/index.ts +16 -0
- package/src/{app/[variants]/(main)/group/profile/features/store → store/groupProfile}/initialState.ts +17 -0
- package/src/store/groupProfile/selectors.ts +13 -0
- package/src/store/tool/slices/builtin/executors/index.ts +4 -0
- package/src/styles/text.ts +16 -0
- package/src/tools/inspectors.ts +13 -0
- package/src/tools/renders.ts +3 -0
- package/src/tools/streamings.ts +8 -0
- package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/TypoBar.tsx +0 -129
- package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/index.tsx +0 -138
- package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/useSlashItems.tsx +0 -139
- package/src/app/[variants]/(main)/group/profile/features/ProfileEditor/index.tsx +0 -82
- package/src/app/[variants]/(main)/group/profile/features/ProfileProvider.tsx +0 -20
- package/src/app/[variants]/(main)/group/profile/features/StoreUpdater.tsx +0 -24
- package/src/app/[variants]/(main)/group/profile/features/store/action.ts +0 -163
- package/src/app/[variants]/(main)/group/profile/features/store/index.ts +0 -23
- package/src/app/[variants]/(main)/group/profile/features/store/selectors.ts +0 -7
- package/src/features/EditorModal/EditorCanvas.tsx +0 -84
- package/src/features/EditorModal/Typobar.tsx +0 -139
- package/src/store/chat/slices/builtinTool/actions/agentBuilder.ts +0 -192
- package/src/store/chat/slices/builtinTool/actions/groupAgentBuilder.ts +0 -242
- package/src/tools/executionRuntimes.ts +0 -14
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/AgentTool.tsx +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/MentionDropdown.tsx +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/index.tsx +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/types.ts +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/useMentionItems.tsx +0 -0
|
@@ -73,9 +73,9 @@
|
|
|
73
73
|
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick은 효율적인 전문가 활성화를 통해 강력한 추론 성능을 제공하는 대형 MoE 모델입니다.",
|
|
74
74
|
"MiniMax-M1.description": "80K 체인 오브 싱킹과 100만 입력을 지원하는 새로운 자체 개발 추론 모델로, 세계 최고 수준의 모델과 유사한 성능을 제공합니다.",
|
|
75
75
|
"MiniMax-M2-Stable.description": "상업적 사용을 위한 높은 동시성을 제공하며, 효율적인 코딩 및 에이전트 워크플로우에 최적화되어 있습니다.",
|
|
76
|
-
"MiniMax-M2.1-Lightning.description": "강력한 다국어 프로그래밍
|
|
77
|
-
"MiniMax-M2.1.description": "강력한 다국어 프로그래밍
|
|
78
|
-
"MiniMax-M2.description": "효율적인
|
|
76
|
+
"MiniMax-M2.1-Lightning.description": "강력한 다국어 프로그래밍 기능과 전면적으로 업그레이드된 코딩 경험. 더 빠르고 효율적입니다.",
|
|
77
|
+
"MiniMax-M2.1.description": "강력한 다국어 프로그래밍 기능과 전면적으로 업그레이드된 코딩 경험",
|
|
78
|
+
"MiniMax-M2.description": "효율적인 코딩 및 에이전트 워크플로우를 위해 특별히 설계됨",
|
|
79
79
|
"MiniMax-Text-01.description": "MiniMax-01은 기존 트랜스포머를 넘어선 대규모 선형 어텐션을 도입한 모델로, 4560억 파라미터 중 459억이 활성화됩니다. 최대 400만 토큰의 문맥을 지원하며, GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다.",
|
|
80
80
|
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1은 오픈 가중치 기반의 대규모 하이브리드 어텐션 추론 모델로, 총 4560억 파라미터 중 토큰당 약 459억이 활성화됩니다. 100만 문맥을 기본 지원하며, Flash Attention을 통해 10만 토큰 생성 시 FLOPs를 DeepSeek R1 대비 75% 절감합니다. MoE 아키텍처와 CISPO, 하이브리드 어텐션 RL 학습을 통해 장문 추론 및 실제 소프트웨어 엔지니어링 작업에서 선도적인 성능을 보입니다.",
|
|
81
81
|
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2는 에이전트 효율성을 재정의한 모델로, 총 2300억 파라미터 중 100억만 활성화되는 컴팩트하고 빠르며 비용 효율적인 MoE 모델입니다. 최상위 수준의 코딩 및 에이전트 작업을 위해 설계되었으며, 강력한 범용 지능을 유지합니다. 활성 파라미터가 100억에 불과함에도 훨씬 더 큰 모델과 경쟁할 수 있어 고효율 응용에 이상적입니다.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
|
|
272
272
|
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
273
273
|
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델입니다. Claude 3 Haiku와 비교해 전반적인 능력이 향상되었으며, 지능 벤치마크에서 이전의 최고 모델인 Claude 3 Opus를 능가합니다.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델이자 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답은 물론, 사용자가 확인할 수 있는 단계별 추론도 제공합니다. Sonnet은 특히 코딩, 데이터 과학, 비전, 에이전트 작업에 강점을 보입니다.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 추론을 제공합니다.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic이 지금까지 개발한 가장 지능적인 모델입니다.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
|
|
@@ -355,7 +355,6 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek V3.2는 일상적인 질의응답 및 에이전트 작업을 위해 추론 능력과 출력 길이의 균형을 맞춘 모델입니다. 공개 벤치마크에서 GPT-5 수준에 도달했으며, 도구 사용에 사고 과정을 통합한 최초의 모델로, 오픈소스 에이전트 평가에서 선도적인 성과를 보입니다.",
|
|
359
358
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
|
|
360
359
|
"deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
361
360
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
@@ -378,7 +377,6 @@
|
|
|
378
377
|
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
|
|
379
378
|
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
|
|
380
379
|
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 과정을 생성하여 정확도를 높이는 심화 추론 모델입니다. 주요 대회에서 우수한 성적을 거두었으며, Gemini-3.0-Pro에 필적하는 추론 능력을 보유하고 있습니다.",
|
|
382
380
|
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
|
|
383
381
|
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
|
|
384
382
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
|
|
@@ -471,7 +469,6 @@
|
|
|
471
469
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 질의응답, 분류, 저비용 추론에 적합한 초경량 모델입니다.",
|
|
472
470
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
|
|
473
471
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "ByteDance Seed에서 개발한 Seedream 4.0은 텍스트 및 이미지 입력을 지원하며, 프롬프트 기반의 고품질 이미지 생성을 정밀하게 제어할 수 있습니다.",
|
|
475
472
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
|
|
476
473
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
|
|
477
474
|
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
|
|
@@ -479,8 +476,6 @@
|
|
|
479
476
|
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
|
|
480
477
|
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
|
|
481
478
|
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "Qwen 팀이 개발한 전문 이미지 편집 모델로, 의미 기반 및 외형 편집, 정확한 중/영문 텍스트 편집, 스타일 전환, 회전 등 다양한 기능을 지원합니다.",
|
|
483
|
-
"fal-ai/qwen-image.description": "Qwen 팀이 개발한 강력한 이미지 생성 모델로, 뛰어난 중국어 텍스트 렌더링과 다양한 시각 스타일을 제공합니다.",
|
|
484
479
|
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
|
|
485
480
|
"flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.",
|
|
486
481
|
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
|
|
@@ -522,12 +517,10 @@
|
|
|
522
517
|
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
|
|
523
518
|
"gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash의 2025년 9월 25일자 프리뷰 릴리스입니다.",
|
|
524
519
|
"gemini-2.5-flash.description": "Gemini 2.5 Flash는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
|
|
525
|
-
"gemini-2.5-flash:image.description": "Gemini 2.5 Flash는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
|
|
526
520
|
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
|
|
527
521
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
|
|
528
522
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
|
|
529
523
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro는 Google의 플래그십 추론 모델로, 복잡한 작업을 위한 장기 문맥 지원을 제공합니다.",
|
|
530
|
-
"gemini-3-flash-preview.description": "Gemini 3 Flash는 속도를 위해 설계된 가장 지능적인 모델로, 최첨단 지능과 뛰어난 검색 기반을 결합합니다.",
|
|
531
524
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
|
|
532
525
|
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
|
|
533
526
|
"gemini-3-pro-preview.description": "Gemini 3 Pro는 Google의 가장 강력한 에이전트 및 바이브 코딩 모델로, 최첨단 추론 위에 풍부한 시각적 표현과 깊은 상호작용을 제공합니다.",
|
|
@@ -12,6 +12,9 @@
|
|
|
12
12
|
"interests.area.writing": "콘텐츠 제작",
|
|
13
13
|
"interests.hint": "설정에서 언제든지 수정할 수 있어요",
|
|
14
14
|
"interests.placeholder": "관심 있는 분야를 입력해 주세요...",
|
|
15
|
+
"interests.title": "어떤 분야에 관심이 있으신가요?",
|
|
16
|
+
"interests.title2": "당신을 더 잘 이해하는 데 도움이 될 거예요",
|
|
17
|
+
"interests.title3": "천천히 하세요, 제가 더 잘 알아갈게요",
|
|
15
18
|
"modeSelection.desc": "당신에게 맞는 사용 모드를 선택하세요",
|
|
16
19
|
"modeSelection.hint": "설정에서 언제든지 변경할 수 있어요",
|
|
17
20
|
"modeSelection.lite.desc": "일상 대화, Q&A, 가벼운 업무 보조 및 모델 체험에 적합",
|
|
@@ -5,6 +5,7 @@
|
|
|
5
5
|
"builtins.lobe-agent-builder.apiName.getConfig": "설정 가져오기",
|
|
6
6
|
"builtins.lobe-agent-builder.apiName.getMeta": "메타데이터 가져오기",
|
|
7
7
|
"builtins.lobe-agent-builder.apiName.getPrompt": "시스템 프롬프트 가져오기",
|
|
8
|
+
"builtins.lobe-agent-builder.apiName.installPlugin": "스킬 설치",
|
|
8
9
|
"builtins.lobe-agent-builder.apiName.searchMarketTools": "기능 마켓 검색",
|
|
9
10
|
"builtins.lobe-agent-builder.apiName.searchOfficialTools": "공식 도구 검색",
|
|
10
11
|
"builtins.lobe-agent-builder.apiName.setModel": "모델 설정",
|
|
@@ -15,6 +16,12 @@
|
|
|
15
16
|
"builtins.lobe-agent-builder.apiName.updateConfig": "설정 업데이트",
|
|
16
17
|
"builtins.lobe-agent-builder.apiName.updateMeta": "메타데이터 업데이트",
|
|
17
18
|
"builtins.lobe-agent-builder.apiName.updatePrompt": "시스템 프롬프트 업데이트",
|
|
19
|
+
"builtins.lobe-agent-builder.inspector.chars": "자",
|
|
20
|
+
"builtins.lobe-agent-builder.inspector.disablePlugin": "비활성화",
|
|
21
|
+
"builtins.lobe-agent-builder.inspector.enablePlugin": "활성화",
|
|
22
|
+
"builtins.lobe-agent-builder.inspector.modelsCount": "{{count}}개 모델",
|
|
23
|
+
"builtins.lobe-agent-builder.inspector.noResults": "결과 없음",
|
|
24
|
+
"builtins.lobe-agent-builder.inspector.togglePlugin": "전환",
|
|
18
25
|
"builtins.lobe-agent-builder.title": "도우미 빌더",
|
|
19
26
|
"builtins.lobe-cloud-sandbox.apiName.editLocalFile": "파일 편집",
|
|
20
27
|
"builtins.lobe-cloud-sandbox.apiName.executeCode": "코드 실행",
|
|
@@ -31,13 +38,27 @@
|
|
|
31
38
|
"builtins.lobe-cloud-sandbox.apiName.searchLocalFiles": "파일 검색",
|
|
32
39
|
"builtins.lobe-cloud-sandbox.apiName.writeLocalFile": "파일 쓰기",
|
|
33
40
|
"builtins.lobe-cloud-sandbox.title": "클라우드 샌드박스",
|
|
41
|
+
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "에이전트 일괄 생성",
|
|
42
|
+
"builtins.lobe-group-agent-builder.apiName.createAgent": "에이전트 생성",
|
|
34
43
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "사용 가능한 모델 가져오기",
|
|
35
44
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "기능 설치",
|
|
36
45
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "멤버 초대",
|
|
37
46
|
"builtins.lobe-group-agent-builder.apiName.removeAgent": "멤버 제거",
|
|
47
|
+
"builtins.lobe-group-agent-builder.apiName.searchAgent": "에이전트 검색",
|
|
38
48
|
"builtins.lobe-group-agent-builder.apiName.searchMarketTools": "기능 마켓 검색",
|
|
39
49
|
"builtins.lobe-group-agent-builder.apiName.updateAgentConfig": "도우미 설정 업데이트",
|
|
40
|
-
"builtins.lobe-group-agent-builder.apiName.
|
|
50
|
+
"builtins.lobe-group-agent-builder.apiName.updateAgentPrompt": "에이전트 프롬프트 업데이트",
|
|
51
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroup": "그룹 업데이트",
|
|
52
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroupPrompt": "그룹 프롬프트 업데이트",
|
|
53
|
+
"builtins.lobe-group-agent-builder.apiName.updateSupervisorPrompt": "감독자 프롬프트 업데이트",
|
|
54
|
+
"builtins.lobe-group-agent-builder.inspector.agents": "에이전트",
|
|
55
|
+
"builtins.lobe-group-agent-builder.inspector.avatar": "아바타",
|
|
56
|
+
"builtins.lobe-group-agent-builder.inspector.backgroundColor": "배경색",
|
|
57
|
+
"builtins.lobe-group-agent-builder.inspector.description": "설명",
|
|
58
|
+
"builtins.lobe-group-agent-builder.inspector.noResults": "결과 없음",
|
|
59
|
+
"builtins.lobe-group-agent-builder.inspector.openingMessage": "시작 메시지",
|
|
60
|
+
"builtins.lobe-group-agent-builder.inspector.openingQuestions": "시작 질문",
|
|
61
|
+
"builtins.lobe-group-agent-builder.inspector.title": "제목",
|
|
41
62
|
"builtins.lobe-group-agent-builder.title": "그룹 도우미 빌더",
|
|
42
63
|
"builtins.lobe-group-management.apiName.broadcast": "모두에게 발언",
|
|
43
64
|
"builtins.lobe-group-management.apiName.createAgent": "팀원 추가",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
|
|
30
30
|
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
|
|
31
31
|
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
|
|
33
32
|
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
|
|
34
33
|
"mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
|
|
35
34
|
"modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
|
package/locales/nl-NL/chat.json
CHANGED
|
@@ -71,11 +71,18 @@
|
|
|
71
71
|
"group.desc": "Werk samen met meerdere Agents in één gedeelde ruimte.",
|
|
72
72
|
"group.memberTooltip": "Er zijn {{count}} leden in de groep",
|
|
73
73
|
"group.orchestratorThinking": "Orchestrator is aan het denken...",
|
|
74
|
+
"group.profile.contentPlaceholder": "Stel hier de doelstellingen/werkwijzen van de groep in. Deze informatie wordt gedeeld met alle groepsleden.",
|
|
75
|
+
"group.profile.external": "Extern",
|
|
76
|
+
"group.profile.externalAgentWarning": "Dit is een externe agent. Wijzigingen die hier worden aangebracht, passen direct de oorspronkelijke configuratie van de agent aan.",
|
|
77
|
+
"group.profile.groupSettings": "Groepsinstellingen",
|
|
78
|
+
"group.profile.supervisor": "Coördinator",
|
|
79
|
+
"group.profile.supervisorPlaceholder": "De coördinator stemt de samenwerking tussen verschillende agents af. Door hier coördinatorinformatie in te stellen, wordt een nauwkeurigere workflowcoördinatie mogelijk.",
|
|
74
80
|
"group.removeMember": "Lid verwijderen",
|
|
75
81
|
"group.title": "Groep",
|
|
76
82
|
"groupDescription": "Groepsbeschrijving",
|
|
77
83
|
"groupSidebar.agentProfile.chat": "Chat",
|
|
78
84
|
"groupSidebar.agentProfile.model": "Model",
|
|
85
|
+
"groupSidebar.agentProfile.settings": "Instellingen",
|
|
79
86
|
"groupSidebar.members.addMember": "Lid toevoegen",
|
|
80
87
|
"groupSidebar.members.enableOrchestrator": "Orchestrator inschakelen",
|
|
81
88
|
"groupSidebar.members.memberSettings": "Lidinstellingen",
|
|
@@ -134,6 +134,8 @@
|
|
|
134
134
|
"cmdk.search.communityAgent": "Community Agent",
|
|
135
135
|
"cmdk.search.file": "Bestand",
|
|
136
136
|
"cmdk.search.files": "Bestanden",
|
|
137
|
+
"cmdk.search.folder": "Map",
|
|
138
|
+
"cmdk.search.folders": "Mappen",
|
|
137
139
|
"cmdk.search.loading": "Zoeken...",
|
|
138
140
|
"cmdk.search.market": "Community",
|
|
139
141
|
"cmdk.search.mcp": "MCP-server",
|
|
@@ -56,12 +56,12 @@
|
|
|
56
56
|
"assistants.more": "Meer",
|
|
57
57
|
"assistants.plugins": "Geïntegreerde Vaardigheden",
|
|
58
58
|
"assistants.recentSubmits": "Recente updates",
|
|
59
|
-
"assistants.sorts.recommended": "Aanbevolen",
|
|
60
59
|
"assistants.sorts.createdAt": "Recent gepubliceerd",
|
|
61
60
|
"assistants.sorts.identifier": "Agent-ID",
|
|
62
61
|
"assistants.sorts.knowledgeCount": "Bibliotheken",
|
|
63
62
|
"assistants.sorts.myown": "Mijn Agents bekijken",
|
|
64
63
|
"assistants.sorts.pluginCount": "Vaardigheden",
|
|
64
|
+
"assistants.sorts.recommended": "Aanbevolen",
|
|
65
65
|
"assistants.sorts.title": "Agentnaam",
|
|
66
66
|
"assistants.sorts.tokenUsage": "Tokengebruik",
|
|
67
67
|
"assistants.status.archived.reasons.official": "Het platform heeft deze Agent verwijderd vanwege beveiliging, beleid of andere zorgen.",
|
|
@@ -83,12 +83,12 @@
|
|
|
83
83
|
"assistants.withKnowledge": "Deze Agent bevat bibliotheken",
|
|
84
84
|
"assistants.withPlugin": "Deze Agent bevat vaardigheden",
|
|
85
85
|
"back": "Terug naar Ontdekking",
|
|
86
|
-
"category.assistant.discover": "Ontdekking",
|
|
87
86
|
"category.assistant.academic": "Academisch",
|
|
88
87
|
"category.assistant.all": "Alle",
|
|
89
88
|
"category.assistant.career": "Carrière",
|
|
90
89
|
"category.assistant.copywriting": "Tekstschrijven",
|
|
91
90
|
"category.assistant.design": "Design",
|
|
91
|
+
"category.assistant.discover": "Ontdekking",
|
|
92
92
|
"category.assistant.education": "Onderwijs",
|
|
93
93
|
"category.assistant.emotions": "Emoties",
|
|
94
94
|
"category.assistant.entertainment": "Amusement",
|
|
@@ -73,9 +73,9 @@
|
|
|
73
73
|
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick is een groot MoE-model met efficiënte expertactivatie voor sterke redeneercapaciteiten.",
|
|
74
74
|
"MiniMax-M1.description": "Een nieuw intern redeneermodel met 80K chain-of-thought en 1M input, met prestaties vergelijkbaar met toonaangevende wereldwijde modellen.",
|
|
75
75
|
"MiniMax-M2-Stable.description": "Ontworpen voor efficiënte codeer- en agentworkflows, met hogere gelijktijdigheid voor commercieel gebruik.",
|
|
76
|
-
"MiniMax-M2.1-Lightning.description": "Krachtige meertalige
|
|
77
|
-
"MiniMax-M2.1.description": "Krachtige meertalige
|
|
78
|
-
"MiniMax-M2.description": "Speciaal ontwikkeld voor efficiënt coderen en agent-workflows",
|
|
76
|
+
"MiniMax-M2.1-Lightning.description": "Krachtige meertalige programmeermogelijkheden, een volledig vernieuwde programmeerervaring. Sneller en efficiënter.",
|
|
77
|
+
"MiniMax-M2.1.description": "Krachtige meertalige programmeermogelijkheden, een volledig vernieuwde programmeerervaring.",
|
|
78
|
+
"MiniMax-M2.description": "Speciaal ontwikkeld voor efficiënt coderen en agent-workflows.",
|
|
79
79
|
"MiniMax-Text-01.description": "MiniMax-01 introduceert grootschalige lineaire aandacht voorbij klassieke Transformers, met 456B parameters en 45,9B geactiveerd per pass. Het levert topprestaties en ondersteunt tot 4M tokens context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
|
80
80
|
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is een open-gewichten grootschalig hybrid-attention redeneermodel met 456B totale parameters en ~45,9B actief per token. Het ondersteunt native 1M context en gebruikt Flash Attention om FLOPs met 75% te verminderen bij 100K-token generatie versus DeepSeek R1. Met een MoE-architectuur plus CISPO en hybrid-attention RL-training behaalt het toonaangevende prestaties op lang-input redeneren en echte software engineering-taken.",
|
|
81
81
|
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 herdefinieert agent-efficiëntie. Het is een compact, snel, kosteneffectief MoE-model met 230B totaal en 10B actieve parameters, gebouwd voor topniveau codeer- en agenttaken met behoud van sterke algemene intelligentie. Met slechts 10B actieve parameters evenaart het veel grotere modellen, ideaal voor toepassingen met hoge efficiëntie.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku zijn de vaardigheden verbeterd en overtreft het op veel intelligentietests het eerdere topmodel Claude 3 Opus.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor de gebruiker. Sonnet blinkt uit in programmeren, datawetenschap, visuele taken en agenttoepassingen.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle prestaties en uitgebreide redeneercapaciteiten.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Een nieuw open-source model dat algemene en programmeervaardigheden combineert. Het behoudt de algemene dialoogmogelijkheden van het chatmodel en de sterke codeerprestaties van het programmeermodel, met verbeterde voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijfvaardigheid en het opvolgen van instructies.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2-denkmodus genereert een keten van gedachten vóór het uiteindelijke antwoord om de nauwkeurigheid te verbeteren.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
|
|
@@ -471,6 +471,95 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K is een ultralicht model voor eenvoudige vraag-en-antwoord, classificatie en goedkope inferentie.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is een afbeeldingsgeneratiemodel van ByteDance Seed, dat tekst- en afbeeldingsinvoer ondersteunt voor hoogwaardige, nauwkeurig aanpasbare beeldgeneratie. Het genereert beelden op basis van tekstprompts.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepteert tekst en referentieafbeeldingen als invoer, waardoor gerichte lokale bewerkingen en complexe wereldwijde scèneaanpassingen mogelijk zijn.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] is een afbeeldingsgeneratiemodel met een esthetische voorkeur voor realistische, natuurlijke beelden.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] is een afbeeldingsgeneratiemodel met 12 miljard parameters, ontworpen voor snelle en hoogwaardige output.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "Een krachtig, native multimodaal afbeeldingsgeneratiemodel.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "Hoogwaardig afbeeldingsgeneratiemodel van Google.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee beeldgeneratie en -bewerking via conversatie mogelijk is.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team dat semantische en visuele bewerkingen ondersteunt, nauwkeurige bewerking van Chinese en Engelse tekst mogelijk maakt, en hoogwaardige bewerkingen zoals stijltransformatie en objectrotatie uitvoert.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Een krachtig afbeeldingsgeneratiemodel van het Qwen-team met indrukwekkende weergave van Chinese tekst en diverse visuele stijlen.",
|
|
484
|
+
"flux-1-schnell.description": "Een tekst-naar-beeldmodel met 12 miljard parameters van Black Forest Labs, dat gebruikmaakt van latente adversariële diffusiedistillatie om hoogwaardige beelden te genereren in 1–4 stappen. Het evenaart gesloten alternatieven en is uitgebracht onder de Apache-2.0-licentie voor persoonlijk, onderzoeks- en commercieel gebruik.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev] is een open-gewichten gedistilleerd model voor niet-commercieel gebruik. Het behoudt bijna professionele beeldkwaliteit en instructieopvolging, terwijl het efficiënter werkt en middelen beter benut dan standaardmodellen van vergelijkbare grootte.",
|
|
486
|
+
"flux-kontext-max.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
|
|
487
|
+
"flux-kontext-pro.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged combineert de diepe functies van \"DEV\" met de snelheid van \"Schnell\", waardoor de prestatiegrenzen worden verlegd en de toepassingsmogelijkheden worden uitgebreid.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "Ultra-hoge resolutie beeldgeneratie met 4MP output, levert scherpe beelden in 10 seconden.",
|
|
490
|
+
"flux-pro-1.1.description": "Geüpgraded professioneel afbeeldingsgeneratiemodel met uitstekende beeldkwaliteit en nauwkeurige promptnauwkeurigheid.",
|
|
491
|
+
"flux-pro.description": "Topklasse commercieel afbeeldingsgeneratiemodel met ongeëvenaarde beeldkwaliteit en diverse outputmogelijkheden.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] is het meest geavanceerde open-source few-step model, dat vergelijkbare concurrenten en zelfs sterke niet-gedistilleerde modellen zoals Midjourney v6.0 en DALL-E 3 (HD) overtreft. Het is fijn afgestemd om de diversiteit van de pretraining te behouden, wat de visuele kwaliteit, instructieopvolging, formaatvariatie, lettertypeverwerking en outputdiversiteit aanzienlijk verbetert.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell is een hoogwaardig afbeeldingsgeneratiemodel voor snelle output in meerdere stijlen.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) biedt stabiele, aanpasbare prestaties voor complexe taken.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) biedt sterke multimodale ondersteuning voor complexe taken.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro is het krachtige AI-model van Google, ontworpen voor grootschalige taakverwerking.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 is een efficiënt multimodaal model voor brede toepassingsschaling.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 is een efficiënt multimodaal model, gebouwd voor grootschalige inzet.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 is het nieuwste experimentele model met aanzienlijke verbeteringen voor tekst- en multimodale toepassingen.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B is een efficiënt multimodaal model, gebouwd voor grootschalige inzet.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B is een efficiënt multimodaal model voor brede toepassingsschaling.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 levert geoptimaliseerde multimodale verwerking voor complexe taken.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash is het nieuwste multimodale AI-model van Google met snelle verwerking, ondersteuning voor tekst-, beeld- en video-invoer, en efficiënte schaalbaarheid over taken heen.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 is een schaalbare multimodale AI-oplossing voor complexe taken.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 is het nieuwste productierijpe model met hogere outputkwaliteit, vooral voor wiskunde, lange context en visuele taken.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 biedt sterke multimodale verwerking met meer flexibiliteit voor app-ontwikkeling.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 past de nieuwste optimalisaties toe voor efficiëntere multimodale verwerking.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro ondersteunt tot 2 miljoen tokens en is een ideaal middelgroot multimodaal model voor complexe taken.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash biedt functies van de volgende generatie, waaronder uitzonderlijke snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Experimentele variant van Gemini 2.0 Flash met ondersteuning voor beeldgeneratie.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash biedt functies van de volgende generatie, waaronder uitzonderlijke snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview is het kleinste en meest kostenefficiënte model van Google, ontworpen voor grootschalig gebruik.",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "Preview-release (25 september 2025) van Gemini 2.5 Flash-Lite.",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite is het kleinste en meest kostenefficiënte model van Google, ontworpen voor grootschalig gebruik.",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview is het meest voordelige model van Google met volledige functionaliteit.",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "Preview-release (25 september 2025) van Gemini 2.5 Flash.",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash is het meest voordelige model van Google met volledige functionaliteit.",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.",
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash is het slimste model dat is gebouwd voor snelheid, met geavanceerde intelligentie en uitstekende zoekverankering.",
|
|
530
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt ook multimodale gesprekken.",
|
|
531
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt ook multimodale gesprekken.",
|
|
532
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro is het krachtigste agent- en vibe-codingmodel van Google, met rijkere visuele output en diepere interactie bovenop geavanceerde redeneercapaciteiten.",
|
|
533
|
+
"gemini-flash-latest.description": "Nieuwste versie van Gemini Flash.",
|
|
534
|
+
"gemini-flash-lite-latest.description": "Nieuwste versie van Gemini Flash-Lite.",
|
|
535
|
+
"gemini-pro-latest.description": "Nieuwste versie van Gemini Pro.",
|
|
536
|
+
"gemma-7b-it.description": "Gemma 7B is kostenefficiënt voor kleine tot middelgrote taken.",
|
|
537
|
+
"gemma2-9b-it.description": "Gemma 2 9B is geoptimaliseerd voor specifieke taken en integratie met tools.",
|
|
538
|
+
"gemma2.description": "Gemma 2 is het efficiënte model van Google, geschikt voor toepassingen van kleine apps tot complexe gegevensverwerking.",
|
|
539
|
+
"gemma2:27b.description": "Gemma 2 is het efficiënte model van Google, geschikt voor toepassingen van kleine apps tot complexe gegevensverwerking.",
|
|
540
|
+
"gemma2:2b.description": "Gemma 2 is het efficiënte model van Google, geschikt voor toepassingen van kleine apps tot complexe gegevensverwerking.",
|
|
541
|
+
"generalv3.5.description": "Spark Max is de meest complete versie, met ondersteuning voor webzoekopdrachten en veel ingebouwde plug-ins. De volledig geoptimaliseerde kernfuncties, systeemrollen en functieaanroepen zorgen voor uitstekende prestaties in complexe toepassingsscenario's.",
|
|
542
|
+
"generalv3.description": "Spark Pro is een krachtig LLM-model dat is geoptimaliseerd voor professionele domeinen, met focus op wiskunde, programmeren, gezondheidszorg en onderwijs. Het ondersteunt webzoekopdrachten en ingebouwde plug-ins zoals weer en datum. Het levert sterke prestaties en efficiëntie in complexe kennisvragen, taalbegrip en geavanceerde tekstcreatie, en is daarmee ideaal voor professioneel gebruik.",
|
|
543
|
+
"glm-4-0520.description": "GLM-4-0520 is de nieuwste modelversie, ontworpen voor zeer complexe en diverse taken met uitstekende prestaties.",
|
|
544
|
+
"glm-4-32b-0414.description": "GLM-4 32B 0414 is een algemeen GLM-model dat multi-task tekstgeneratie en -begrip ondersteunt.",
|
|
545
|
+
"glm-4-9b-chat.description": "GLM-4-9B-Chat presteert sterk op semantiek, wiskunde, redeneren, code en kennis. Het ondersteunt ook webbrowseren, code-uitvoering, aangepaste toolaanroepen en redeneren over lange teksten, met ondersteuning voor 26 talen waaronder Japans, Koreaans en Duits.",
|
|
546
|
+
"glm-4-air-250414.description": "GLM-4-Air is een voordelige optie met prestaties dicht bij GLM-4, hoge snelheid en lagere kosten.",
|
|
547
|
+
"glm-4-air.description": "GLM-4-Air is een voordelige optie met prestaties dicht bij GLM-4, hoge snelheid en lagere kosten.",
|
|
548
|
+
"glm-4-airx.description": "GLM-4-AirX is een efficiëntere variant van GLM-4-Air met tot 2,6x snellere redeneersnelheid.",
|
|
549
|
+
"glm-4-alltools.description": "GLM-4-AllTools is een veelzijdig agentmodel dat is geoptimaliseerd voor complexe instructieplanning en toolgebruik zoals webbrowseren, codeuitleg en tekstgeneratie, geschikt voor multitask-uitvoering.",
|
|
550
|
+
"glm-4-flash-250414.description": "GLM-4-Flash is ideaal voor eenvoudige taken: snelst en gratis.",
|
|
551
|
+
"glm-4-flash.description": "GLM-4-Flash is ideaal voor eenvoudige taken: snelst en gratis.",
|
|
552
|
+
"glm-4-flashx.description": "GLM-4-FlashX is een verbeterde Flash-versie met ultrasnelle redeneersnelheid.",
|
|
553
|
+
"glm-4-long.description": "GLM-4-Long ondersteunt ultralange invoer voor geheugenachtige taken en grootschalige documentverwerking.",
|
|
554
|
+
"glm-4-plus.description": "GLM-4-Plus is een vlaggenschipmodel met hoge intelligentie, sterke prestaties bij lange teksten en complexe taken, en verbeterde algehele prestaties.",
|
|
555
|
+
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking is het krachtigste bekende ~10B VLM-model, geschikt voor SOTA-taken zoals videobegrip, beeldvragen, vakoplossingen, OCR, document- en grafieklezen, GUI-agents, frontend-codering en grounding. Het overtreft zelfs het 8x grotere Qwen2.5-VL-72B op veel taken. Met geavanceerde RL gebruikt het keten-van-gedachten-redenering om nauwkeurigheid en rijkdom te verbeteren, en presteert het beter dan traditionele niet-denkende modellen in zowel resultaten als uitlegbaarheid.",
|
|
556
|
+
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking is het krachtigste bekende ~10B VLM-model, geschikt voor SOTA-taken zoals videobegrip, beeldvragen, vakoplossingen, OCR, document- en grafieklezen, GUI-agents, frontend-codering en grounding. Het overtreft zelfs het 8x grotere Qwen2.5-VL-72B op veel taken. Met geavanceerde RL gebruikt het keten-van-gedachten-redenering om nauwkeurigheid en rijkdom te verbeteren, en presteert het beter dan traditionele niet-denkende modellen in zowel resultaten als uitlegbaarheid.",
|
|
557
|
+
"glm-4.5-air.description": "GLM-4.5 lichte editie die prestaties en kosten in balans brengt, met flexibele hybride denkmodi.",
|
|
558
|
+
"glm-4.5-airx.description": "GLM-4.5-Air snelle editie met snellere reacties voor grootschalig, snel gebruik.",
|
|
559
|
+
"glm-4.5-flash.description": "Gratis GLM-4.5-laag met sterke prestaties in redeneren, coderen en agenttaken.",
|
|
560
|
+
"glm-4.5-x.description": "GLM-4.5 snelle editie, met sterke prestaties en generatiesnelheden tot 100 tokens/seconde.",
|
|
561
|
+
"glm-4.5.description": "Zhipu vlaggenschipmodel met schakelbare denkmodus, levert open-source SOTA-prestaties en tot 128K context.",
|
|
562
|
+
"glm-4.5v.description": "Zhipu’s volgende generatie MoE-visie-redeneermodel met 106B totale parameters en 12B actief, bereikt SOTA onder vergelijkbare open-source multimodale modellen voor beeld-, video-, documentbegrip en GUI-taken.",
|
|
474
563
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
|
|
475
564
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
|
|
476
565
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
|
|
@@ -12,6 +12,9 @@
|
|
|
12
12
|
"interests.area.writing": "Contentcreatie",
|
|
13
13
|
"interests.hint": "Je kunt dit op elk moment aanpassen in de instellingen",
|
|
14
14
|
"interests.placeholder": "Voer je interesses in...",
|
|
15
|
+
"interests.title": "In welke onderwerpen ben je geïnteresseerd?",
|
|
16
|
+
"interests.title2": "Dit helpt me om je beter te leren kennen",
|
|
17
|
+
"interests.title3": "Neem je tijd, ik leer je graag beter kennen",
|
|
15
18
|
"modeSelection.desc": "Kies de modus die het beste bij je past",
|
|
16
19
|
"modeSelection.hint": "Je kunt dit op elk moment aanpassen in de instellingen",
|
|
17
20
|
"modeSelection.lite.desc": "Ideaal voor dagelijkse gesprekken, Q&A, lichte productiviteit en het uitproberen van modellen",
|
|
@@ -5,6 +5,7 @@
|
|
|
5
5
|
"builtins.lobe-agent-builder.apiName.getConfig": "Configuratie ophalen",
|
|
6
6
|
"builtins.lobe-agent-builder.apiName.getMeta": "Metadata ophalen",
|
|
7
7
|
"builtins.lobe-agent-builder.apiName.getPrompt": "Systeemprompt ophalen",
|
|
8
|
+
"builtins.lobe-agent-builder.apiName.installPlugin": "Vaardigheid installeren",
|
|
8
9
|
"builtins.lobe-agent-builder.apiName.searchMarketTools": "Skill-marktplaats doorzoeken",
|
|
9
10
|
"builtins.lobe-agent-builder.apiName.searchOfficialTools": "Officiële Skills doorzoeken",
|
|
10
11
|
"builtins.lobe-agent-builder.apiName.setModel": "Model instellen",
|
|
@@ -15,6 +16,12 @@
|
|
|
15
16
|
"builtins.lobe-agent-builder.apiName.updateConfig": "Configuratie bijwerken",
|
|
16
17
|
"builtins.lobe-agent-builder.apiName.updateMeta": "Metadata bijwerken",
|
|
17
18
|
"builtins.lobe-agent-builder.apiName.updatePrompt": "Systeemprompt bijwerken",
|
|
19
|
+
"builtins.lobe-agent-builder.inspector.chars": " tekens",
|
|
20
|
+
"builtins.lobe-agent-builder.inspector.disablePlugin": "Uitschakelen",
|
|
21
|
+
"builtins.lobe-agent-builder.inspector.enablePlugin": "Inschakelen",
|
|
22
|
+
"builtins.lobe-agent-builder.inspector.modelsCount": "{{count}} modellen",
|
|
23
|
+
"builtins.lobe-agent-builder.inspector.noResults": "Geen resultaten",
|
|
24
|
+
"builtins.lobe-agent-builder.inspector.togglePlugin": "Wisselen",
|
|
18
25
|
"builtins.lobe-agent-builder.title": "Agent Builder Expert",
|
|
19
26
|
"builtins.lobe-cloud-sandbox.apiName.editLocalFile": "Bestand bewerken",
|
|
20
27
|
"builtins.lobe-cloud-sandbox.apiName.executeCode": "Code uitvoeren",
|
|
@@ -31,13 +38,27 @@
|
|
|
31
38
|
"builtins.lobe-cloud-sandbox.apiName.searchLocalFiles": "Bestanden doorzoeken",
|
|
32
39
|
"builtins.lobe-cloud-sandbox.apiName.writeLocalFile": "Bestand schrijven",
|
|
33
40
|
"builtins.lobe-cloud-sandbox.title": "Cloud Sandbox",
|
|
41
|
+
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Meerdere agenten aanmaken",
|
|
42
|
+
"builtins.lobe-group-agent-builder.apiName.createAgent": "Agent aanmaken",
|
|
34
43
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Beschikbare modellen ophalen",
|
|
35
44
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Skill installeren",
|
|
36
45
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "Lid uitnodigen",
|
|
37
46
|
"builtins.lobe-group-agent-builder.apiName.removeAgent": "Lid verwijderen",
|
|
47
|
+
"builtins.lobe-group-agent-builder.apiName.searchAgent": "Agenten zoeken",
|
|
38
48
|
"builtins.lobe-group-agent-builder.apiName.searchMarketTools": "Skill-marktplaats doorzoeken",
|
|
39
49
|
"builtins.lobe-group-agent-builder.apiName.updateAgentConfig": "Agentconfiguratie bijwerken",
|
|
40
|
-
"builtins.lobe-group-agent-builder.apiName.
|
|
50
|
+
"builtins.lobe-group-agent-builder.apiName.updateAgentPrompt": "Agentprompt bijwerken",
|
|
51
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroup": "Groep bijwerken",
|
|
52
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroupPrompt": "Groepsprompt bijwerken",
|
|
53
|
+
"builtins.lobe-group-agent-builder.apiName.updateSupervisorPrompt": "Supervisorprompt bijwerken",
|
|
54
|
+
"builtins.lobe-group-agent-builder.inspector.agents": "agenten",
|
|
55
|
+
"builtins.lobe-group-agent-builder.inspector.avatar": "Avatar",
|
|
56
|
+
"builtins.lobe-group-agent-builder.inspector.backgroundColor": "Achtergrondkleur",
|
|
57
|
+
"builtins.lobe-group-agent-builder.inspector.description": "Beschrijving",
|
|
58
|
+
"builtins.lobe-group-agent-builder.inspector.noResults": "Geen resultaten",
|
|
59
|
+
"builtins.lobe-group-agent-builder.inspector.openingMessage": "Openingsbericht",
|
|
60
|
+
"builtins.lobe-group-agent-builder.inspector.openingQuestions": "Openingsvragen",
|
|
61
|
+
"builtins.lobe-group-agent-builder.inspector.title": "Titel",
|
|
41
62
|
"builtins.lobe-group-agent-builder.title": "Groepsbuilder Expert",
|
|
42
63
|
"builtins.lobe-group-management.apiName.broadcast": "Allen spreken",
|
|
43
64
|
"builtins.lobe-group-management.apiName.createAgent": "Groepslid toevoegen",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
|
|
30
30
|
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
|
|
31
31
|
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
|
|
33
32
|
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
|
|
35
34
|
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
|
package/locales/pl-PL/chat.json
CHANGED
|
@@ -71,11 +71,18 @@
|
|
|
71
71
|
"group.desc": "Pracuj nad zadaniem z wieloma Agentami w jednej wspólnej przestrzeni.",
|
|
72
72
|
"group.memberTooltip": "Grupa zawiera {{count}} członków",
|
|
73
73
|
"group.orchestratorThinking": "Orkiestrator myśli...",
|
|
74
|
+
"group.profile.contentPlaceholder": "Ustaw tutaj cele grupy/tryby pracy. Informacje te będą udostępnione wszystkim członkom grupy.",
|
|
75
|
+
"group.profile.external": "Zewnętrzny",
|
|
76
|
+
"group.profile.externalAgentWarning": "To jest zewnętrzny agent. Zmiany wprowadzone tutaj bezpośrednio zmodyfikują oryginalną konfigurację agenta.",
|
|
77
|
+
"group.profile.groupSettings": "Ustawienia grupy",
|
|
78
|
+
"group.profile.supervisor": "Koordynator",
|
|
79
|
+
"group.profile.supervisorPlaceholder": "Koordynator nadzoruje pracę różnych agentów. Ustawienie informacji o koordynatorze umożliwia dokładniejszą koordynację przepływu pracy.",
|
|
74
80
|
"group.removeMember": "Usuń członka",
|
|
75
81
|
"group.title": "Grupa",
|
|
76
82
|
"groupDescription": "Opis grupy",
|
|
77
83
|
"groupSidebar.agentProfile.chat": "Czat",
|
|
78
84
|
"groupSidebar.agentProfile.model": "Model",
|
|
85
|
+
"groupSidebar.agentProfile.settings": "Ustawienia",
|
|
79
86
|
"groupSidebar.members.addMember": "Dodaj członka",
|
|
80
87
|
"groupSidebar.members.enableOrchestrator": "Włącz Orkiestratora",
|
|
81
88
|
"groupSidebar.members.memberSettings": "Ustawienia członka",
|
|
@@ -134,6 +134,8 @@
|
|
|
134
134
|
"cmdk.search.communityAgent": "Agent społeczności",
|
|
135
135
|
"cmdk.search.file": "Plik",
|
|
136
136
|
"cmdk.search.files": "Pliki",
|
|
137
|
+
"cmdk.search.folder": "Folder",
|
|
138
|
+
"cmdk.search.folders": "Foldery",
|
|
137
139
|
"cmdk.search.loading": "Wyszukiwanie...",
|
|
138
140
|
"cmdk.search.market": "Społeczność",
|
|
139
141
|
"cmdk.search.mcp": "Serwer MCP",
|
|
@@ -56,12 +56,12 @@
|
|
|
56
56
|
"assistants.more": "Więcej",
|
|
57
57
|
"assistants.plugins": "Zintegrowane Umiejętności",
|
|
58
58
|
"assistants.recentSubmits": "Ostatnie aktualizacje",
|
|
59
|
-
"assistants.sorts.recommended": "Polecane",
|
|
60
59
|
"assistants.sorts.createdAt": "Najnowsze publikacje",
|
|
61
60
|
"assistants.sorts.identifier": "ID Agenta",
|
|
62
61
|
"assistants.sorts.knowledgeCount": "Biblioteki",
|
|
63
62
|
"assistants.sorts.myown": "Zobacz Moich Agentów",
|
|
64
63
|
"assistants.sorts.pluginCount": "Umiejętności",
|
|
64
|
+
"assistants.sorts.recommended": "Polecane",
|
|
65
65
|
"assistants.sorts.title": "Nazwa Agenta",
|
|
66
66
|
"assistants.sorts.tokenUsage": "Zużycie tokenów",
|
|
67
67
|
"assistants.status.archived.reasons.official": "Platforma usunęła tego Agenta z powodów bezpieczeństwa, polityki lub innych.",
|
|
@@ -83,12 +83,12 @@
|
|
|
83
83
|
"assistants.withKnowledge": "Ten Agent zawiera Biblioteki",
|
|
84
84
|
"assistants.withPlugin": "Ten Agent zawiera Umiejętności",
|
|
85
85
|
"back": "Powrót do Odkrywania",
|
|
86
|
-
"category.assistant.discover": "Odkrywanie",
|
|
87
86
|
"category.assistant.academic": "Akademickie",
|
|
88
87
|
"category.assistant.all": "Wszystkie",
|
|
89
88
|
"category.assistant.career": "Kariera",
|
|
90
89
|
"category.assistant.copywriting": "Copywriting",
|
|
91
90
|
"category.assistant.design": "Projektowanie",
|
|
91
|
+
"category.assistant.discover": "Odkrywanie",
|
|
92
92
|
"category.assistant.education": "Edukacja",
|
|
93
93
|
"category.assistant.emotions": "Emocje",
|
|
94
94
|
"category.assistant.entertainment": "Rozrywka",
|