@lobehub/lobehub 2.0.0-next.272 → 2.0.0-next.274
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +59 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +7 -0
- package/locales/ar/common.json +1 -1
- package/locales/ar/discover.json +2 -2
- package/locales/ar/models.json +40 -12
- package/locales/ar/onboarding.json +1 -1
- package/locales/ar/plugin.json +22 -1
- package/locales/ar/providers.json +0 -1
- package/locales/bg-BG/chat.json +7 -0
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/discover.json +2 -2
- package/locales/bg-BG/models.json +48 -13
- package/locales/bg-BG/onboarding.json +1 -1
- package/locales/bg-BG/plugin.json +22 -1
- package/locales/bg-BG/providers.json +0 -1
- package/locales/de-DE/chat.json +7 -0
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/discover.json +2 -2
- package/locales/de-DE/models.json +37 -13
- package/locales/de-DE/onboarding.json +3 -0
- package/locales/de-DE/plugin.json +22 -1
- package/locales/de-DE/providers.json +0 -1
- package/locales/en-US/chat.json +7 -0
- package/locales/en-US/discover.json +2 -2
- package/locales/en-US/models.json +15 -15
- package/locales/en-US/plugin.json +22 -1
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/chat.json +7 -0
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/discover.json +2 -2
- package/locales/es-ES/models.json +32 -14
- package/locales/es-ES/onboarding.json +3 -0
- package/locales/es-ES/plugin.json +22 -1
- package/locales/es-ES/providers.json +0 -1
- package/locales/fa-IR/chat.json +7 -0
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/discover.json +2 -2
- package/locales/fa-IR/models.json +36 -14
- package/locales/fa-IR/onboarding.json +3 -0
- package/locales/fa-IR/plugin.json +22 -1
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fr-FR/chat.json +7 -0
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/discover.json +2 -2
- package/locales/fr-FR/models.json +95 -13
- package/locales/fr-FR/onboarding.json +3 -0
- package/locales/fr-FR/plugin.json +22 -1
- package/locales/fr-FR/providers.json +0 -1
- package/locales/it-IT/chat.json +7 -0
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/discover.json +2 -2
- package/locales/it-IT/models.json +8 -13
- package/locales/it-IT/onboarding.json +3 -0
- package/locales/it-IT/plugin.json +22 -1
- package/locales/it-IT/providers.json +0 -1
- package/locales/ja-JP/chat.json +7 -0
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/discover.json +2 -2
- package/locales/ja-JP/models.json +76 -8
- package/locales/ja-JP/onboarding.json +3 -0
- package/locales/ja-JP/plugin.json +22 -1
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ko-KR/chat.json +7 -0
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/discover.json +2 -2
- package/locales/ko-KR/models.json +8 -15
- package/locales/ko-KR/onboarding.json +3 -0
- package/locales/ko-KR/plugin.json +22 -1
- package/locales/ko-KR/providers.json +0 -1
- package/locales/nl-NL/chat.json +7 -0
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/discover.json +2 -2
- package/locales/nl-NL/models.json +98 -9
- package/locales/nl-NL/onboarding.json +3 -0
- package/locales/nl-NL/plugin.json +22 -1
- package/locales/nl-NL/providers.json +0 -1
- package/locales/pl-PL/chat.json +7 -0
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/discover.json +2 -2
- package/locales/pl-PL/models.json +38 -13
- package/locales/pl-PL/onboarding.json +3 -0
- package/locales/pl-PL/plugin.json +22 -1
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pt-BR/chat.json +7 -0
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/discover.json +2 -2
- package/locales/pt-BR/models.json +50 -13
- package/locales/pt-BR/onboarding.json +3 -0
- package/locales/pt-BR/plugin.json +22 -1
- package/locales/pt-BR/providers.json +0 -1
- package/locales/ru-RU/chat.json +7 -0
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/discover.json +2 -2
- package/locales/ru-RU/models.json +54 -13
- package/locales/ru-RU/onboarding.json +3 -0
- package/locales/ru-RU/plugin.json +22 -1
- package/locales/ru-RU/providers.json +0 -1
- package/locales/tr-TR/chat.json +7 -0
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/discover.json +2 -2
- package/locales/tr-TR/models.json +40 -13
- package/locales/tr-TR/onboarding.json +3 -0
- package/locales/tr-TR/plugin.json +22 -1
- package/locales/tr-TR/providers.json +0 -1
- package/locales/vi-VN/chat.json +7 -0
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/discover.json +2 -2
- package/locales/vi-VN/models.json +8 -8
- package/locales/vi-VN/onboarding.json +3 -0
- package/locales/vi-VN/plugin.json +22 -1
- package/locales/vi-VN/providers.json +0 -1
- package/locales/zh-CN/chat.json +7 -0
- package/locales/zh-CN/discover.json +2 -2
- package/locales/zh-CN/models.json +95 -13
- package/locales/zh-CN/onboarding.json +3 -0
- package/locales/zh-CN/plugin.json +22 -1
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/chat.json +7 -0
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/discover.json +2 -2
- package/locales/zh-TW/models.json +86 -13
- package/locales/zh-TW/onboarding.json +3 -0
- package/locales/zh-TW/plugin.json +22 -1
- package/locales/zh-TW/providers.json +0 -1
- package/package.json +1 -1
- package/packages/builtin-tool-agent-builder/package.json +1 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/GetAvailableModels/index.tsx +66 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/InstallPlugin/index.tsx +63 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/SearchMarketTools/index.tsx +64 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/UpdateConfig/index.tsx +94 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/UpdatePrompt/index.tsx +96 -0
- package/packages/builtin-tool-agent-builder/src/client/Inspector/index.ts +29 -0
- package/packages/builtin-tool-agent-builder/src/client/index.ts +13 -0
- package/packages/builtin-tool-agent-builder/src/executor.ts +132 -0
- package/packages/builtin-tool-cloud-sandbox/src/client/Inspector/ExecuteCode/index.tsx +5 -14
- package/packages/builtin-tool-cloud-sandbox/src/client/Inspector/RunCommand/index.tsx +5 -13
- package/packages/builtin-tool-group-agent-builder/package.json +7 -1
- package/packages/builtin-tool-group-agent-builder/src/ExecutionRuntime/index.ts +331 -87
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/BatchCreateAgents/index.tsx +110 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/CreateAgent/index.tsx +72 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/InviteAgent/index.tsx +57 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/RemoveAgent/index.tsx +57 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/SearchAgent/index.tsx +66 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateAgentPrompt/index.tsx +120 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateGroup/index.tsx +87 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateGroupPrompt/index.tsx +99 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/index.ts +52 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/BatchCreateAgents.tsx +103 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/UpdateAgentPrompt/index.tsx +36 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/UpdateGroupPrompt/index.tsx +36 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Render/index.ts +16 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/BatchCreateAgents/index.tsx +88 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/UpdateAgentPrompt/index.tsx +37 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/UpdateGroupPrompt/index.tsx +35 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Streaming/index.ts +22 -0
- package/packages/builtin-tool-group-agent-builder/src/client/index.ts +26 -0
- package/packages/builtin-tool-group-agent-builder/src/executor.ts +284 -0
- package/packages/builtin-tool-group-agent-builder/src/index.ts +1 -14
- package/packages/builtin-tool-group-agent-builder/src/manifest.ts +160 -15
- package/packages/builtin-tool-group-agent-builder/src/systemRole.ts +232 -46
- package/packages/builtin-tool-group-agent-builder/src/types.ts +191 -41
- package/packages/builtin-tool-group-management/src/client/Inspector/Broadcast/index.tsx +2 -2
- package/packages/builtin-tool-group-management/src/manifest.ts +1 -1
- package/packages/builtin-tool-gtd/src/client/Inspector/ClearTodos/index.tsx +5 -11
- package/packages/builtin-tool-gtd/src/client/Inspector/CompleteTodos/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/CreatePlan/index.tsx +6 -15
- package/packages/builtin-tool-gtd/src/client/Inspector/CreateTodos/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +6 -17
- package/packages/builtin-tool-gtd/src/client/Inspector/RemoveTodos/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/UpdatePlan/index.tsx +3 -9
- package/packages/builtin-tool-gtd/src/client/Inspector/UpdateTodos/index.tsx +3 -9
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/ReadKnowledge/index.tsx +4 -16
- package/packages/builtin-tool-knowledge-base/src/client/Inspector/SearchKnowledgeBase/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/EditLocalFile/index.tsx +4 -12
- package/packages/builtin-tool-local-system/src/client/Inspector/GlobLocalFiles/index.tsx +5 -13
- package/packages/builtin-tool-local-system/src/client/Inspector/GrepContent/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/ListLocalFiles/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/ReadLocalFile/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/RenameLocalFile/index.tsx +5 -11
- package/packages/builtin-tool-local-system/src/client/Inspector/RunCommand/index.tsx +5 -13
- package/packages/builtin-tool-local-system/src/client/Inspector/SearchLocalFiles/index.tsx +5 -16
- package/packages/builtin-tool-local-system/src/client/Inspector/WriteLocalFile/index.tsx +6 -15
- package/packages/builtin-tool-notebook/src/client/Inspector/CreateDocument/index.tsx +7 -15
- package/packages/builtin-tool-page-agent/src/client/Inspector/EditTitle/index.tsx +5 -14
- package/packages/builtin-tool-page-agent/src/client/Inspector/GetPageContent/index.tsx +7 -8
- package/packages/builtin-tool-page-agent/src/client/Inspector/InitPage/index.tsx +4 -10
- package/packages/builtin-tool-page-agent/src/client/Inspector/ModifyNodes/index.tsx +3 -9
- package/packages/builtin-tool-page-agent/src/client/Inspector/ReplaceText/index.tsx +5 -11
- package/packages/builtin-tool-web-browsing/src/client/Inspector/CrawlMultiPages/index.tsx +6 -15
- package/packages/builtin-tool-web-browsing/src/client/Inspector/CrawlSinglePage/index.tsx +6 -15
- package/packages/builtin-tool-web-browsing/src/client/Inspector/Search/index.tsx +4 -15
- package/packages/database/src/models/chatGroup.ts +1 -1
- package/packages/model-bank/src/aiModels/aihubmix.ts +2 -1
- package/packages/model-bank/src/aiModels/google.ts +2 -1
- package/packages/model-bank/src/aiModels/infiniai.ts +9 -6
- package/packages/model-bank/src/aiModels/minimax.ts +9 -5
- package/packages/model-bank/src/aiModels/ollamacloud.ts +4 -2
- package/packages/model-bank/src/aiModels/vertexai.ts +2 -1
- package/packages/types/src/agentGroup/index.ts +8 -0
- package/patches/@upstash__qstash.patch +13 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Header/Nav.tsx +1 -1
- package/src/app/[variants]/(main)/agent/cron/[cronId]/index.tsx +4 -3
- package/src/app/[variants]/(main)/agent/profile/features/ProfileEditor/index.tsx +1 -1
- package/src/app/[variants]/(main)/agent/profile/features/store/action.ts +18 -21
- package/src/app/[variants]/(main)/group/_layout/GroupIdSync.tsx +6 -1
- package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/AgentProfilePopup.tsx +29 -21
- package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/GroupMember.tsx +1 -0
- package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/GroupMemberItem.tsx +35 -18
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/AddTopicButon.tsx +2 -10
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/Nav.tsx +10 -2
- package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/index.tsx +1 -2
- package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/AgentBuilderProvider.tsx +1 -0
- package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/TopicSelector.tsx +15 -9
- package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/index.tsx +12 -6
- package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor/AgentHeader.tsx → GroupProfile/GroupHeader.tsx} +22 -29
- package/src/app/[variants]/(main)/group/profile/features/GroupProfile/index.tsx +96 -0
- package/src/app/[variants]/(main)/group/profile/features/Header/AgentBuilderToggle.tsx +3 -4
- package/src/app/[variants]/(main)/group/profile/features/Header/AutoSaveHint.tsx +11 -7
- package/src/app/[variants]/(main)/group/profile/features/Header/ChromeTabs/index.tsx +147 -0
- package/src/app/[variants]/(main)/group/profile/features/Header/index.tsx +104 -13
- package/src/app/[variants]/(main)/group/profile/features/MemberProfile/AgentHeader.tsx +222 -0
- package/src/app/[variants]/(main)/group/profile/features/MemberProfile/index.tsx +155 -0
- package/src/app/[variants]/(main)/group/profile/features/ProfileHydration.tsx +63 -5
- package/src/app/[variants]/(main)/group/profile/index.tsx +34 -37
- package/src/app/[variants]/(mobile)/(home)/_layout/SessionHydration.tsx +1 -1
- package/src/app/[variants]/(mobile)/(home)/features/SessionListContent/List/Item/index.tsx +1 -1
- package/src/features/AgentBuilder/index.tsx +16 -1
- package/src/features/Conversation/Messages/AssistantGroup/Tool/Inspector/StatusIndicator.tsx +3 -2
- package/src/features/EditorCanvas/EditorCanvas.test.tsx +206 -0
- package/src/features/EditorCanvas/EditorDataMode.tsx +53 -19
- package/src/features/EditorModal/index.tsx +2 -2
- package/src/features/NavPanel/components/SessionHydration.tsx +1 -1
- package/src/features/ShareModal/ShareImage/ChatList/index.tsx +1 -1
- package/src/features/ShareModal/SharePdf/index.tsx +1 -1
- package/src/hooks/useBidirectionalQuerySync.ts +112 -0
- package/src/locales/default/chat.ts +10 -0
- package/src/locales/default/plugin.ts +22 -1
- package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +45 -45
- package/src/server/modules/KeyVaultsEncrypt/index.ts +6 -6
- package/src/server/modules/S3/index.ts +1 -1
- package/src/server/routers/lambda/agent.ts +24 -0
- package/src/server/routers/lambda/agentGroup.ts +39 -0
- package/src/services/agent.ts +22 -0
- package/src/services/chatGroup/index.ts +14 -0
- package/src/store/agent/selectors/selectors.ts +3 -0
- package/src/store/agentGroup/initialState.ts +6 -0
- package/src/store/agentGroup/selectors/byId.ts +3 -1
- package/src/store/agentGroup/selectors/current.ts +2 -2
- package/src/store/agentGroup/slices/lifecycle.ts +18 -0
- package/src/store/chat/agents/__tests__/createAgentExecutors/fixtures/mockStore.ts +1 -1
- package/src/store/chat/slices/aiAgent/actions/__tests__/agentGroup.test.ts +4 -1
- package/src/store/chat/slices/aiAgent/actions/agentGroup.ts +1 -1
- package/src/store/chat/slices/aiChat/actions/__tests__/conversationLifecycle.test.ts +65 -0
- package/src/store/chat/slices/aiChat/actions/conversationLifecycle.ts +2 -1
- package/src/store/chat/slices/builtinTool/actions/__tests__/search.test.ts +1 -1
- package/src/store/chat/slices/builtinTool/actions/index.ts +1 -6
- package/src/store/chat/slices/message/action.test.ts +5 -5
- package/src/store/chat/slices/message/actions/publicApi.ts +5 -5
- package/src/store/chat/slices/message/initialState.ts +0 -5
- package/src/store/chat/slices/message/selectors/displayMessage.test.ts +4 -4
- package/src/store/chat/slices/plugin/action.test.ts +54 -19
- package/src/store/chat/slices/plugin/actions/pluginTypes.ts +15 -21
- package/src/store/chat/slices/topic/action.test.ts +74 -24
- package/src/store/chat/slices/topic/action.ts +21 -13
- package/src/store/chat/slices/topic/selectors.test.ts +1 -1
- package/src/store/global/initialState.ts +10 -0
- package/src/store/global/selectors/systemStatus.ts +5 -0
- package/src/store/groupProfile/action.ts +168 -0
- package/src/store/groupProfile/index.ts +16 -0
- package/src/{app/[variants]/(main)/group/profile/features/store → store/groupProfile}/initialState.ts +17 -0
- package/src/store/groupProfile/selectors.ts +13 -0
- package/src/store/tool/slices/builtin/executors/index.ts +4 -0
- package/src/styles/text.ts +16 -0
- package/src/tools/inspectors.ts +13 -0
- package/src/tools/renders.ts +3 -0
- package/src/tools/streamings.ts +8 -0
- package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/TypoBar.tsx +0 -129
- package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/index.tsx +0 -138
- package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/useSlashItems.tsx +0 -139
- package/src/app/[variants]/(main)/group/profile/features/ProfileEditor/index.tsx +0 -82
- package/src/app/[variants]/(main)/group/profile/features/ProfileProvider.tsx +0 -20
- package/src/app/[variants]/(main)/group/profile/features/StoreUpdater.tsx +0 -24
- package/src/app/[variants]/(main)/group/profile/features/store/action.ts +0 -163
- package/src/app/[variants]/(main)/group/profile/features/store/index.ts +0 -23
- package/src/app/[variants]/(main)/group/profile/features/store/selectors.ts +0 -7
- package/src/features/EditorModal/EditorCanvas.tsx +0 -84
- package/src/features/EditorModal/Typobar.tsx +0 -139
- package/src/store/chat/slices/builtinTool/actions/agentBuilder.ts +0 -192
- package/src/store/chat/slices/builtinTool/actions/groupAgentBuilder.ts +0 -242
- package/src/tools/executionRuntimes.ts +0 -14
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/AgentTool.tsx +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/MentionDropdown.tsx +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/index.tsx +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/types.ts +0 -0
- /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/useMentionItems.tsx +0 -0
|
@@ -73,9 +73,9 @@
|
|
|
73
73
|
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick یک مدل MoE بزرگ با فعالسازی کارآمد متخصصان برای عملکرد استدلالی قوی است.",
|
|
74
74
|
"MiniMax-M1.description": "یک مدل استدلالی داخلی جدید با ۸۰ هزار زنجیره تفکر و ورودی ۱ میلیون توکن، با عملکردی در سطح مدلهای برتر جهانی.",
|
|
75
75
|
"MiniMax-M2-Stable.description": "طراحیشده برای کدنویسی کارآمد و جریانهای کاری عاملمحور، با همزمانی بالاتر برای استفاده تجاری.",
|
|
76
|
-
"MiniMax-M2.1-Lightning.description": "
|
|
77
|
-
"MiniMax-M2.1.description": "
|
|
78
|
-
"MiniMax-M2.description": "طراحیشده برای کدنویسی کارآمد و جریانهای کاری
|
|
76
|
+
"MiniMax-M2.1-Lightning.description": "قابلیتهای قدرتمند برنامهنویسی چندزبانه با تجربهای کاملاً ارتقاءیافته. سریعتر و کارآمدتر.",
|
|
77
|
+
"MiniMax-M2.1.description": "قابلیتهای قدرتمند برنامهنویسی چندزبانه با تجربهای کاملاً ارتقاءیافته در برنامهنویسی.",
|
|
78
|
+
"MiniMax-M2.description": "طراحیشده بهطور خاص برای کدنویسی کارآمد و جریانهای کاری عاملمحور.",
|
|
79
79
|
"MiniMax-Text-01.description": "MiniMax-01 توجه خطی در مقیاس بزرگ را فراتر از ترنسفورمرهای کلاسیک معرفی میکند، با ۴۵۶ میلیارد پارامتر و ۴۵.۹ میلیارد پارامتر فعال در هر عبور. این مدل عملکردی در سطح برتر ارائه میدهد و تا ۴ میلیون توکن زمینه را پشتیبانی میکند (۳۲ برابر GPT-4o، ۲۰ برابر Claude-3.5-Sonnet).",
|
|
80
80
|
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 یک مدل استدلالی با وزنهای باز و معماری توجه ترکیبی در مقیاس بزرگ است با ۴۵۶ میلیارد پارامتر کل و حدود ۴۵.۹ میلیارد پارامتر فعال در هر توکن. این مدل بهصورت بومی از زمینه ۱ میلیون توکن پشتیبانی میکند و با استفاده از Flash Attention، مصرف FLOPs را در تولید ۱۰۰ هزار توکن تا ۷۵٪ نسبت به DeepSeek R1 کاهش میدهد. با معماری MoE بههمراه CISPO و آموزش تقویتی با توجه ترکیبی، عملکردی پیشرو در استدلال ورودیهای طولانی و وظایف واقعی مهندسی نرمافزار ارائه میدهد.",
|
|
81
81
|
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 کارایی عاملها را بازتعریف میکند. این مدل MoE فشرده، سریع و مقرونبهصرفه با ۲۳۰ میلیارد پارامتر کل و ۱۰ میلیارد پارامتر فعال است که برای وظایف کدنویسی و عاملهای سطح بالا طراحی شده و در عین حال هوش عمومی قوی را حفظ میکند. با تنها ۱۰ میلیارد پارامتر فعال، با مدلهای بسیار بزرگتر رقابت میکند و برای کاربردهای با کارایی بالا ایدهآل است.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارتها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگتر قبلی، Claude 3 Opus، پیشی میگیرد.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخهای سریع برای وظایف سبک ارائه میدهد.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل میتواند پاسخهای تقریباً فوری یا استدلال گامبهگام گستردهای تولید کند که کاربران میتوانند آن را مشاهده کنند. Sonnet بهویژه در برنامهنویسی، علم داده، بینایی رایانهای و وظایف عاملها بسیار قدرتمند است.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای پاسخهای تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار میکند و با هزینه کمتر، بهرهوری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه میدهد.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برقآسا و توانایی
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برقآسا و توانایی استدلال پیشرفته همراه است.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که میتواند فرآیند استدلال خود را آشکار کند.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برجسته را با عملکرد مقیاسپذیر ترکیب میکند و برای وظایف پیچیدهای که نیاز به پاسخهای باکیفیت و استدلال دارند، ایدهآل است.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام طولانی با فرآیند قابل مشاهده تولید کند.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام گستردهای با فرآیند قابل مشاهده تولید کند.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامهنویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی میکند تا بهرهوری توسعهدهندگان را افزایش دهد.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی میکند و طیف گستردهای از سناریوهای توسعه نرمافزار را پوشش میدهد. این مدل یکی از بهترین مدلهای کد زیر ۱۰ میلیارد پارامتر است.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعالسازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قویای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایهگذاری بصری عملکرد درخشانی دارد.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "مدلی متنباز جدید که تواناییهای عمومی و برنامهنویسی را ترکیب میکند. این مدل گفتوگوی عمومی مدل چت و قدرت برنامهنویسی مدل کدنویس را حفظ کرده و با همراستایی ترجیحی بهتر همراه است. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعملها بهبود یافته است.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامهنویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم میکند.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخدهی سریعتر ترکیب میکند.",
|
|
379
379
|
"deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قویتری را ارائه میدهد.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از دادههای شروع سرد استفاده میکند و در وظایف ریاضی، کدنویسی و استدلال عملکردی همسطح با OpenAI-o1 دارد.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از پاسخ نهایی زنجیرهای از افکار را تولید میکند تا دقت را افزایش دهد.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرونبهصرفه را امکانپذیر میسازد.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامهنویسی، تواناییهای فنی، درک زمینه و پردازش متون بلند عملکرد برجستهای دارد.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوقسبک برای پرسشوپاسخ ساده، طبقهبندی و استنتاج کمهزینه است.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفتوگوی چندمرحلهای است.",
|
|
473
473
|
"ernie-x1.1-preview.description": "پیشنمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودیهای متنی و تصویری پشتیبانی میکند و تولید تصاویر با کیفیت بالا و قابل کنترل را ارائه میدهد. این مدل تصاویر را از دستورات متنی تولید میکند.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودیهای متنی و تصویری پشتیبانی میکند.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودیهای متنی و تصاویر مرجع را میپذیرد و امکان ویرایشهای محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم میکند.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیباییشناسی به تصاویر طبیعی و واقعگرایانهتر است.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم میکند.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفهای از تیم Qwen که از
|
|
483
|
-
"fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفهای از تیم Qwen که از ویرایشهای معنایی و ظاهری پشتیبانی میکند، متون چینی و انگلیسی را با دقت ویرایش میکند و ویرایشهای با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن میسازد.",
|
|
483
|
+
"fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متون چینی و سبکهای بصری متنوع.",
|
|
484
484
|
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده میکند. این مدل با جایگزینهای بسته رقابت میکند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزنهای باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفهای و پیروی از دستورالعمل را حفظ میکند و در عین حال کارآمدتر اجرا میشود و منابع را بهتر از مدلهای استاندارد همسایز استفاده میکند.",
|
|
486
486
|
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
|
|
@@ -526,7 +526,6 @@
|
|
|
526
526
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview پیشرفتهترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و میتواند مجموعهدادههای بزرگ، پایگاههای کد و اسناد را با زمینه طولانی تحلیل کند.",
|
|
527
527
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview پیشرفتهترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و میتواند مجموعهدادههای بزرگ، پایگاههای کد و اسناد را با زمینه طولانی تحلیل کند.",
|
|
528
528
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro پرچمدار مدلهای استدلالی گوگل است که از زمینههای طولانی برای انجام وظایف پیچیده پشتیبانی میکند.",
|
|
529
|
-
"gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحیشده برای سرعت است که هوش پیشرفته را با جستجوی عالی ترکیب میکند.",
|
|
530
529
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتوگوی چندوجهی نیز پشتیبانی میکند.",
|
|
531
530
|
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتوگوی چندوجهی نیز پشتیبانی میکند.",
|
|
532
531
|
"gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنیتر و تعامل عمیقتری را بر پایه استدلال پیشرفته ارائه میدهد.",
|
|
@@ -606,6 +605,29 @@
|
|
|
606
605
|
"google/gemma-3-27b-it.description": "Gemma 3 27B یک مدل زبان متنباز گوگل است که استاندارد جدیدی برای کارایی و عملکرد تعیین میکند.",
|
|
607
606
|
"google/text-embedding-005.description": "مدل جاسازی متن متمرکز بر زبان انگلیسی که برای وظایف کد و زبان انگلیسی بهینه شده است.",
|
|
608
607
|
"google/text-multilingual-embedding-002.description": "مدل جاسازی متن چندزبانه بهینهشده برای وظایف میانزبانی در زبانهای مختلف.",
|
|
608
|
+
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo برای تولید و درک متن؛ در حال حاضر به gpt-3.5-turbo-0125 اشاره دارد.",
|
|
609
|
+
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo برای تولید و درک متن؛ در حال حاضر به gpt-3.5-turbo-0125 اشاره دارد.",
|
|
610
|
+
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo برای وظایف تولید و درک متن، بهینهشده برای پیروی از دستورالعملها.",
|
|
611
|
+
"gpt-3.5-turbo.description": "GPT 3.5 Turbo برای تولید و درک متن؛ در حال حاضر به gpt-3.5-turbo-0125 اشاره دارد.",
|
|
612
|
+
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k یک مدل تولید متن با ظرفیت بالا برای وظایف پیچیده است.",
|
|
613
|
+
"gpt-35-turbo.description": "GPT-3.5 Turbo مدل کارآمد OpenAI برای چت و تولید متن است که از فراخوانی توابع بهصورت موازی پشتیبانی میکند.",
|
|
614
|
+
"gpt-4-0125-preview.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواستهای تصویری از حالت JSON و فراخوانی توابع پشتیبانی میکنند. این مدل چندوجهی مقرونبهصرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه میدهد.",
|
|
615
|
+
"gpt-4-0613.description": "GPT-4 پنجره متنی بزرگتری برای مدیریت ورودیهای طولانی فراهم میکند و برای ترکیب گسترده اطلاعات و تحلیل دادهها مناسب است.",
|
|
616
|
+
"gpt-4-1106-preview.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواستهای تصویری از حالت JSON و فراخوانی توابع پشتیبانی میکنند. این مدل چندوجهی مقرونبهصرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه میدهد.",
|
|
617
|
+
"gpt-4-32k-0613.description": "GPT-4 پنجره متنی بزرگتری برای مدیریت ورودیهای طولانی فراهم میکند و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل داده دارند مناسب است.",
|
|
618
|
+
"gpt-4-32k.description": "GPT-4 پنجره متنی بزرگتری برای مدیریت ورودیهای طولانی فراهم میکند و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل داده دارند مناسب است.",
|
|
619
|
+
"gpt-4-turbo-2024-04-09.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواستهای تصویری از حالت JSON و فراخوانی توابع پشتیبانی میکنند. این مدل چندوجهی مقرونبهصرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه میدهد.",
|
|
620
|
+
"gpt-4-turbo-preview.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواستهای تصویری از حالت JSON و فراخوانی توابع پشتیبانی میکنند. این مدل چندوجهی مقرونبهصرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه میدهد.",
|
|
621
|
+
"gpt-4-turbo.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواستهای تصویری از حالت JSON و فراخوانی توابع پشتیبانی میکنند. این مدل چندوجهی مقرونبهصرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه میدهد.",
|
|
622
|
+
"gpt-4-vision-preview.description": "پیشنمایش GPT-4 Vision، طراحیشده برای وظایف تحلیل و پردازش تصویر.",
|
|
623
|
+
"gpt-4.1-mini.description": "GPT-4.1 mini تعادلی میان هوش، سرعت و هزینه برقرار میکند و برای بسیاری از کاربردها جذاب است.",
|
|
624
|
+
"gpt-4.1-nano.description": "GPT-4.1 nano سریعترین و مقرونبهصرفهترین مدل GPT-4.1 است.",
|
|
625
|
+
"gpt-4.1.description": "GPT-4.1 مدل پرچمدار ما برای وظایف پیچیده و حل مسائل میاندامنهای است.",
|
|
626
|
+
"gpt-4.5-preview.description": "GPT-4.5-preview جدیدترین مدل عمومی با دانش عمیق از جهان و درک بهتر از نیت کاربر است که در وظایف خلاقانه و برنامهریزی عاملها بسیار قوی عمل میکند. تاریخ قطع دانش آن اکتبر ۲۰۲۳ است.",
|
|
627
|
+
"gpt-4.description": "GPT-4 پنجره متنی بزرگتری برای مدیریت ورودیهای طولانی فراهم میکند و برای ترکیب گسترده اطلاعات و تحلیل دادهها مناسب است.",
|
|
628
|
+
"gpt-4o-2024-05-13.description": "ChatGPT-4o مدلی پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
629
|
+
"gpt-4o-2024-08-06.description": "ChatGPT-4o مدلی پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
630
|
+
"gpt-4o-2024-11-20.description": "ChatGPT-4o مدلی پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
609
631
|
"meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعهدهندگان، پژوهشگران و شرکتها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد طراحی شده است. این مدل بهعنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیطهایی با منابع محدود، دستگاههای لبه و زمانهای آموزش سریع مناسب است.",
|
|
610
632
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری.",
|
|
611
633
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامههای عامل با قابلیت درک بصری.",
|
|
@@ -12,6 +12,9 @@
|
|
|
12
12
|
"interests.area.writing": "تولید محتوا",
|
|
13
13
|
"interests.hint": "میتوانید هر زمان از تنظیمات این را تغییر دهید",
|
|
14
14
|
"interests.placeholder": "علایق خود را وارد کنید...",
|
|
15
|
+
"interests.title": "به چه زمینههایی علاقهمند هستید؟",
|
|
16
|
+
"interests.title2": "این به من کمک میکنه بهتر با شما آشنا بشم",
|
|
17
|
+
"interests.title3": "عجله نکنید، کمکم بیشتر با شما آشنا میشم",
|
|
15
18
|
"modeSelection.desc": "حالت کاریای که برات مناسبتره رو انتخاب کن",
|
|
16
19
|
"modeSelection.hint": "میتونی هر زمان از تنظیمات تغییرش بدی",
|
|
17
20
|
"modeSelection.lite.desc": "مناسب برای گفتگوهای روزمره، پرسش و پاسخ، بهرهوری سبک و تست مدلها",
|
|
@@ -5,6 +5,7 @@
|
|
|
5
5
|
"builtins.lobe-agent-builder.apiName.getConfig": "دریافت پیکربندی",
|
|
6
6
|
"builtins.lobe-agent-builder.apiName.getMeta": "دریافت فراداده",
|
|
7
7
|
"builtins.lobe-agent-builder.apiName.getPrompt": "دریافت پیام سیستمی",
|
|
8
|
+
"builtins.lobe-agent-builder.apiName.installPlugin": "نصب مهارت",
|
|
8
9
|
"builtins.lobe-agent-builder.apiName.searchMarketTools": "جستجوی بازار مهارتها",
|
|
9
10
|
"builtins.lobe-agent-builder.apiName.searchOfficialTools": "جستجوی مهارتهای رسمی",
|
|
10
11
|
"builtins.lobe-agent-builder.apiName.setModel": "تنظیم مدل",
|
|
@@ -15,6 +16,12 @@
|
|
|
15
16
|
"builtins.lobe-agent-builder.apiName.updateConfig": "بهروزرسانی پیکربندی",
|
|
16
17
|
"builtins.lobe-agent-builder.apiName.updateMeta": "بهروزرسانی فراداده",
|
|
17
18
|
"builtins.lobe-agent-builder.apiName.updatePrompt": "بهروزرسانی پیام سیستمی",
|
|
19
|
+
"builtins.lobe-agent-builder.inspector.chars": " کاراکتر",
|
|
20
|
+
"builtins.lobe-agent-builder.inspector.disablePlugin": "غیرفعالسازی",
|
|
21
|
+
"builtins.lobe-agent-builder.inspector.enablePlugin": "فعالسازی",
|
|
22
|
+
"builtins.lobe-agent-builder.inspector.modelsCount": "{{count}} مدل",
|
|
23
|
+
"builtins.lobe-agent-builder.inspector.noResults": "نتیجهای یافت نشد",
|
|
24
|
+
"builtins.lobe-agent-builder.inspector.togglePlugin": "تغییر وضعیت",
|
|
18
25
|
"builtins.lobe-agent-builder.title": "متخصص ساخت عامل",
|
|
19
26
|
"builtins.lobe-cloud-sandbox.apiName.editLocalFile": "ویرایش فایل",
|
|
20
27
|
"builtins.lobe-cloud-sandbox.apiName.executeCode": "اجرای کد",
|
|
@@ -31,13 +38,27 @@
|
|
|
31
38
|
"builtins.lobe-cloud-sandbox.apiName.searchLocalFiles": "جستجوی فایلها",
|
|
32
39
|
"builtins.lobe-cloud-sandbox.apiName.writeLocalFile": "نوشتن فایل",
|
|
33
40
|
"builtins.lobe-cloud-sandbox.title": "محیط ابری",
|
|
41
|
+
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "ایجاد گروهی عاملها",
|
|
42
|
+
"builtins.lobe-group-agent-builder.apiName.createAgent": "ایجاد عامل",
|
|
34
43
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "دریافت مدلهای موجود",
|
|
35
44
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "نصب مهارت",
|
|
36
45
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "دعوت از عضو",
|
|
37
46
|
"builtins.lobe-group-agent-builder.apiName.removeAgent": "حذف عضو",
|
|
47
|
+
"builtins.lobe-group-agent-builder.apiName.searchAgent": "جستجوی عاملها",
|
|
38
48
|
"builtins.lobe-group-agent-builder.apiName.searchMarketTools": "جستجوی بازار مهارتها",
|
|
39
49
|
"builtins.lobe-group-agent-builder.apiName.updateAgentConfig": "بهروزرسانی پیکربندی عامل",
|
|
40
|
-
"builtins.lobe-group-agent-builder.apiName.
|
|
50
|
+
"builtins.lobe-group-agent-builder.apiName.updateAgentPrompt": "بهروزرسانی پیام عامل",
|
|
51
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroup": "بهروزرسانی گروه",
|
|
52
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroupPrompt": "بهروزرسانی پیام گروه",
|
|
53
|
+
"builtins.lobe-group-agent-builder.apiName.updateSupervisorPrompt": "بهروزرسانی پیام ناظر",
|
|
54
|
+
"builtins.lobe-group-agent-builder.inspector.agents": "عاملها",
|
|
55
|
+
"builtins.lobe-group-agent-builder.inspector.avatar": "آواتار",
|
|
56
|
+
"builtins.lobe-group-agent-builder.inspector.backgroundColor": "رنگ پسزمینه",
|
|
57
|
+
"builtins.lobe-group-agent-builder.inspector.description": "توضیحات",
|
|
58
|
+
"builtins.lobe-group-agent-builder.inspector.noResults": "نتیجهای یافت نشد",
|
|
59
|
+
"builtins.lobe-group-agent-builder.inspector.openingMessage": "پیام آغازین",
|
|
60
|
+
"builtins.lobe-group-agent-builder.inspector.openingQuestions": "سؤالات آغازین",
|
|
61
|
+
"builtins.lobe-group-agent-builder.inspector.title": "عنوان",
|
|
41
62
|
"builtins.lobe-group-agent-builder.title": "متخصص ساخت گروه",
|
|
42
63
|
"builtins.lobe-group-management.apiName.broadcast": "همه صحبت کنند",
|
|
43
64
|
"builtins.lobe-group-management.apiName.createAgent": "افزودن عضو گروه",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "یک سازمان متنباز متمرکز بر تحقیقات مدلهای بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه میدهد تا مدلها و الگوریتمهای پیشرفته را در دسترس قرار دهد.",
|
|
30
30
|
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدلهای برداری، رتبهبندها و مدلهای زبانی کوچک برای ساخت اپلیکیشنهای جستجوی مولد و چندوجهی با کیفیت بالا است.",
|
|
31
31
|
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدلهای زبانی بزرگ روی رایانه شخصی شماست.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud از رابطهای رسمی برای دسترسی به مدلهای هوش مصنوعی استفاده میکند و مصرف را با اعتباراتی که به توکنهای مدل وابستهاند، اندازهگیری میکند.",
|
|
33
32
|
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدلهای پایه چندوجهی از جمله مدلهای متنی با پارامترهای تریلیونی، مدلهای گفتاری و تصویری توسعه میدهد و اپهایی مانند Hailuo AI را ارائه میکند.",
|
|
34
33
|
"mistral.description": "Mistral مدلهای عمومی، تخصصی و تحقیقاتی پیشرفتهای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه میدهد و از فراخوانی توابع برای یکپارچهسازی سفارشی پشتیبانی میکند.",
|
|
35
34
|
"modelscope.description": "ModelScope پلتفرم مدل بهعنوانسرویس Alibaba Cloud است که مجموعهای گسترده از مدلهای هوش مصنوعی و خدمات استنتاج را ارائه میدهد.",
|
package/locales/fr-FR/chat.json
CHANGED
|
@@ -71,11 +71,18 @@
|
|
|
71
71
|
"group.desc": "Faites avancer une tâche avec plusieurs agents dans un espace partagé.",
|
|
72
72
|
"group.memberTooltip": "Il y a {{count}} membres dans le groupe",
|
|
73
73
|
"group.orchestratorThinking": "L’orchestrateur réfléchit...",
|
|
74
|
+
"group.profile.contentPlaceholder": "Définissez ici les objectifs et modes de fonctionnement du groupe. Ces informations seront partagées avec tous les membres du groupe.",
|
|
75
|
+
"group.profile.external": "Externe",
|
|
76
|
+
"group.profile.externalAgentWarning": "Ceci est un agent externe. Les modifications effectuées ici modifieront directement la configuration originale de l’agent.",
|
|
77
|
+
"group.profile.groupSettings": "Paramètres du groupe",
|
|
78
|
+
"group.profile.supervisor": "Superviseur",
|
|
79
|
+
"group.profile.supervisorPlaceholder": "Le superviseur coordonne les différents agents. Renseigner les informations du superviseur ici permet une coordination plus précise du flux de travail.",
|
|
74
80
|
"group.removeMember": "Retirer le membre",
|
|
75
81
|
"group.title": "Groupe",
|
|
76
82
|
"groupDescription": "Description du groupe",
|
|
77
83
|
"groupSidebar.agentProfile.chat": "Discussion",
|
|
78
84
|
"groupSidebar.agentProfile.model": "Modèle",
|
|
85
|
+
"groupSidebar.agentProfile.settings": "Paramètres",
|
|
79
86
|
"groupSidebar.members.addMember": "Ajouter un membre",
|
|
80
87
|
"groupSidebar.members.enableOrchestrator": "Activer l’orchestrateur",
|
|
81
88
|
"groupSidebar.members.memberSettings": "Paramètres des membres",
|
|
@@ -134,6 +134,8 @@
|
|
|
134
134
|
"cmdk.search.communityAgent": "Agent communautaire",
|
|
135
135
|
"cmdk.search.file": "Fichier",
|
|
136
136
|
"cmdk.search.files": "Fichiers",
|
|
137
|
+
"cmdk.search.folder": "Dossier",
|
|
138
|
+
"cmdk.search.folders": "Dossiers",
|
|
137
139
|
"cmdk.search.loading": "Recherche en cours...",
|
|
138
140
|
"cmdk.search.market": "Communauté",
|
|
139
141
|
"cmdk.search.mcp": "Serveur MCP",
|
|
@@ -56,12 +56,12 @@
|
|
|
56
56
|
"assistants.more": "Plus",
|
|
57
57
|
"assistants.plugins": "Compétences intégrées",
|
|
58
58
|
"assistants.recentSubmits": "Mises à jour récentes",
|
|
59
|
-
"assistants.sorts.recommended": "Recommandé",
|
|
60
59
|
"assistants.sorts.createdAt": "Récemment publié",
|
|
61
60
|
"assistants.sorts.identifier": "ID de l'Agent",
|
|
62
61
|
"assistants.sorts.knowledgeCount": "Bibliothèques",
|
|
63
62
|
"assistants.sorts.myown": "Voir mes Agents",
|
|
64
63
|
"assistants.sorts.pluginCount": "Compétences",
|
|
64
|
+
"assistants.sorts.recommended": "Recommandé",
|
|
65
65
|
"assistants.sorts.title": "Nom de l'Agent",
|
|
66
66
|
"assistants.sorts.tokenUsage": "Utilisation des jetons",
|
|
67
67
|
"assistants.status.archived.reasons.official": "La plateforme a supprimé cet Agent pour des raisons de sécurité, de politique ou autres.",
|
|
@@ -83,12 +83,12 @@
|
|
|
83
83
|
"assistants.withKnowledge": "Cet Agent inclut des bibliothèques",
|
|
84
84
|
"assistants.withPlugin": "Cet Agent inclut des compétences",
|
|
85
85
|
"back": "Retour à la découverte",
|
|
86
|
-
"category.assistant.discover": "Découverte",
|
|
87
86
|
"category.assistant.academic": "Académique",
|
|
88
87
|
"category.assistant.all": "Tous",
|
|
89
88
|
"category.assistant.career": "Carrière",
|
|
90
89
|
"category.assistant.copywriting": "Rédaction",
|
|
91
90
|
"category.assistant.design": "Design",
|
|
91
|
+
"category.assistant.discover": "Découverte",
|
|
92
92
|
"category.assistant.education": "Éducation",
|
|
93
93
|
"category.assistant.emotions": "Émotions",
|
|
94
94
|
"category.assistant.entertainment": "Divertissement",
|
|
@@ -73,9 +73,9 @@
|
|
|
73
73
|
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick est un grand modèle MoE avec activation efficace des experts pour des performances de raisonnement élevées.",
|
|
74
74
|
"MiniMax-M1.description": "Un nouveau modèle de raisonnement interne avec 80 000 chaînes de pensée et 1 million d’entrées, offrant des performances comparables aux meilleurs modèles mondiaux.",
|
|
75
75
|
"MiniMax-M2-Stable.description": "Conçu pour un codage efficace et des flux de travail d’agents, avec une plus grande simultanéité pour un usage commercial.",
|
|
76
|
-
"MiniMax-M2.1-Lightning.description": "
|
|
77
|
-
"MiniMax-M2.1.description": "
|
|
78
|
-
"MiniMax-M2.description": "Conçu pour un codage efficace et des flux de travail d'agents",
|
|
76
|
+
"MiniMax-M2.1-Lightning.description": "Puissantes capacités de programmation multilingue, expérience de codage entièrement améliorée. Plus rapide et plus efficace.",
|
|
77
|
+
"MiniMax-M2.1.description": "Puissantes capacités de programmation multilingue, expérience de codage entièrement améliorée",
|
|
78
|
+
"MiniMax-M2.description": "Conçu spécifiquement pour un codage efficace et des flux de travail d'agents",
|
|
79
79
|
"MiniMax-Text-01.description": "MiniMax-01 introduit une attention linéaire à grande échelle au-delà des Transformers classiques, avec 456 milliards de paramètres et 45,9 milliards activés par passage. Il atteint des performances de premier plan et prend en charge jusqu’à 4 millions de jetons de contexte (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
|
80
80
|
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 est un modèle de raisonnement à attention hybride à grande échelle avec poids ouverts, totalisant 456 milliards de paramètres et environ 45,9 milliards actifs par jeton. Il prend en charge nativement un contexte de 1 million de jetons et utilise Flash Attention pour réduire les FLOPs de 75 % sur une génération de 100 000 jetons par rapport à DeepSeek R1. Grâce à une architecture MoE, CISPO et un entraînement RL à attention hybride, il atteint des performances de pointe sur les tâches de raisonnement à long contexte et d’ingénierie logicielle réelle.",
|
|
81
81
|
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redéfinit l’efficacité des agents. C’est un modèle MoE compact, rapide et économique avec 230 milliards de paramètres totaux et 10 milliards actifs, conçu pour des tâches de codage et d’agents de haut niveau tout en conservant une intelligence générale solide. Avec seulement 10 milliards de paramètres actifs, il rivalise avec des modèles bien plus grands, ce qui en fait un choix idéal pour des applications à haute efficacité.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences et surpasse le précédent plus grand modèle, Claude 3 Opus, sur de nombreux tests d’intelligence.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché. Il peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches d’agents.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic,
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, alliant vitesse fulgurante et raisonnement approfondi.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et la puissance du modèle de codeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
|
|
379
379
|
"deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "Le mode de réflexion DeepSeek V3.2 produit une chaîne de raisonnement avant la réponse finale pour améliorer la précision.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K est un modèle ultra-léger pour la QA simple, la classification et l’inférence à faible coût.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 est un modèle de génération d’images de ByteDance Seed, prenant en charge les entrées texte et image, avec une génération d’images de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur l’édition d’images, prenant en charge les entrées texte et image.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération d’images avec une préférence esthétique pour des images plus réalistes et naturelles.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération d’images.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "Modèle de génération d’images de haute qualité développé par Google.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images via la conversation.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "
|
|
483
|
-
"fal-ai/qwen-image.description": "Un puissant modèle de génération d’images de l’équipe Qwen avec un
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Un modèle professionnel d’édition d’images de l’équipe Qwen, prenant en charge les modifications sémantiques et d’apparence, l’édition précise de texte en chinois et en anglais, ainsi que des retouches de haute qualité comme le transfert de style et la rotation d’objets.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Un puissant modèle de génération d’images de l’équipe Qwen, avec un rendu impressionnant du texte chinois et une grande diversité de styles visuels.",
|
|
484
484
|
"flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité d’image proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
|
|
486
486
|
"flux-kontext-max.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
|
|
@@ -491,6 +491,88 @@
|
|
|
491
491
|
"flux-pro.description": "Modèle de génération d’images commercial haut de gamme avec une qualité d’image inégalée et des sorties variées.",
|
|
492
492
|
"flux-schnell.description": "FLUX.1 [schnell] est le modèle open source le plus avancé en génération rapide, surpassant les concurrents similaires et même des modèles non distillés puissants comme Midjourney v6.0 et DALL-E 3 (HD). Il est finement ajusté pour préserver la diversité de l’entraînement initial, améliorant considérablement la qualité visuelle, le suivi des instructions, la variation de taille/aspect, la gestion des polices et la diversité des sorties.",
|
|
493
493
|
"flux.1-schnell.description": "FLUX.1-schnell est un modèle de génération d’images haute performance pour des sorties rapides et multi-styles.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) offre des performances stables et ajustables pour les tâches complexes.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) offre un support multimodal puissant pour les tâches complexes.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro est le modèle IA haute performance de Google conçu pour une large échelle de tâches.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 est un modèle multimodal efficace pour une mise à l’échelle étendue des applications.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 est un modèle multimodal efficace conçu pour un déploiement à grande échelle.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 est le dernier modèle expérimental avec des améliorations notables pour les cas d’usage textuels et multimodaux.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B est un modèle multimodal efficace conçu pour un déploiement à grande échelle.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B est un modèle multimodal efficace pour une mise à l’échelle étendue des applications.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 offre un traitement multimodal optimisé pour les tâches complexes.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash est le dernier modèle IA multimodal de Google avec un traitement rapide, prenant en charge les entrées texte, image et vidéo pour une mise à l’échelle efficace des tâches.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 est une solution IA multimodale évolutive pour les tâches complexes.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 est le dernier modèle prêt pour la production avec une sortie de meilleure qualité, notamment pour les mathématiques, les contextes longs et les tâches visuelles.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 offre un traitement multimodal puissant avec une plus grande flexibilité pour le développement d’applications.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 applique les dernières optimisations pour un traitement multimodal plus efficace.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro prend en charge jusqu’à 2 millions de jetons, un modèle multimodal de taille moyenne idéal pour les tâches complexes.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, l’utilisation native d’outils, la génération multimodale et une fenêtre de contexte de 1 million de jetons.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Modèle expérimental Gemini 2.0 Flash avec prise en charge de la génération d’images.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, l’utilisation native d’outils, la génération multimodale et une fenêtre de contexte de 1 million de jetons.",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview est le plus petit modèle de Google, offrant le meilleur rapport qualité-prix, conçu pour une utilisation à grande échelle.",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "Version préliminaire (25 septembre 2025) de Gemini 2.5 Flash-Lite",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite est le plus petit modèle de Google, offrant le meilleur rapport qualité-prix, conçu pour une utilisation à grande échelle.",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview est le modèle le plus économique de Google avec des capacités complètes.",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "Version préliminaire (25 septembre 2025) de Gemini 2.5 Flash",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash est le modèle le plus économique de Google avec des capacités complètes.",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview est le modèle de raisonnement le plus avancé de Google, capable de raisonner sur du code, des mathématiques et des problèmes STEM, et d’analyser de grands ensembles de données, bases de code et documents avec un long contexte.",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview est le modèle de raisonnement le plus avancé de Google, capable de raisonner sur du code, des mathématiques et des problèmes STEM, et d’analyser de grands ensembles de données, bases de code et documents avec un long contexte.",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview est le modèle de raisonnement le plus avancé de Google, capable de raisonner sur du code, des mathématiques et des problèmes STEM, et d’analyser de grands ensembles de données, bases de code et documents avec un long contexte.",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro est le modèle de raisonnement phare de Google, avec un support de long contexte pour les tâches complexes.",
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash est le modèle le plus intelligent conçu pour la vitesse, alliant intelligence de pointe et ancrage de recherche performant.",
|
|
530
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d’images de Google, prenant également en charge les dialogues multimodaux.",
|
|
531
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d’images de Google, prenant également en charge les conversations multimodales.",
|
|
532
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle agent et de codage le plus puissant de Google, offrant des visuels enrichis et une interaction plus poussée grâce à un raisonnement de pointe.",
|
|
533
|
+
"gemini-flash-latest.description": "Dernière version de Gemini Flash",
|
|
534
|
+
"gemini-flash-lite-latest.description": "Dernière version de Gemini Flash-Lite",
|
|
535
|
+
"gemini-pro-latest.description": "Dernière version de Gemini Pro",
|
|
536
|
+
"gemma-7b-it.description": "Gemma 7B est rentable pour les tâches de petite à moyenne envergure.",
|
|
537
|
+
"gemma2-9b-it.description": "Gemma 2 9B est optimisé pour des tâches spécifiques et l'intégration d'outils.",
|
|
538
|
+
"gemma2.description": "Gemma 2 est le modèle efficace de Google, couvrant des cas d’usage allant des petites applications au traitement de données complexes.",
|
|
539
|
+
"gemma2:27b.description": "Gemma 2 est le modèle efficace de Google, couvrant des cas d’usage allant des petites applications au traitement de données complexes.",
|
|
540
|
+
"gemma2:2b.description": "Gemma 2 est le modèle efficace de Google, couvrant des cas d’usage allant des petites applications au traitement de données complexes.",
|
|
541
|
+
"generalv3.5.description": "Spark Max est la version la plus complète, prenant en charge la recherche web et de nombreux plugins intégrés. Ses capacités de base entièrement optimisées, ses rôles système et ses appels de fonctions offrent d'excellentes performances dans des scénarios d'application complexes.",
|
|
542
|
+
"generalv3.description": "Spark Pro est un modèle LLM haute performance optimisé pour les domaines professionnels, axé sur les mathématiques, la programmation, la santé et l'éducation, avec recherche web et plugins intégrés comme la météo et la date. Il offre de solides performances et une grande efficacité dans les questions-réponses complexes, la compréhension du langage et la création de texte avancée, en faisant un choix idéal pour les cas d’usage professionnels.",
|
|
543
|
+
"glm-4-0520.description": "GLM-4-0520 est la dernière version du modèle, conçu pour des tâches très complexes et variées avec d'excellentes performances.",
|
|
544
|
+
"glm-4-32b-0414.description": "GLM-4 32B 0414 est un modèle GLM généraliste prenant en charge la génération et la compréhension de texte multitâche.",
|
|
545
|
+
"glm-4-9b-chat.description": "GLM-4-9B-Chat excelle en sémantique, mathématiques, raisonnement, code et connaissances. Il prend également en charge la navigation web, l'exécution de code, l'appel d'outils personnalisés et le raisonnement sur de longs textes, avec prise en charge de 26 langues dont le japonais, le coréen et l'allemand.",
|
|
546
|
+
"glm-4-air-250414.description": "GLM-4-Air est une option à forte valeur ajoutée avec des performances proches de GLM-4, une vitesse rapide et un coût réduit.",
|
|
547
|
+
"glm-4-air.description": "GLM-4-Air est une option à forte valeur ajoutée avec des performances proches de GLM-4, une vitesse rapide et un coût réduit.",
|
|
548
|
+
"glm-4-airx.description": "GLM-4-AirX est une variante plus efficace de GLM-4-Air avec un raisonnement jusqu'à 2,6 fois plus rapide.",
|
|
549
|
+
"glm-4-alltools.description": "GLM-4-AllTools est un modèle agent polyvalent optimisé pour la planification d'instructions complexes et l'utilisation d'outils tels que la navigation web, l'explication de code et la génération de texte, adapté à l'exécution multitâche.",
|
|
550
|
+
"glm-4-flash-250414.description": "GLM-4-Flash est idéal pour les tâches simples : le plus rapide et gratuit.",
|
|
551
|
+
"glm-4-flash.description": "GLM-4-Flash est idéal pour les tâches simples : le plus rapide et gratuit.",
|
|
552
|
+
"glm-4-flashx.description": "GLM-4-FlashX est une version Flash améliorée avec un raisonnement ultra-rapide.",
|
|
553
|
+
"glm-4-long.description": "GLM-4-Long prend en charge des entrées ultra-longues pour des tâches de type mémoire et le traitement de documents à grande échelle.",
|
|
554
|
+
"glm-4-plus.description": "GLM-4-Plus est un modèle phare à haute intelligence, performant sur les longs textes et les tâches complexes, avec des performances globales améliorées.",
|
|
555
|
+
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking est le plus puissant VLM connu (~10B), couvrant des tâches SOTA telles que la compréhension vidéo, les questions-réponses sur images, la résolution de problèmes, l'OCR, la lecture de documents et de graphiques, les agents GUI, le codage frontend et l’ancrage. Il surpasse même le Qwen2.5-VL-72B, 8 fois plus grand, sur de nombreuses tâches. Grâce à l’apprentissage par renforcement avancé, il utilise un raisonnement en chaîne pour améliorer la précision et la richesse, surpassant les modèles traditionnels non pensants en résultats et en explicabilité.",
|
|
556
|
+
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking est le plus puissant VLM connu (~10B), couvrant des tâches SOTA telles que la compréhension vidéo, les questions-réponses sur images, la résolution de problèmes, l'OCR, la lecture de documents et de graphiques, les agents GUI, le codage frontend et l’ancrage. Il surpasse même le Qwen2.5-VL-72B, 8 fois plus grand, sur de nombreuses tâches. Grâce à l’apprentissage par renforcement avancé, il utilise un raisonnement en chaîne pour améliorer la précision et la richesse, surpassant les modèles traditionnels non pensants en résultats et en explicabilité.",
|
|
557
|
+
"glm-4.5-air.description": "Édition légère de GLM-4.5 qui équilibre performance et coût, avec des modes de pensée hybrides flexibles.",
|
|
558
|
+
"glm-4.5-airx.description": "Édition rapide de GLM-4.5-Air avec des réponses plus rapides pour une utilisation à grande échelle et à haute vitesse.",
|
|
559
|
+
"glm-4.5-flash.description": "Niveau gratuit de GLM-4.5 avec de solides performances en raisonnement, codage et tâches d’agent.",
|
|
560
|
+
"glm-4.5-x.description": "Édition rapide de GLM-4.5, offrant de solides performances avec des vitesses de génération allant jusqu'à 100 tokens/sec.",
|
|
561
|
+
"glm-4.5.description": "Modèle phare de Zhipu avec un mode de pensée commutable, offrant un SOTA open-source global et jusqu'à 128K de contexte.",
|
|
562
|
+
"glm-4.5v.description": "Modèle de raisonnement visuel de nouvelle génération de Zhipu basé sur MoE, avec 106B de paramètres totaux et 12B actifs, atteignant un SOTA parmi les modèles multimodaux open-source de taille similaire sur les tâches d’image, vidéo, documents et GUI.",
|
|
563
|
+
"glm-4.6.description": "Le dernier modèle phare de Zhipu, GLM-4.6 (355B), surpasse largement ses prédécesseurs en codage avancé, traitement de longs textes, raisonnement et capacités d’agent. Il est particulièrement aligné avec Claude Sonnet 4 en matière de programmation, devenant ainsi le modèle de codage de référence en Chine.",
|
|
564
|
+
"glm-4.7.description": "GLM-4.7 est le dernier modèle phare de Zhipu, renforçant les capacités de codage, la planification de tâches à long terme et la collaboration avec des outils pour les scénarios d’Agentic Coding. Il se classe parmi les meilleurs modèles open-source sur plusieurs benchmarks publics. Ses réponses sont plus naturelles et immersives, avec une meilleure exécution des tâches complexes et une esthétique améliorée pour les interfaces et les résultats d’agents.",
|
|
565
|
+
"glm-4.description": "GLM-4 est l’ancien modèle phare sorti en janvier 2024, désormais remplacé par le plus performant GLM-4-0520.",
|
|
566
|
+
"glm-4v-flash.description": "GLM-4V-Flash se concentre sur la compréhension efficace d’une seule image pour des scénarios d’analyse rapide comme le traitement d’images en temps réel ou par lot.",
|
|
567
|
+
"glm-4v-plus-0111.description": "GLM-4V-Plus comprend la vidéo et plusieurs images, adapté aux tâches multimodales.",
|
|
568
|
+
"glm-4v-plus.description": "GLM-4V-Plus comprend la vidéo et plusieurs images, adapté aux tâches multimodales.",
|
|
569
|
+
"glm-4v.description": "GLM-4V offre une compréhension et un raisonnement solides sur les tâches visuelles.",
|
|
570
|
+
"glm-z1-air.description": "Modèle de raisonnement avec de solides capacités d’inférence pour les tâches nécessitant une réflexion approfondie.",
|
|
571
|
+
"glm-z1-airx.description": "Raisonnement ultra-rapide avec une qualité d’inférence élevée.",
|
|
572
|
+
"glm-z1-flash.description": "La série GLM-Z1 offre un raisonnement complexe puissant, excellent en logique, mathématiques et programmation.",
|
|
573
|
+
"glm-z1-flashx.description": "Rapide et économique : version Flash avec raisonnement ultra-rapide et haute concurrence.",
|
|
574
|
+
"glm-zero-preview.description": "GLM-Zero-Preview offre un raisonnement complexe puissant, excellent en logique, mathématiques et programmation.",
|
|
575
|
+
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive pour les tâches complexes nécessitant des réponses et un raisonnement de la plus haute qualité.",
|
|
494
576
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
|
|
495
577
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
|
|
496
578
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
|
|
@@ -12,6 +12,9 @@
|
|
|
12
12
|
"interests.area.writing": "Création de Contenu",
|
|
13
13
|
"interests.hint": "Vous pouvez modifier cela à tout moment dans les paramètres",
|
|
14
14
|
"interests.placeholder": "Indiquez vos centres d’intérêt...",
|
|
15
|
+
"interests.title": "Quels sont les domaines qui vous intéressent ?",
|
|
16
|
+
"interests.title2": "Cela m'aidera à mieux vous connaître",
|
|
17
|
+
"interests.title3": "Prenez votre temps, j'apprendrai à mieux vous connaître",
|
|
15
18
|
"modeSelection.desc": "Choisissez le mode qui vous convient le mieux",
|
|
16
19
|
"modeSelection.hint": "Vous pouvez modifier cela à tout moment dans les paramètres",
|
|
17
20
|
"modeSelection.lite.desc": "Idéal pour les conversations quotidiennes, les questions-réponses, la productivité légère et l’exploration de modèles",
|
|
@@ -5,6 +5,7 @@
|
|
|
5
5
|
"builtins.lobe-agent-builder.apiName.getConfig": "Obtenir la configuration",
|
|
6
6
|
"builtins.lobe-agent-builder.apiName.getMeta": "Obtenir les métadonnées",
|
|
7
7
|
"builtins.lobe-agent-builder.apiName.getPrompt": "Obtenir l'invite système",
|
|
8
|
+
"builtins.lobe-agent-builder.apiName.installPlugin": "Installer la compétence",
|
|
8
9
|
"builtins.lobe-agent-builder.apiName.searchMarketTools": "Rechercher dans le marché des Compétences",
|
|
9
10
|
"builtins.lobe-agent-builder.apiName.searchOfficialTools": "Rechercher les Compétences officielles",
|
|
10
11
|
"builtins.lobe-agent-builder.apiName.setModel": "Définir le modèle",
|
|
@@ -15,6 +16,12 @@
|
|
|
15
16
|
"builtins.lobe-agent-builder.apiName.updateConfig": "Mettre à jour la configuration",
|
|
16
17
|
"builtins.lobe-agent-builder.apiName.updateMeta": "Mettre à jour les métadonnées",
|
|
17
18
|
"builtins.lobe-agent-builder.apiName.updatePrompt": "Mettre à jour l'invite système",
|
|
19
|
+
"builtins.lobe-agent-builder.inspector.chars": " caractères",
|
|
20
|
+
"builtins.lobe-agent-builder.inspector.disablePlugin": "Désactiver",
|
|
21
|
+
"builtins.lobe-agent-builder.inspector.enablePlugin": "Activer",
|
|
22
|
+
"builtins.lobe-agent-builder.inspector.modelsCount": "{{count}} modèles",
|
|
23
|
+
"builtins.lobe-agent-builder.inspector.noResults": "Aucun résultat",
|
|
24
|
+
"builtins.lobe-agent-builder.inspector.togglePlugin": "Basculer",
|
|
18
25
|
"builtins.lobe-agent-builder.title": "Expert en création d'agents",
|
|
19
26
|
"builtins.lobe-cloud-sandbox.apiName.editLocalFile": "Modifier le fichier",
|
|
20
27
|
"builtins.lobe-cloud-sandbox.apiName.executeCode": "Exécuter le code",
|
|
@@ -31,13 +38,27 @@
|
|
|
31
38
|
"builtins.lobe-cloud-sandbox.apiName.searchLocalFiles": "Rechercher des fichiers",
|
|
32
39
|
"builtins.lobe-cloud-sandbox.apiName.writeLocalFile": "Écrire dans le fichier",
|
|
33
40
|
"builtins.lobe-cloud-sandbox.title": "Bac à sable Cloud",
|
|
41
|
+
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Créer des agents en lot",
|
|
42
|
+
"builtins.lobe-group-agent-builder.apiName.createAgent": "Créer un agent",
|
|
34
43
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Obtenir les modèles disponibles",
|
|
35
44
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Installer la Compétence",
|
|
36
45
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "Inviter un membre",
|
|
37
46
|
"builtins.lobe-group-agent-builder.apiName.removeAgent": "Supprimer un membre",
|
|
47
|
+
"builtins.lobe-group-agent-builder.apiName.searchAgent": "Rechercher des agents",
|
|
38
48
|
"builtins.lobe-group-agent-builder.apiName.searchMarketTools": "Rechercher dans le marché des Compétences",
|
|
39
49
|
"builtins.lobe-group-agent-builder.apiName.updateAgentConfig": "Mettre à jour la configuration de l'agent",
|
|
40
|
-
"builtins.lobe-group-agent-builder.apiName.
|
|
50
|
+
"builtins.lobe-group-agent-builder.apiName.updateAgentPrompt": "Mettre à jour l'invite de l'agent",
|
|
51
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroup": "Mettre à jour le groupe",
|
|
52
|
+
"builtins.lobe-group-agent-builder.apiName.updateGroupPrompt": "Mettre à jour l'invite du groupe",
|
|
53
|
+
"builtins.lobe-group-agent-builder.apiName.updateSupervisorPrompt": "Mettre à jour l'invite du superviseur",
|
|
54
|
+
"builtins.lobe-group-agent-builder.inspector.agents": "agents",
|
|
55
|
+
"builtins.lobe-group-agent-builder.inspector.avatar": "Avatar",
|
|
56
|
+
"builtins.lobe-group-agent-builder.inspector.backgroundColor": "Couleur d’arrière-plan",
|
|
57
|
+
"builtins.lobe-group-agent-builder.inspector.description": "Description",
|
|
58
|
+
"builtins.lobe-group-agent-builder.inspector.noResults": "Aucun résultat",
|
|
59
|
+
"builtins.lobe-group-agent-builder.inspector.openingMessage": "Message d’accueil",
|
|
60
|
+
"builtins.lobe-group-agent-builder.inspector.openingQuestions": "Questions d’accueil",
|
|
61
|
+
"builtins.lobe-group-agent-builder.inspector.title": "Titre",
|
|
41
62
|
"builtins.lobe-group-agent-builder.title": "Expert en création de groupe",
|
|
42
63
|
"builtins.lobe-group-management.apiName.broadcast": "Tous parlent",
|
|
43
64
|
"builtins.lobe-group-management.apiName.createAgent": "Ajouter un membre au groupe",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
|
|
30
30
|
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
|
|
31
31
|
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation en Crédits liés aux jetons des modèles.",
|
|
33
32
|
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
|
|
35
34
|
"modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
|