@lobehub/lobehub 2.0.0-next.307 → 2.0.0-next.309
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/agentGroup.json +5 -0
- package/locales/ar/chat.json +26 -0
- package/locales/ar/models.json +43 -5
- package/locales/ar/plugin.json +4 -5
- package/locales/ar/setting.json +11 -0
- package/locales/ar/subscription.json +2 -0
- package/locales/ar/tool.json +2 -0
- package/locales/bg-BG/agentGroup.json +5 -0
- package/locales/bg-BG/chat.json +26 -0
- package/locales/bg-BG/models.json +49 -3
- package/locales/bg-BG/plugin.json +4 -5
- package/locales/bg-BG/setting.json +11 -0
- package/locales/bg-BG/subscription.json +2 -0
- package/locales/bg-BG/tool.json +2 -0
- package/locales/de-DE/agentGroup.json +5 -0
- package/locales/de-DE/chat.json +26 -0
- package/locales/de-DE/models.json +48 -5
- package/locales/de-DE/plugin.json +4 -5
- package/locales/de-DE/setting.json +11 -0
- package/locales/de-DE/subscription.json +2 -0
- package/locales/de-DE/tool.json +2 -0
- package/locales/en-US/models.json +8 -6
- package/locales/en-US/plugin.json +3 -4
- package/locales/en-US/setting.json +10 -11
- package/locales/en-US/tool.json +2 -0
- package/locales/es-ES/agentGroup.json +5 -0
- package/locales/es-ES/chat.json +26 -0
- package/locales/es-ES/models.json +43 -5
- package/locales/es-ES/plugin.json +4 -5
- package/locales/es-ES/setting.json +11 -0
- package/locales/es-ES/subscription.json +2 -0
- package/locales/es-ES/tool.json +2 -0
- package/locales/fa-IR/agentGroup.json +5 -0
- package/locales/fa-IR/chat.json +26 -0
- package/locales/fa-IR/models.json +42 -5
- package/locales/fa-IR/plugin.json +4 -5
- package/locales/fa-IR/setting.json +11 -0
- package/locales/fa-IR/subscription.json +2 -0
- package/locales/fa-IR/tool.json +2 -0
- package/locales/fr-FR/agentGroup.json +5 -0
- package/locales/fr-FR/chat.json +26 -0
- package/locales/fr-FR/models.json +5 -5
- package/locales/fr-FR/plugin.json +4 -5
- package/locales/fr-FR/setting.json +11 -0
- package/locales/fr-FR/subscription.json +2 -0
- package/locales/fr-FR/tool.json +2 -0
- package/locales/it-IT/agentGroup.json +5 -0
- package/locales/it-IT/chat.json +26 -0
- package/locales/it-IT/models.json +1 -3
- package/locales/it-IT/plugin.json +4 -5
- package/locales/it-IT/setting.json +11 -0
- package/locales/it-IT/subscription.json +2 -0
- package/locales/it-IT/tool.json +2 -0
- package/locales/ja-JP/agentGroup.json +5 -0
- package/locales/ja-JP/chat.json +26 -0
- package/locales/ja-JP/models.json +1 -5
- package/locales/ja-JP/plugin.json +4 -5
- package/locales/ja-JP/setting.json +11 -0
- package/locales/ja-JP/subscription.json +2 -0
- package/locales/ja-JP/tool.json +2 -0
- package/locales/ko-KR/agentGroup.json +5 -0
- package/locales/ko-KR/chat.json +26 -0
- package/locales/ko-KR/models.json +1 -3
- package/locales/ko-KR/plugin.json +4 -5
- package/locales/ko-KR/setting.json +11 -0
- package/locales/ko-KR/subscription.json +2 -0
- package/locales/ko-KR/tool.json +2 -0
- package/locales/nl-NL/agentGroup.json +5 -0
- package/locales/nl-NL/chat.json +26 -0
- package/locales/nl-NL/models.json +35 -3
- package/locales/nl-NL/plugin.json +4 -5
- package/locales/nl-NL/setting.json +11 -0
- package/locales/nl-NL/subscription.json +2 -0
- package/locales/nl-NL/tool.json +2 -0
- package/locales/pl-PL/agentGroup.json +5 -0
- package/locales/pl-PL/chat.json +26 -0
- package/locales/pl-PL/models.json +1 -3
- package/locales/pl-PL/plugin.json +4 -5
- package/locales/pl-PL/setting.json +11 -0
- package/locales/pl-PL/subscription.json +2 -0
- package/locales/pl-PL/tool.json +2 -0
- package/locales/pt-BR/agentGroup.json +5 -0
- package/locales/pt-BR/chat.json +26 -0
- package/locales/pt-BR/models.json +50 -5
- package/locales/pt-BR/plugin.json +4 -5
- package/locales/pt-BR/setting.json +11 -0
- package/locales/pt-BR/subscription.json +2 -0
- package/locales/pt-BR/tool.json +2 -0
- package/locales/ru-RU/agentGroup.json +5 -0
- package/locales/ru-RU/chat.json +26 -0
- package/locales/ru-RU/models.json +22 -3
- package/locales/ru-RU/plugin.json +4 -5
- package/locales/ru-RU/setting.json +11 -0
- package/locales/ru-RU/subscription.json +2 -0
- package/locales/ru-RU/tool.json +2 -0
- package/locales/tr-TR/agentGroup.json +5 -0
- package/locales/tr-TR/chat.json +26 -0
- package/locales/tr-TR/models.json +36 -3
- package/locales/tr-TR/plugin.json +4 -5
- package/locales/tr-TR/setting.json +11 -0
- package/locales/tr-TR/subscription.json +2 -0
- package/locales/tr-TR/tool.json +2 -0
- package/locales/vi-VN/agentGroup.json +5 -0
- package/locales/vi-VN/chat.json +26 -0
- package/locales/vi-VN/models.json +1 -1
- package/locales/vi-VN/plugin.json +4 -5
- package/locales/vi-VN/setting.json +11 -0
- package/locales/vi-VN/subscription.json +2 -0
- package/locales/vi-VN/tool.json +2 -0
- package/locales/zh-CN/models.json +52 -5
- package/locales/zh-CN/plugin.json +6 -7
- package/locales/zh-CN/setting.json +10 -11
- package/locales/zh-CN/tool.json +2 -2
- package/locales/zh-TW/agentGroup.json +5 -0
- package/locales/zh-TW/chat.json +26 -0
- package/locales/zh-TW/models.json +54 -5
- package/locales/zh-TW/plugin.json +4 -5
- package/locales/zh-TW/setting.json +11 -0
- package/locales/zh-TW/subscription.json +2 -0
- package/locales/zh-TW/tool.json +2 -0
- package/package.json +1 -1
- package/packages/agent-runtime/src/types/state.ts +2 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/GetAgentInfo/index.tsx +68 -0
- package/packages/builtin-tool-group-agent-builder/src/client/Inspector/index.ts +3 -0
- package/packages/builtin-tool-group-management/src/client/Inspector/ExecuteAgentTask/index.tsx +52 -8
- package/packages/builtin-tool-group-management/src/client/Render/ExecuteTask/index.tsx +2 -21
- package/packages/builtin-tool-group-management/src/executor.test.ts +6 -4
- package/packages/builtin-tool-group-management/src/manifest.ts +5 -1
- package/packages/builtin-tool-group-management/src/types.ts +2 -0
- package/packages/builtin-tool-local-system/src/client/Render/WriteFile/index.tsx +48 -5
- package/packages/builtin-tool-local-system/src/client/Streaming/WriteFile/index.tsx +39 -0
- package/packages/builtin-tool-local-system/src/client/Streaming/index.ts +2 -0
- package/packages/builtin-tool-memory/src/manifest.ts +581 -19
- package/packages/model-bank/src/aiModels/qiniu.ts +24 -0
- package/packages/types/src/topic/thread.ts +2 -2
- package/packages/types/src/userMemory/layers.ts +19 -8
- package/packages/types/src/userMemory/shared.ts +7 -1
- package/src/app/[variants]/(auth)/_layout/index.tsx +0 -2
- package/src/app/[variants]/(auth)/layout.tsx +0 -2
- package/src/app/[variants]/(auth)/login/[[...login]]/page.tsx +1 -3
- package/src/app/[variants]/(auth)/signup/[[...signup]]/page.tsx +1 -3
- package/src/app/[variants]/(desktop)/desktop-onboarding/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/agent/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/agent/features/Portal/index.tsx +0 -2
- package/src/app/[variants]/(main)/community/(list)/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/community/(list)/assistant/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/community/(list)/mcp/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/community/(list)/model/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/community/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/group/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/group/features/Conversation/Header/index.tsx +4 -2
- package/src/app/[variants]/(main)/group/features/Portal/index.tsx +0 -2
- package/src/app/[variants]/(main)/home/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/home/index.tsx +0 -2
- package/src/app/[variants]/(main)/image/_layout/Topics/TopicUrlSync.tsx +0 -2
- package/src/app/[variants]/(main)/image/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/memory/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/page/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/resource/(home)/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/resource/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/resource/library/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/resource/library/features/Container.tsx +0 -2
- package/src/app/[variants]/(main)/settings/_layout/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/about/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/agent/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/apikey/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/chat-appearance/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/common/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/hotkey/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/image/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/memory/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/provider/(list)/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/proxy/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/security/index.tsx +1 -3
- package/src/app/[variants]/(main)/settings/storage/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/tts/index.tsx +0 -2
- package/src/app/[variants]/(mobile)/(home)/_layout/index.tsx +0 -2
- package/src/app/[variants]/(mobile)/_layout/index.tsx +1 -3
- package/src/app/[variants]/(mobile)/chat/_layout/index.tsx +0 -2
- package/src/app/[variants]/(mobile)/chat/settings/_layout/index.tsx +0 -2
- package/src/app/[variants]/(mobile)/community/(detail)/_layout/index.tsx +0 -2
- package/src/app/[variants]/(mobile)/community/(list)/_layout/index.tsx +0 -2
- package/src/app/[variants]/(mobile)/community/_layout/index.tsx +0 -2
- package/src/app/[variants]/(mobile)/router/MobileClientRouter.tsx +0 -2
- package/src/app/[variants]/(mobile)/settings/index.tsx +0 -2
- package/src/app/[variants]/onboarding/_layout/index.tsx +0 -2
- package/src/app/[variants]/router/DesktopClientRouter.tsx +0 -2
- package/src/components/ModelSelect/index.tsx +6 -56
- package/src/components/server/MobileNavLayout.tsx +0 -2
- package/src/components/server/ServerLayout.tsx +0 -2
- package/src/features/ModelSwitchPanel/components/Footer.tsx +0 -2
- package/src/features/ModelSwitchPanel/components/List/MultipleProvidersModelItem.tsx +0 -1
- package/src/features/ModelSwitchPanel/components/List/SingleProviderModelItem.tsx +0 -1
- package/src/features/ModelSwitchPanel/components/List/VirtualItemRenderer.tsx +0 -1
- package/src/features/ModelSwitchPanel/components/List/index.tsx +15 -13
- package/src/features/ModelSwitchPanel/components/PanelContent.tsx +0 -2
- package/src/features/ModelSwitchPanel/index.tsx +21 -23
- package/src/features/ResourceManager/components/Explorer/MasonryView/index.tsx +0 -2
- package/src/features/User/UserAvatar.tsx +0 -2
- package/src/locales/default/plugin.ts +3 -1
- package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +11 -3
- package/src/server/modules/Mecha/AgentToolsEngine/index.ts +14 -6
- package/src/server/modules/Mecha/AgentToolsEngine/types.ts +4 -3
- package/src/server/routers/lambda/aiAgent.ts +10 -0
- package/src/server/services/agent/index.test.ts +155 -0
- package/src/server/services/agent/index.ts +25 -0
- package/src/server/services/agentRuntime/AgentRuntimeService.ts +2 -0
- package/src/server/services/agentRuntime/types.ts +1 -0
- package/src/server/services/aiAgent/__tests__/execAgent.threadId.test.ts +29 -9
- package/src/server/services/aiAgent/index.ts +175 -6
- package/src/server/services/lobehubSkill/index.ts +109 -0
- package/src/server/services/toolExecution/builtin.ts +28 -2
- package/src/server/services/toolExecution/types.ts +3 -0
- package/src/store/chat/agents/GroupOrchestration/__tests__/call-supervisor.test.ts +305 -0
- package/src/store/chat/agents/GroupOrchestration/createGroupOrchestrationExecutors.ts +2 -1
- package/src/store/chat/agents/createAgentExecutors.ts +4 -2
- package/src/store/chat/slices/plugin/actions/exector.ts +92 -0
- package/src/store/chat/slices/plugin/actions/pluginTypes.ts +82 -177
|
@@ -3,16 +3,10 @@
|
|
|
3
3
|
"about.title": "About",
|
|
4
4
|
"advancedSettings": "Advanced Settings",
|
|
5
5
|
"agentCronJobs.addJob": "Add Scheduled Task",
|
|
6
|
-
"agentCronJobs.clearTopics": "Clear Execution Results",
|
|
7
|
-
"agentCronJobs.clearTopicsFailed": "Failed to clear execution results",
|
|
8
|
-
"agentCronJobs.confirmClearTopics": "Are you sure you want to clear {{count}} execution result(s)? This action cannot be undone.",
|
|
9
6
|
"agentCronJobs.confirmDelete": "Are you sure you want to delete this scheduled task?",
|
|
10
|
-
"agentCronJobs.confirmDeleteCronJob": "Are you sure you want to delete this scheduled task and all its execution results? This action cannot be undone.",
|
|
11
7
|
"agentCronJobs.content": "Task Content",
|
|
12
8
|
"agentCronJobs.create": "Create",
|
|
13
9
|
"agentCronJobs.createSuccess": "Scheduled task created successfully",
|
|
14
|
-
"agentCronJobs.deleteCronJob": "Delete Scheduled Task",
|
|
15
|
-
"agentCronJobs.deleteFailed": "Failed to delete scheduled task",
|
|
16
10
|
"agentCronJobs.deleteJob": "Delete Task",
|
|
17
11
|
"agentCronJobs.deleteSuccess": "Scheduled task deleted successfully",
|
|
18
12
|
"agentCronJobs.description": "Automate your agent with scheduled executions",
|
|
@@ -31,7 +25,6 @@
|
|
|
31
25
|
"agentCronJobs.form.validation.nameRequired": "Task name is required",
|
|
32
26
|
"agentCronJobs.interval.12hours": "Every 12 hours",
|
|
33
27
|
"agentCronJobs.interval.1hour": "Every hour",
|
|
34
|
-
"agentCronJobs.interval.2hours": "Every 2 hours",
|
|
35
28
|
"agentCronJobs.interval.30min": "Every 30 minutes",
|
|
36
29
|
"agentCronJobs.interval.6hours": "Every 6 hours",
|
|
37
30
|
"agentCronJobs.interval.daily": "Daily",
|
|
@@ -43,11 +36,7 @@
|
|
|
43
36
|
"agentCronJobs.noExecutionResults": "No execution results",
|
|
44
37
|
"agentCronJobs.remainingExecutions": "Remaining: {{count}}",
|
|
45
38
|
"agentCronJobs.save": "Save",
|
|
46
|
-
"agentCronJobs.saveAsNew": "Save as New Scheduled Task",
|
|
47
39
|
"agentCronJobs.schedule": "Schedule",
|
|
48
|
-
"agentCronJobs.scheduleType.daily": "Daily",
|
|
49
|
-
"agentCronJobs.scheduleType.hourly": "Hourly",
|
|
50
|
-
"agentCronJobs.scheduleType.weekly": "Weekly",
|
|
51
40
|
"agentCronJobs.status.depleted": "Depleted",
|
|
52
41
|
"agentCronJobs.status.disabled": "Disabled",
|
|
53
42
|
"agentCronJobs.status.enabled": "Enabled",
|
|
@@ -184,8 +173,11 @@
|
|
|
184
173
|
"llm.waitingForMoreLinkAriaLabel": "Open the Provider request form",
|
|
185
174
|
"marketPublish.forkConfirm.by": "by {{author}}",
|
|
186
175
|
"marketPublish.forkConfirm.confirm": "Confirm Publish",
|
|
176
|
+
"marketPublish.forkConfirm.confirmGroup": "Confirm Publish",
|
|
187
177
|
"marketPublish.forkConfirm.description": "You are about to publish a derivative version based on an existing agent from the community. Your new agent will be created as a separate entry in the marketplace.",
|
|
178
|
+
"marketPublish.forkConfirm.descriptionGroup": "You are about to publish a derivative version based on an existing group from the community. Your new group will be created as a separate entry in the marketplace.",
|
|
188
179
|
"marketPublish.forkConfirm.title": "Publish Derivative Agent",
|
|
180
|
+
"marketPublish.forkConfirm.titleGroup": "Publish Derivative Group",
|
|
189
181
|
"marketPublish.modal.changelog.extra": "Describe the key changes and improvements in this version",
|
|
190
182
|
"marketPublish.modal.changelog.label": "Changelog",
|
|
191
183
|
"marketPublish.modal.changelog.maxLengthError": "Changelog must not exceed 500 characters",
|
|
@@ -201,22 +193,28 @@
|
|
|
201
193
|
"marketPublish.modal.identifier.required": "Please enter the agent identifier",
|
|
202
194
|
"marketPublish.modal.loading.fetchingRemote": "Loading remote data...",
|
|
203
195
|
"marketPublish.modal.loading.submit": "Submitting Agent...",
|
|
196
|
+
"marketPublish.modal.loading.submitGroup": "Submitting Group...",
|
|
204
197
|
"marketPublish.modal.loading.upload": "Publishing new version...",
|
|
198
|
+
"marketPublish.modal.loading.uploadGroup": "Publishing new group version...",
|
|
205
199
|
"marketPublish.modal.messages.createVersionFailed": "Failed to create version: {{message}}",
|
|
206
200
|
"marketPublish.modal.messages.fetchRemoteFailed": "Failed to fetch remote agent data",
|
|
207
201
|
"marketPublish.modal.messages.missingIdentifier": "This Agent doesn’t have a Community identifier yet.",
|
|
202
|
+
"marketPublish.modal.messages.noGroup": "No group selected",
|
|
208
203
|
"marketPublish.modal.messages.notAuthenticated": "Sign in to your Community account first.",
|
|
209
204
|
"marketPublish.modal.messages.publishFailed": "Publish failed: {{message}}",
|
|
210
205
|
"marketPublish.modal.submitButton": "Publish",
|
|
211
206
|
"marketPublish.modal.title.submit": "Share to Agent Community",
|
|
212
207
|
"marketPublish.modal.title.upload": "Publish New Version",
|
|
213
208
|
"marketPublish.resultModal.message": "Your Agent has been submitted for review. Once approved, it will go live automatically.",
|
|
209
|
+
"marketPublish.resultModal.messageGroup": "Your Group has been submitted for review. Once approved, it will go live automatically.",
|
|
214
210
|
"marketPublish.resultModal.title": "Submission Successful",
|
|
215
211
|
"marketPublish.resultModal.view": "View in Community",
|
|
216
212
|
"marketPublish.submit.button": "Share to Community",
|
|
217
213
|
"marketPublish.submit.tooltip": "Share this Agent to the Community",
|
|
214
|
+
"marketPublish.submitGroup.tooltip": "Share this Group to the Community",
|
|
218
215
|
"marketPublish.upload.button": "Publish New Version",
|
|
219
216
|
"marketPublish.upload.tooltip": "Publish a new version to Agent Community",
|
|
217
|
+
"marketPublish.uploadGroup.tooltip": "Publish a new version to Group Community",
|
|
220
218
|
"memory.enabled.desc": "Allow LobeHub to extract preferences and info from conversations and use them later. You can view, edit, or clear memory anytime.",
|
|
221
219
|
"memory.enabled.title": "Enable Memory",
|
|
222
220
|
"memory.title": "Memory Settings",
|
|
@@ -495,6 +493,7 @@
|
|
|
495
493
|
"submitAgentModal.placeholder": "Enter a unique identifier for the agent, e.g. web-development",
|
|
496
494
|
"submitAgentModal.success": "Agent submitted successfully",
|
|
497
495
|
"submitAgentModal.tooltips": "Share to Agent Community",
|
|
496
|
+
"submitGroupModal.tooltips": "Share to Group Community",
|
|
498
497
|
"sync.device.deviceName.hint": "Add a name for easy identification",
|
|
499
498
|
"sync.device.deviceName.placeholder": "Enter device name",
|
|
500
499
|
"sync.device.deviceName.title": "Device Name",
|
package/locales/en-US/tool.json
CHANGED
|
@@ -15,6 +15,8 @@
|
|
|
15
15
|
"agentGroupManagement.executeTask.thread": "Thread ID",
|
|
16
16
|
"agentGroupManagement.executeTask.timeout": "Execution Timed Out",
|
|
17
17
|
"agentGroupManagement.executeTask.tokens": "Token Usage",
|
|
18
|
+
"agentGroupManagement.executeTasks.intervention.instructionPlaceholder": "Detailed instruction for the agent to perform this task...",
|
|
19
|
+
"agentGroupManagement.executeTasks.intervention.titlePlaceholder": "Task title...",
|
|
18
20
|
"codeInterpreter-legacy.error": "Execution Error",
|
|
19
21
|
"codeInterpreter-legacy.executing": "Executing...",
|
|
20
22
|
"codeInterpreter-legacy.files": "Files:",
|
package/locales/es-ES/chat.json
CHANGED
|
@@ -203,6 +203,8 @@
|
|
|
203
203
|
"noMembersYet": "Este grupo aún no tiene miembros. Haz clic en el botón + para invitar agentes.",
|
|
204
204
|
"noSelectedAgents": "Aún no se han seleccionado miembros",
|
|
205
205
|
"openInNewWindow": "Abrir en una nueva ventana",
|
|
206
|
+
"operation.execAgentRuntime": "Preparando respuesta",
|
|
207
|
+
"operation.sendMessage": "Enviando mensaje",
|
|
206
208
|
"owner": "Propietario del grupo",
|
|
207
209
|
"pageCopilot.title": "Agente de página",
|
|
208
210
|
"pageCopilot.welcome": "**Escritura más clara y precisa**\n\nRedacta, reescribe o mejora: dime tu intención y yo me encargo del resto.",
|
|
@@ -253,6 +255,8 @@
|
|
|
253
255
|
"sessionGroup.sorting": "Actualizando orden del grupo...",
|
|
254
256
|
"sessionGroup.tooLong": "El nombre del grupo debe tener entre 1 y 20 caracteres",
|
|
255
257
|
"shareModal.copy": "Copiar",
|
|
258
|
+
"shareModal.copyLink": "Copiar enlace",
|
|
259
|
+
"shareModal.copyLinkSuccess": "Enlace copiado",
|
|
256
260
|
"shareModal.download": "Descargar captura",
|
|
257
261
|
"shareModal.downloadError": "Error al descargar",
|
|
258
262
|
"shareModal.downloadFile": "Descargar archivo",
|
|
@@ -268,12 +272,26 @@
|
|
|
268
272
|
"shareModal.imageType": "Formato de imagen",
|
|
269
273
|
"shareModal.includeTool": "Incluir mensajes de habilidades",
|
|
270
274
|
"shareModal.includeUser": "Incluir mensajes del usuario",
|
|
275
|
+
"shareModal.link": "Enlace",
|
|
276
|
+
"shareModal.link.linkHint": "Cualquiera con el enlace puede ver este tema",
|
|
277
|
+
"shareModal.link.noTopic": "Inicia una conversación primero para compartir",
|
|
278
|
+
"shareModal.link.permissionLink": "Cualquiera con el enlace",
|
|
279
|
+
"shareModal.link.permissionPrivate": "Privado",
|
|
280
|
+
"shareModal.link.privateHint": "Solo tú puedes acceder a este enlace",
|
|
281
|
+
"shareModal.link.updateError": "No se pudo actualizar la configuración de compartición",
|
|
282
|
+
"shareModal.link.visibilityUpdated": "Visibilidad actualizada",
|
|
271
283
|
"shareModal.loadingPdf": "Cargando PDF...",
|
|
272
284
|
"shareModal.noPdfData": "No hay datos PDF disponibles",
|
|
273
285
|
"shareModal.pdf": "PDF",
|
|
274
286
|
"shareModal.pdfErrorDescription": "Ocurrió un error al generar el PDF, por favor intenta de nuevo",
|
|
275
287
|
"shareModal.pdfGenerationError": "Error al generar el PDF",
|
|
276
288
|
"shareModal.pdfReady": "PDF listo",
|
|
289
|
+
"shareModal.popover.moreOptions": "Más opciones para compartir",
|
|
290
|
+
"shareModal.popover.privacyWarning.confirm": "Entiendo, continuar",
|
|
291
|
+
"shareModal.popover.privacyWarning.content": "Asegúrate de que tu conversación no contenga información personal o sensible. Eres responsable del contenido que decidas compartir y de sus consecuencias.",
|
|
292
|
+
"shareModal.popover.privacyWarning.title": "Aviso de privacidad",
|
|
293
|
+
"shareModal.popover.title": "Compartir tema",
|
|
294
|
+
"shareModal.popover.visibility": "Visibilidad",
|
|
277
295
|
"shareModal.regeneratePdf": "Regenerar PDF",
|
|
278
296
|
"shareModal.screenshot": "Captura de pantalla",
|
|
279
297
|
"shareModal.settings": "Configuración de exportación",
|
|
@@ -286,6 +304,14 @@
|
|
|
286
304
|
"shareModal.withPluginInfo": "Incluir información de habilidades",
|
|
287
305
|
"shareModal.withRole": "Incluir rol del mensaje",
|
|
288
306
|
"shareModal.withSystemRole": "Incluir perfil del agente",
|
|
307
|
+
"sharePage.error.forbidden.subtitle": "Este contenido compartido es privado y no está accesible.",
|
|
308
|
+
"sharePage.error.forbidden.title": "Acceso denegado",
|
|
309
|
+
"sharePage.error.notFound.subtitle": "Este tema no existe o ha sido eliminado.",
|
|
310
|
+
"sharePage.error.notFound.title": "Tema no encontrado",
|
|
311
|
+
"sharePage.error.unauthorized.action": "Iniciar sesión",
|
|
312
|
+
"sharePage.error.unauthorized.subtitle": "Por favor, inicia sesión para ver este tema compartido.",
|
|
313
|
+
"sharePage.error.unauthorized.title": "Inicio de sesión requerido",
|
|
314
|
+
"sharePageDisclaimer": "Este contenido ha sido compartido por un usuario y no representa las opiniones de LobeHub. LobeHub no se hace responsable de las consecuencias derivadas de este contenido compartido.",
|
|
289
315
|
"stt.action": "Entrada por voz",
|
|
290
316
|
"stt.loading": "Reconociendo...",
|
|
291
317
|
"stt.prettifying": "Puliendo...",
|
|
@@ -103,7 +103,7 @@
|
|
|
103
103
|
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 es un modelo MoE de 671 mil millones de parámetros que utiliza MLA y DeepSeekMoE con balanceo de carga sin pérdida para inferencia y entrenamiento eficientes. Preentrenado con 14,8 billones de tokens de alta calidad y ajustado con SFT y RL, supera a otros modelos abiertos y se acerca al rendimiento de modelos cerrados líderes.",
|
|
104
104
|
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo MoE de primer nivel con 1 billón de parámetros totales y 32 mil millones activos. Sus características clave incluyen mayor inteligencia en programación con agentes, mejoras significativas en pruebas de referencia y tareas reales de agentes, además de una estética y usabilidad mejoradas en programación frontend.",
|
|
105
105
|
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo es la variante Turbo optimizada para velocidad de razonamiento y rendimiento, manteniendo el razonamiento de múltiples pasos y uso de herramientas de K2 Thinking. Es un modelo MoE con aproximadamente 1 billón de parámetros totales, contexto nativo de 256K y llamadas a herramientas estables a gran escala para escenarios de producción con necesidades estrictas de latencia y concurrencia.",
|
|
106
|
-
"Pro/zai-org/glm-4.7.description": "GLM-4.7 es el modelo insignia de nueva generación de Zhipu, con 355 mil millones de parámetros
|
|
106
|
+
"Pro/zai-org/glm-4.7.description": "GLM-4.7 es el modelo insignia de nueva generación de Zhipu, con un total de 355 mil millones de parámetros y 32 mil millones activos. Ha sido completamente mejorado en capacidades de diálogo general, razonamiento y agentes. GLM-4.7 potencia el Pensamiento Intercalado e introduce el Pensamiento Preservado y el Pensamiento a Nivel de Turno.",
|
|
107
107
|
"QwQ-32B-Preview.description": "Qwen QwQ es un modelo de investigación experimental centrado en mejorar el razonamiento.",
|
|
108
108
|
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview es un modelo de investigación de Qwen enfocado en razonamiento visual, con fortalezas en comprensión de escenas complejas y problemas visuales de matemáticas.",
|
|
109
109
|
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ es un modelo de investigación experimental centrado en mejorar el razonamiento de IA.",
|
|
@@ -388,7 +388,7 @@
|
|
|
388
388
|
"deepseek-v3.1:671b.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con mejoras en razonamiento complejo y cadena de pensamiento, ideal para tareas que requieren análisis profundo.",
|
|
389
389
|
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduce atención dispersa para mejorar la eficiencia de entrenamiento e inferencia en textos largos, a un precio más bajo que deepseek-v3.1.",
|
|
390
390
|
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think es un modelo de pensamiento profundo completo con razonamiento de cadenas largas más sólido.",
|
|
391
|
-
"deepseek-v3.2.description": "DeepSeek-V3.2 es el primer modelo de razonamiento híbrido de DeepSeek que integra el pensamiento en el uso de herramientas.
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 es el primer modelo de razonamiento híbrido de DeepSeek que integra el pensamiento en el uso de herramientas. Utiliza una arquitectura eficiente para ahorrar cómputo, aprendizaje por refuerzo a gran escala para mejorar capacidades y datos sintéticos a gran escala para fortalecer la generalización. La combinación de estos tres elementos logra un rendimiento comparable al GPT-5-High, con una longitud de salida significativamente reducida, disminuyendo notablemente la carga computacional y el tiempo de espera del usuario.",
|
|
392
392
|
"deepseek-v3.description": "DeepSeek-V3 es un potente modelo MoE con 671 mil millones de parámetros totales y 37 mil millones activos por token.",
|
|
393
393
|
"deepseek-vl2-small.description": "DeepSeek VL2 Small es una versión multimodal ligera para entornos con recursos limitados y alta concurrencia.",
|
|
394
394
|
"deepseek-vl2.description": "DeepSeek VL2 es un modelo multimodal para comprensión imagen-texto y preguntas visuales detalladas.",
|
|
@@ -434,7 +434,7 @@
|
|
|
434
434
|
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 refuerza significativamente el razonamiento, mejorando aún más las habilidades clave en programación, matemáticas y razonamiento lógico respecto a Doubao-1.5-thinking-pro, además de añadir comprensión visual. Admite una ventana de contexto de 256k y hasta 16k tokens de salida.",
|
|
435
435
|
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision es un modelo visual de razonamiento profundo que ofrece mayor comprensión y razonamiento multimodal para educación, revisión de imágenes, inspección/seguridad y búsqueda de IA con preguntas y respuestas. Admite una ventana de contexto de 256k y hasta 64k tokens de salida.",
|
|
436
436
|
"doubao-seed-1.6.description": "Doubao-Seed-1.6 es un nuevo modelo multimodal de razonamiento profundo con modos automático, de razonamiento y sin razonamiento. En modo sin razonamiento, supera significativamente a Doubao-1.5-pro/250115. Admite una ventana de contexto de 256k y hasta 16k tokens de salida.",
|
|
437
|
-
"doubao-seed-1.8.description": "Doubao-Seed-1.8
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 ofrece una comprensión multimodal más sólida y capacidades avanzadas de agente. Admite entrada de texto, imagen y video, así como almacenamiento de contexto, y puede ofrecer un rendimiento excelente en tareas complejas.",
|
|
438
438
|
"doubao-seed-code.description": "Doubao-Seed-Code está profundamente optimizado para programación con agentes, admite entradas multimodales (texto/imagen/video) y una ventana de contexto de 256k, es compatible con la API de Anthropic y se adapta a flujos de trabajo de programación, comprensión visual y agentes.",
|
|
439
439
|
"doubao-seededit-3-0-i2i-250628.description": "El modelo de imágenes Doubao de ByteDance Seed admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Admite edición de imágenes guiada por texto, con tamaños de salida entre 512 y 1536 en el lado largo.",
|
|
440
440
|
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
|
|
@@ -526,6 +526,7 @@
|
|
|
526
526
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
|
527
527
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
|
528
528
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash es el modelo más inteligente diseñado para la velocidad, combinando inteligencia de vanguardia con una excelente fundamentación en búsquedas.",
|
|
529
530
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, compatible también con chat multimodal.",
|
|
530
531
|
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, compatible también con chat multimodal.",
|
|
531
532
|
"gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre un razonamiento de última generación.",
|
|
@@ -559,8 +560,8 @@
|
|
|
559
560
|
"glm-4.5-x.description": "Edición rápida de GLM-4.5, con rendimiento sólido y velocidades de generación de hasta 100 tokens/segundo.",
|
|
560
561
|
"glm-4.5.description": "Modelo insignia de Zhipu con modo de razonamiento conmutable, ofreciendo SOTA de código abierto y hasta 128K de contexto.",
|
|
561
562
|
"glm-4.5v.description": "Modelo de razonamiento visual de próxima generación de Zhipu con arquitectura MoE, 106B parámetros totales y 12B activos, logrando SOTA entre modelos multimodales de código abierto de tamaño similar en imagen, video, comprensión de documentos y tareas GUI.",
|
|
562
|
-
"glm-4.6.description": "GLM-4.6 (355B), el último modelo insignia de Zhipu, supera
|
|
563
|
-
"glm-4.7.description": "GLM-4.7 es el
|
|
563
|
+
"glm-4.6.description": "GLM-4.6 (355B), el último modelo insignia de Zhipu, supera completamente a sus predecesores en codificación avanzada, procesamiento de textos largos, razonamiento y capacidades de agente. Se alinea especialmente con Claude Sonnet 4 en habilidades de programación, convirtiéndose en el modelo de codificación líder en China.",
|
|
564
|
+
"glm-4.7.description": "GLM-4.7 es el modelo insignia más reciente de Zhipu, mejorado para escenarios de Codificación Agéntica con capacidades de programación avanzadas, planificación de tareas a largo plazo y colaboración con herramientas. Logra un rendimiento líder entre los modelos de código abierto en múltiples benchmarks públicos. Sus capacidades generales se han mejorado con respuestas más concisas y naturales, y una escritura más inmersiva. En tareas complejas de agente, sigue mejor las instrucciones durante el uso de herramientas, y se han optimizado la estética del frontend y la eficiencia en la finalización de tareas a largo plazo en Artifacts y Codificación Agéntica.",
|
|
564
565
|
"glm-4.description": "GLM-4 es el modelo insignia anterior lanzado en enero de 2024, ahora reemplazado por el más potente GLM-4-0520.",
|
|
565
566
|
"glm-4v-flash.description": "GLM-4V-Flash se centra en la comprensión eficiente de imágenes individuales para análisis rápidos en escenarios como procesamiento de imágenes en tiempo real o por lotes.",
|
|
566
567
|
"glm-4v-plus-0111.description": "GLM-4V-Plus comprende video e imágenes múltiples, adecuado para tareas multimodales.",
|
|
@@ -591,6 +592,43 @@
|
|
|
591
592
|
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google con soporte para conversación multimodal.",
|
|
592
593
|
"google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free ofrece la misma comprensión y razonamiento multimodal que la versión estándar, pero con límites de cuota y frecuencia, ideal para pruebas y uso ocasional.",
|
|
593
594
|
"google/gemini-3-pro-preview.description": "Gemini 3 Pro es el modelo de razonamiento multimodal de nueva generación de la familia Gemini, capaz de comprender texto, audio, imágenes y video, y manejar tareas complejas y grandes bases de código.",
|
|
595
|
+
"google/gemini-embedding-001.description": "Modelo de embedding de última generación con alto rendimiento en tareas en inglés, multilingües y de código.",
|
|
596
|
+
"google/gemini-flash-1.5.description": "Gemini 1.5 Flash ofrece procesamiento multimodal optimizado para una variedad de tareas complejas.",
|
|
597
|
+
"google/gemini-pro-1.5.description": "Gemini 1.5 Pro combina las últimas optimizaciones para un procesamiento más eficiente de datos multimodales.",
|
|
598
|
+
"google/gemma-2-27b-it.description": "Gemma 2 27B es un modelo de lenguaje de propósito general con alto rendimiento en múltiples escenarios.",
|
|
599
|
+
"google/gemma-2-27b.description": "Gemma 2 es la familia de modelos eficientes de Google para casos de uso que van desde aplicaciones pequeñas hasta procesamiento de datos complejos.",
|
|
600
|
+
"google/gemma-2-2b-it.description": "Un modelo de lenguaje pequeño y avanzado diseñado para aplicaciones en el borde.",
|
|
601
|
+
"google/gemma-2-9b-it.description": "Gemma 2 9B, desarrollado por Google, ofrece seguimiento eficiente de instrucciones y una capacidad general sólida.",
|
|
602
|
+
"google/gemma-2-9b-it:free.description": "Gemma 2 es la familia de modelos de texto de código abierto y bajo peso de Google.",
|
|
603
|
+
"google/gemma-2-9b.description": "Gemma 2 es la familia de modelos eficientes de Google para casos de uso que van desde aplicaciones pequeñas hasta procesamiento de datos complejos.",
|
|
604
|
+
"google/gemma-2b-it.description": "Gemma Instruct (2B) proporciona manejo básico de instrucciones para aplicaciones ligeras.",
|
|
605
|
+
"google/gemma-3-12b-it.description": "Gemma 3 12B es un modelo de lenguaje de código abierto de Google que establece un nuevo estándar en eficiencia y rendimiento.",
|
|
606
|
+
"google/gemma-3-27b-it.description": "Gemma 3 27B es un modelo de lenguaje de código abierto de Google que establece un nuevo estándar en eficiencia y rendimiento.",
|
|
607
|
+
"google/text-embedding-005.description": "Modelo de embedding de texto enfocado en inglés, optimizado para tareas de código y lenguaje en inglés.",
|
|
608
|
+
"google/text-multilingual-embedding-002.description": "Modelo de embedding de texto multilingüe optimizado para tareas interlingüísticas en muchos idiomas.",
|
|
609
|
+
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo para generación y comprensión de texto; actualmente apunta a gpt-3.5-turbo-0125.",
|
|
610
|
+
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo para generación y comprensión de texto; actualmente apunta a gpt-3.5-turbo-0125.",
|
|
611
|
+
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo para tareas de generación y comprensión de texto, optimizado para seguir instrucciones.",
|
|
612
|
+
"gpt-3.5-turbo.description": "GPT 3.5 Turbo para generación y comprensión de texto; actualmente apunta a gpt-3.5-turbo-0125.",
|
|
613
|
+
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k es un modelo de generación de texto de alta capacidad para tareas complejas.",
|
|
614
|
+
"gpt-35-turbo.description": "GPT-3.5 Turbo es el modelo eficiente de OpenAI para chat y generación de texto, con soporte para llamadas de función en paralelo.",
|
|
615
|
+
"gpt-4-0125-preview.description": "El último GPT-4 Turbo añade visión. Las solicitudes visuales admiten modo JSON y llamadas de función. Es un modelo multimodal rentable que equilibra precisión y eficiencia para aplicaciones en tiempo real.",
|
|
616
|
+
"gpt-4-0613.description": "GPT-4 ofrece una ventana de contexto más amplia para manejar entradas más largas, adecuado para síntesis de información y análisis de datos.",
|
|
617
|
+
"gpt-4-1106-preview.description": "El último GPT-4 Turbo añade visión. Las solicitudes visuales admiten modo JSON y llamadas de función. Es un modelo multimodal rentable que equilibra precisión y eficiencia para aplicaciones en tiempo real.",
|
|
618
|
+
"gpt-4-32k-0613.description": "GPT-4 ofrece una ventana de contexto más amplia para manejar entradas más largas en escenarios que requieren integración de información y análisis de datos.",
|
|
619
|
+
"gpt-4-32k.description": "GPT-4 ofrece una ventana de contexto más amplia para manejar entradas más largas en escenarios que requieren integración de información y análisis de datos.",
|
|
620
|
+
"gpt-4-turbo-2024-04-09.description": "El último GPT-4 Turbo añade visión. Las solicitudes visuales admiten modo JSON y llamadas de función. Es un modelo multimodal rentable que equilibra precisión y eficiencia para aplicaciones en tiempo real.",
|
|
621
|
+
"gpt-4-turbo-preview.description": "El último GPT-4 Turbo añade visión. Las solicitudes visuales admiten modo JSON y llamadas de función. Es un modelo multimodal rentable que equilibra precisión y eficiencia para aplicaciones en tiempo real.",
|
|
622
|
+
"gpt-4-turbo.description": "El último GPT-4 Turbo añade visión. Las solicitudes visuales admiten modo JSON y llamadas de función. Es un modelo multimodal rentable que equilibra precisión y eficiencia para aplicaciones en tiempo real.",
|
|
623
|
+
"gpt-4-vision-preview.description": "Vista previa de GPT-4 Vision, diseñado para tareas de análisis y procesamiento de imágenes.",
|
|
624
|
+
"gpt-4.1-mini.description": "GPT-4.1 mini equilibra inteligencia, velocidad y costo, siendo atractivo para muchos casos de uso.",
|
|
625
|
+
"gpt-4.1-nano.description": "GPT-4.1 nano es el modelo GPT-4.1 más rápido y rentable.",
|
|
626
|
+
"gpt-4.1.description": "GPT-4.1 es nuestro modelo insignia para tareas complejas y resolución de problemas interdisciplinares.",
|
|
627
|
+
"gpt-4.5-preview.description": "GPT-4.5-preview es el último modelo de propósito general con profundo conocimiento del mundo y mejor comprensión de intenciones, fuerte en tareas creativas y planificación de agentes. Su límite de conocimiento es octubre de 2023.",
|
|
628
|
+
"gpt-4.description": "GPT-4 ofrece una ventana de contexto más amplia para manejar entradas más largas, adecuado para síntesis de información y análisis de datos.",
|
|
629
|
+
"gpt-4o-2024-05-13.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina una sólida comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
|
|
630
|
+
"gpt-4o-2024-08-06.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real. Combina una sólida comprensión del lenguaje y generación para casos de uso a gran escala como atención al cliente, educación y asistencia técnica.",
|
|
631
|
+
"gpt-4o-2024-11-20.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina una sólida comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
|
|
594
632
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
|
|
595
633
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
|
|
596
634
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
|
|
@@ -61,18 +61,16 @@
|
|
|
61
61
|
"builtins.lobe-group-agent-builder.inspector.title": "Título",
|
|
62
62
|
"builtins.lobe-group-agent-builder.title": "Experto en Creación de Grupos",
|
|
63
63
|
"builtins.lobe-group-management.apiName.broadcast": "Hablan todos",
|
|
64
|
-
"builtins.lobe-group-management.apiName.createAgent": "Agregar miembro al grupo",
|
|
65
64
|
"builtins.lobe-group-management.apiName.createWorkflow": "Planificar flujo de trabajo",
|
|
66
|
-
"builtins.lobe-group-management.apiName.
|
|
65
|
+
"builtins.lobe-group-management.apiName.executeAgentTask": "Ejecutar tarea del agente",
|
|
66
|
+
"builtins.lobe-group-management.apiName.executeAgentTasks": "Ejecutar tareas paralelas del agente",
|
|
67
67
|
"builtins.lobe-group-management.apiName.getAgentInfo": "Obtener información del miembro",
|
|
68
68
|
"builtins.lobe-group-management.apiName.interrupt": "Interrumpir tarea",
|
|
69
|
-
"builtins.lobe-group-management.apiName.inviteAgent": "Invitar miembro",
|
|
70
|
-
"builtins.lobe-group-management.apiName.removeAgent": "Eliminar miembro",
|
|
71
|
-
"builtins.lobe-group-management.apiName.searchAgent": "Buscar expertos relevantes",
|
|
72
69
|
"builtins.lobe-group-management.apiName.speak": "Habla el miembro designado",
|
|
73
70
|
"builtins.lobe-group-management.apiName.summarize": "Resumir conversación",
|
|
74
71
|
"builtins.lobe-group-management.apiName.vote": "Iniciar votación",
|
|
75
72
|
"builtins.lobe-group-management.inspector.broadcast.title": "Hablan los siguientes agentes:",
|
|
73
|
+
"builtins.lobe-group-management.inspector.executeAgentTasks.title": "Asignando tareas a:",
|
|
76
74
|
"builtins.lobe-group-management.inspector.speak.title": "Habla el agente designado:",
|
|
77
75
|
"builtins.lobe-group-management.title": "Coordinador de Grupo",
|
|
78
76
|
"builtins.lobe-gtd.apiName.clearTodos": "Borrar tareas",
|
|
@@ -175,6 +173,7 @@
|
|
|
175
173
|
"builtins.lobe-user-memory.apiName.removeIdentityMemory": "Eliminar memoria de identidad",
|
|
176
174
|
"builtins.lobe-user-memory.apiName.searchUserMemory": "Buscar en la memoria",
|
|
177
175
|
"builtins.lobe-user-memory.apiName.updateIdentityMemory": "Actualizar memoria de identidad",
|
|
176
|
+
"builtins.lobe-user-memory.inspector.noResults": "Sin resultados",
|
|
178
177
|
"builtins.lobe-user-memory.title": "Memoria",
|
|
179
178
|
"builtins.lobe-web-browsing.apiName.crawlMultiPages": "Leer múltiples páginas",
|
|
180
179
|
"builtins.lobe-web-browsing.apiName.crawlSinglePage": "Leer contenido de la página",
|
|
@@ -173,8 +173,11 @@
|
|
|
173
173
|
"llm.waitingForMoreLinkAriaLabel": "Abrir formulario de solicitud de proveedor",
|
|
174
174
|
"marketPublish.forkConfirm.by": "por {{author}}",
|
|
175
175
|
"marketPublish.forkConfirm.confirm": "Confirmar publicación",
|
|
176
|
+
"marketPublish.forkConfirm.confirmGroup": "Confirmar publicación",
|
|
176
177
|
"marketPublish.forkConfirm.description": "Estás a punto de publicar una versión derivada basada en un agente existente de la comunidad. Tu nuevo agente se creará como una entrada separada en el mercado.",
|
|
178
|
+
"marketPublish.forkConfirm.descriptionGroup": "Estás a punto de publicar una versión derivada basada en un grupo existente de la comunidad. Tu nuevo grupo se creará como una entrada separada en el mercado.",
|
|
177
179
|
"marketPublish.forkConfirm.title": "Publicar agente derivado",
|
|
180
|
+
"marketPublish.forkConfirm.titleGroup": "Publicar grupo derivado",
|
|
178
181
|
"marketPublish.modal.changelog.extra": "Describe los cambios clave y mejoras en esta versión",
|
|
179
182
|
"marketPublish.modal.changelog.label": "Registro de cambios",
|
|
180
183
|
"marketPublish.modal.changelog.maxLengthError": "El registro de cambios no debe exceder los 500 caracteres",
|
|
@@ -190,22 +193,28 @@
|
|
|
190
193
|
"marketPublish.modal.identifier.required": "Por favor, introduce el identificador del agente",
|
|
191
194
|
"marketPublish.modal.loading.fetchingRemote": "Cargando datos remotos...",
|
|
192
195
|
"marketPublish.modal.loading.submit": "Enviando Agente...",
|
|
196
|
+
"marketPublish.modal.loading.submitGroup": "Enviando grupo...",
|
|
193
197
|
"marketPublish.modal.loading.upload": "Publicando nueva versión...",
|
|
198
|
+
"marketPublish.modal.loading.uploadGroup": "Publicando nueva versión del grupo...",
|
|
194
199
|
"marketPublish.modal.messages.createVersionFailed": "Error al crear la versión: {{message}}",
|
|
195
200
|
"marketPublish.modal.messages.fetchRemoteFailed": "Error al obtener los datos del agente remoto",
|
|
196
201
|
"marketPublish.modal.messages.missingIdentifier": "Este Agente aún no tiene un identificador de la Comunidad.",
|
|
202
|
+
"marketPublish.modal.messages.noGroup": "Ningún grupo seleccionado",
|
|
197
203
|
"marketPublish.modal.messages.notAuthenticated": "Inicia sesión en tu cuenta de la Comunidad primero.",
|
|
198
204
|
"marketPublish.modal.messages.publishFailed": "Error al publicar: {{message}}",
|
|
199
205
|
"marketPublish.modal.submitButton": "Publicar",
|
|
200
206
|
"marketPublish.modal.title.submit": "Compartir con la Comunidad de Agentes",
|
|
201
207
|
"marketPublish.modal.title.upload": "Publicar Nueva Versión",
|
|
202
208
|
"marketPublish.resultModal.message": "Tu Agente ha sido enviado para revisión. Una vez aprobado, se publicará automáticamente.",
|
|
209
|
+
"marketPublish.resultModal.messageGroup": "Tu grupo ha sido enviado para revisión. Una vez aprobado, se publicará automáticamente.",
|
|
203
210
|
"marketPublish.resultModal.title": "Envío Exitoso",
|
|
204
211
|
"marketPublish.resultModal.view": "Ver en la Comunidad",
|
|
205
212
|
"marketPublish.submit.button": "Compartir con la Comunidad",
|
|
206
213
|
"marketPublish.submit.tooltip": "Comparte este Agente con la Comunidad",
|
|
214
|
+
"marketPublish.submitGroup.tooltip": "Comparte este grupo con la comunidad",
|
|
207
215
|
"marketPublish.upload.button": "Publicar Nueva Versión",
|
|
208
216
|
"marketPublish.upload.tooltip": "Publica una nueva versión en la Comunidad de Agentes",
|
|
217
|
+
"marketPublish.uploadGroup.tooltip": "Publica una nueva versión en la comunidad de grupos",
|
|
209
218
|
"memory.enabled.desc": "Permite que LobeHub extraiga preferencias e información de las conversaciones y las utilice más adelante. Puedes ver, editar o borrar la memoria en cualquier momento.",
|
|
210
219
|
"memory.enabled.title": "Activar Memoria",
|
|
211
220
|
"memory.title": "Configuración de Memoria",
|
|
@@ -254,6 +263,7 @@
|
|
|
254
263
|
"plugin.settings.title": "Configuración de Habilidad {{id}}",
|
|
255
264
|
"plugin.settings.tooltip": "Configuración de Habilidad",
|
|
256
265
|
"plugin.store": "Tienda de Habilidades",
|
|
266
|
+
"publishToCommunity": "Publicar en la comunidad",
|
|
257
267
|
"settingAgent.avatar.sizeExceeded": "El tamaño de la imagen excede el límite de 1MB, por favor elige una imagen más pequeña",
|
|
258
268
|
"settingAgent.avatar.title": "Avatar",
|
|
259
269
|
"settingAgent.backgroundColor.title": "Color de Fondo",
|
|
@@ -483,6 +493,7 @@
|
|
|
483
493
|
"submitAgentModal.placeholder": "Introduce un identificador único para el agente, por ejemplo: desarrollo-web",
|
|
484
494
|
"submitAgentModal.success": "Agente enviado con éxito",
|
|
485
495
|
"submitAgentModal.tooltips": "Compartir con la Comunidad de Agentes",
|
|
496
|
+
"submitGroupModal.tooltips": "Compartir con la comunidad de grupos",
|
|
486
497
|
"sync.device.deviceName.hint": "Agrega un nombre para facilitar la identificación",
|
|
487
498
|
"sync.device.deviceName.placeholder": "Introduce el nombre del dispositivo",
|
|
488
499
|
"sync.device.deviceName.title": "Nombre del Dispositivo",
|
|
@@ -54,6 +54,8 @@
|
|
|
54
54
|
"funds.packages.expiresIn": "Expira en {{days}} días",
|
|
55
55
|
"funds.packages.expiresToday": "Expira hoy",
|
|
56
56
|
"funds.packages.expiringSoon": "Próximo a expirar",
|
|
57
|
+
"funds.packages.gift": "Regalo",
|
|
58
|
+
"funds.packages.giftedOn": "Regalado el {{date}}",
|
|
57
59
|
"funds.packages.noPackages": "Sin paquetes de créditos",
|
|
58
60
|
"funds.packages.purchaseFirst": "Compra tu primer paquete de créditos",
|
|
59
61
|
"funds.packages.purchasedOn": "Comprado el {{date}}",
|
package/locales/es-ES/tool.json
CHANGED
|
@@ -15,6 +15,8 @@
|
|
|
15
15
|
"agentGroupManagement.executeTask.thread": "ID del Hilo",
|
|
16
16
|
"agentGroupManagement.executeTask.timeout": "Tiempo de Ejecución Agotado",
|
|
17
17
|
"agentGroupManagement.executeTask.tokens": "Uso de Tokens",
|
|
18
|
+
"agentGroupManagement.executeTasks.intervention.instructionPlaceholder": "Instrucciones detalladas para que el agente realice esta tarea...",
|
|
19
|
+
"agentGroupManagement.executeTasks.intervention.titlePlaceholder": "Título de la tarea...",
|
|
18
20
|
"codeInterpreter-legacy.error": "Error de Ejecución",
|
|
19
21
|
"codeInterpreter-legacy.executing": "Ejecutando...",
|
|
20
22
|
"codeInterpreter-legacy.files": "Archivos:",
|
package/locales/fa-IR/chat.json
CHANGED
|
@@ -203,6 +203,8 @@
|
|
|
203
203
|
"noMembersYet": "این گروه هنوز عضوی ندارد. برای دعوت نمایندهها روی دکمه + کلیک کنید.",
|
|
204
204
|
"noSelectedAgents": "هنوز عضوی انتخاب نشده است",
|
|
205
205
|
"openInNewWindow": "باز کردن در پنجره جدید",
|
|
206
|
+
"operation.execAgentRuntime": "در حال آمادهسازی پاسخ",
|
|
207
|
+
"operation.sendMessage": "در حال ارسال پیام",
|
|
206
208
|
"owner": "مالک گروه",
|
|
207
209
|
"pageCopilot.title": "نماینده صفحه",
|
|
208
210
|
"pageCopilot.welcome": "**نوشتاری شفافتر و دقیقتر**\n\nپیشنویس، بازنویسی یا ویرایش—هدف خود را بگویید، من بقیه را اصلاح میکنم.",
|
|
@@ -253,6 +255,8 @@
|
|
|
253
255
|
"sessionGroup.sorting": "در حال بهروزرسانی ترتیب گروه...",
|
|
254
256
|
"sessionGroup.tooLong": "طول نام گروه باید بین ۱ تا ۲۰ کاراکتر باشد",
|
|
255
257
|
"shareModal.copy": "کپی",
|
|
258
|
+
"shareModal.copyLink": "کپی کردن لینک",
|
|
259
|
+
"shareModal.copyLinkSuccess": "لینک کپی شد",
|
|
256
260
|
"shareModal.download": "دانلود اسکرینشات",
|
|
257
261
|
"shareModal.downloadError": "دانلود ناموفق بود",
|
|
258
262
|
"shareModal.downloadFile": "دانلود فایل",
|
|
@@ -268,12 +272,26 @@
|
|
|
268
272
|
"shareModal.imageType": "فرمت تصویر",
|
|
269
273
|
"shareModal.includeTool": "شامل پیامهای مهارت",
|
|
270
274
|
"shareModal.includeUser": "شامل پیامهای کاربر",
|
|
275
|
+
"shareModal.link": "لینک",
|
|
276
|
+
"shareModal.link.linkHint": "هر کسی که این لینک را داشته باشد میتواند این موضوع را مشاهده کند",
|
|
277
|
+
"shareModal.link.noTopic": "برای اشتراکگذاری ابتدا یک گفتگو را شروع کنید",
|
|
278
|
+
"shareModal.link.permissionLink": "هر کسی با لینک",
|
|
279
|
+
"shareModal.link.permissionPrivate": "خصوصی",
|
|
280
|
+
"shareModal.link.privateHint": "فقط شما میتوانید به این لینک دسترسی داشته باشید",
|
|
281
|
+
"shareModal.link.updateError": "بهروزرسانی تنظیمات اشتراکگذاری ناموفق بود",
|
|
282
|
+
"shareModal.link.visibilityUpdated": "قابلیت مشاهده بهروزرسانی شد",
|
|
271
283
|
"shareModal.loadingPdf": "در حال بارگذاری PDF...",
|
|
272
284
|
"shareModal.noPdfData": "دادهای برای PDF موجود نیست",
|
|
273
285
|
"shareModal.pdf": "PDF",
|
|
274
286
|
"shareModal.pdfErrorDescription": "در هنگام تولید PDF خطایی رخ داد، لطفاً دوباره تلاش کنید",
|
|
275
287
|
"shareModal.pdfGenerationError": "تولید PDF ناموفق بود",
|
|
276
288
|
"shareModal.pdfReady": "PDF آماده است",
|
|
289
|
+
"shareModal.popover.moreOptions": "گزینههای بیشتر برای اشتراکگذاری",
|
|
290
|
+
"shareModal.popover.privacyWarning.confirm": "متوجه شدم، ادامه بده",
|
|
291
|
+
"shareModal.popover.privacyWarning.content": "لطفاً مطمئن شوید که گفتگوی شما حاوی اطلاعات شخصی یا حساس نیست. شما مسئول محتوایی هستید که برای اشتراکگذاری انتخاب میکنید و پیامدهای آن.",
|
|
292
|
+
"shareModal.popover.privacyWarning.title": "هشدار حریم خصوصی",
|
|
293
|
+
"shareModal.popover.title": "اشتراکگذاری موضوع",
|
|
294
|
+
"shareModal.popover.visibility": "قابلیت مشاهده",
|
|
277
295
|
"shareModal.regeneratePdf": "تولید مجدد PDF",
|
|
278
296
|
"shareModal.screenshot": "اسکرینشات",
|
|
279
297
|
"shareModal.settings": "تنظیمات خروجی",
|
|
@@ -286,6 +304,14 @@
|
|
|
286
304
|
"shareModal.withPluginInfo": "شامل اطلاعات مهارت",
|
|
287
305
|
"shareModal.withRole": "شامل نقش پیام",
|
|
288
306
|
"shareModal.withSystemRole": "شامل پروفایل نماینده",
|
|
307
|
+
"sharePage.error.forbidden.subtitle": "این اشتراکگذاری خصوصی است و قابل دسترسی نیست.",
|
|
308
|
+
"sharePage.error.forbidden.title": "دسترسی غیرمجاز",
|
|
309
|
+
"sharePage.error.notFound.subtitle": "این موضوع وجود ندارد یا حذف شده است.",
|
|
310
|
+
"sharePage.error.notFound.title": "موضوع پیدا نشد",
|
|
311
|
+
"sharePage.error.unauthorized.action": "ورود",
|
|
312
|
+
"sharePage.error.unauthorized.subtitle": "لطفاً برای مشاهده این موضوع اشتراکگذاریشده وارد شوید.",
|
|
313
|
+
"sharePage.error.unauthorized.title": "ورود لازم است",
|
|
314
|
+
"sharePageDisclaimer": "این محتوا توسط یک کاربر به اشتراک گذاشته شده و دیدگاههای LobeHub را نمایندگی نمیکند. LobeHub مسئولیتی در قبال پیامدهای ناشی از این محتوای اشتراکگذاریشده ندارد.",
|
|
289
315
|
"stt.action": "ورودی صوتی",
|
|
290
316
|
"stt.loading": "در حال شناسایی...",
|
|
291
317
|
"stt.prettifying": "در حال ویرایش...",
|
|
@@ -103,7 +103,7 @@
|
|
|
103
103
|
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که از MLA و DeepSeekMoE با تعادل بار بدون اتلاف برای استنتاج و آموزش کارآمد استفاده میکند. با پیشآموزش بر روی ۱۴.۸ تریلیون توکن با کیفیت بالا و تنظیم بیشتر با SFT و RL، از سایر مدلهای باز پیشی میگیرد و به مدلهای بسته پیشرو نزدیک میشود.",
|
|
104
104
|
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل MoE سطح بالا با ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال است. ویژگیهای کلیدی شامل هوش کدنویسی عاملمحور قویتر با پیشرفتهای قابل توجه در معیارها و وظایف واقعی عاملها، بهعلاوه زیباییشناسی و قابلیت استفاده بهتر در کدنویسی رابط کاربری است.",
|
|
105
105
|
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo نسخه توربو بهینهشده برای سرعت استدلال و توان عملیاتی است، در حالی که استدلال چندمرحلهای و استفاده از ابزار K2 Thinking را حفظ میکند. این مدل MoE با حدود ۱ تریلیون پارامتر کل، زمینه بومی ۲۵۶ هزار توکن و فراخوانی ابزار در مقیاس بزرگ پایدار برای سناریوهای تولیدی با نیازهای سختگیرانهتر در تأخیر و همزمانی است.",
|
|
106
|
-
"Pro/zai-org/glm-4.7.description": "GLM-4.7 مدل پرچمدار نسل جدید
|
|
106
|
+
"Pro/zai-org/glm-4.7.description": "GLM-4.7 مدل پرچمدار نسل جدید Zhipu با ۳۵۵ میلیارد پارامتر کل و ۳۲ میلیارد پارامتر فعال است که بهطور کامل در زمینههای گفتوگوی عمومی، استدلال و تواناییهای عامل بهروزرسانی شده است. GLM-4.7 تفکر درهمتنیده را بهبود میبخشد و مفاهیم تفکر حفظشده و تفکر در سطح نوبت را معرفی میکند.",
|
|
107
107
|
"QwQ-32B-Preview.description": "Qwen QwQ یک مدل تحقیقاتی آزمایشی است که بر بهبود توانایی استدلال تمرکز دارد.",
|
|
108
108
|
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview یک مدل تحقیقاتی از Qwen است که بر استدلال بصری تمرکز دارد و در درک صحنههای پیچیده و حل مسائل ریاضی بصری توانمند است.",
|
|
109
109
|
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ یک مدل تحقیقاتی آزمایشی است که بر بهبود استدلال هوش مصنوعی تمرکز دارد.",
|
|
@@ -388,7 +388,7 @@
|
|
|
388
388
|
"deepseek-v3.1:671b.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیرهای بهبود یافته است که برای وظایف نیازمند تحلیل عمیق مناسب است.",
|
|
389
389
|
"deepseek-v3.2-exp.description": "مدل deepseek-v3.2-exp با معرفی توجه پراکنده، کارایی آموزش و استنتاج در متون بلند را بهبود میبخشد و نسبت به deepseek-v3.1 قیمت پایینتری دارد.",
|
|
390
390
|
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think یک مدل تفکر عمیق کامل است که توانایی استدلال زنجیرهای بلندتری دارد.",
|
|
391
|
-
"deepseek-v3.2.description": "DeepSeek-V3.2 نخستین مدل استدلال ترکیبی DeepSeek است که تفکر را با استفاده از ابزارها
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 نخستین مدل استدلال ترکیبی از DeepSeek است که تفکر را با استفاده از ابزارها ادغام میکند. این مدل با معماری کارآمد برای صرفهجویی در محاسبات، یادگیری تقویتی در مقیاس بزرگ برای افزایش تواناییها، و دادههای مصنوعی در مقیاس وسیع برای تقویت تعمیمپذیری آموزش دیده است. ترکیب این سه عامل عملکردی همتراز با GPT-5-High ارائه میدهد، در حالی که طول خروجی را بهطور قابل توجهی کاهش داده و سربار محاسباتی و زمان انتظار کاربر را کم میکند.",
|
|
392
392
|
"deepseek-v3.description": "DeepSeek-V3 یک مدل MoE قدرتمند با ۶۷۱ میلیارد پارامتر کل و ۳۷ میلیارد پارامتر فعال در هر توکن است.",
|
|
393
393
|
"deepseek-vl2-small.description": "DeepSeek VL2 Small نسخه چندوجهی سبکوزن برای استفاده در شرایط محدود منابع و همزمانی بالا است.",
|
|
394
394
|
"deepseek-vl2.description": "DeepSeek VL2 یک مدل چندوجهی برای درک تصویر-متن و پاسخگویی دقیق بصری است.",
|
|
@@ -434,7 +434,7 @@
|
|
|
434
434
|
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking استدلال را بهطور قابل توجهی تقویت کرده و تواناییهای اصلی در کدنویسی، ریاضیات و استدلال منطقی را نسبت به Doubao-1.5-thinking-pro بهبود میبخشد و درک تصویر را نیز اضافه میکند. از پنجره متنی ۲۵۶هزار توکن و خروجی تا ۱۶هزار توکن پشتیبانی میکند.",
|
|
435
435
|
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision یک مدل استدلال بصری است که درک و استدلال چندوجهی قویتری را برای آموزش، بررسی تصویر، بازرسی/امنیت و پرسش و پاسخ هوش مصنوعی ارائه میدهد. از پنجره متنی ۲۵۶هزار توکن و خروجی تا ۶۴هزار توکن پشتیبانی میکند.",
|
|
436
436
|
"doubao-seed-1.6.description": "Doubao-Seed-1.6 یک مدل جدید چندوجهی با استدلال عمیق است که از حالتهای خودکار، تفکری و غیرتفکری پشتیبانی میکند. در حالت غیرتفکری، عملکرد آن بهطور قابل توجهی از Doubao-1.5-pro/250115 بهتر است. از پنجره متنی ۲۵۶هزار توکن و خروجی تا ۱۶هزار توکن پشتیبانی میکند.",
|
|
437
|
-
"doubao-seed-1.8.description": "Doubao-Seed-1.8 دارای
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 دارای درک چندوجهی قویتر و تواناییهای عامل پیشرفتهتری است، از ورودی متن/تصویر/ویدیو و ذخیرهسازی زمینه پشتیبانی میکند و در انجام وظایف پیچیده عملکردی عالی ارائه میدهد.",
|
|
438
438
|
"doubao-seed-code.description": "Doubao-Seed-Code برای کدنویسی عاملمحور بهینهسازی عمیقی شده است، از ورودیهای چندوجهی (متن/تصویر/ویدیو) و پنجره متنی ۲۵۶هزار توکن پشتیبانی میکند، با API شرکت Anthropic سازگار است و برای کدنویسی، درک تصویر و جریانهای کاری عامل مناسب است.",
|
|
439
439
|
"doubao-seededit-3-0-i2i-250628.description": "مدل تصویر Doubao از ByteDance Seed از ورودیهای متن و تصویر پشتیبانی میکند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه میدهد. از ویرایش تصویر با راهنمایی متن پشتیبانی میکند و اندازه خروجی بین ۵۱۲ تا ۱۵۳۶ در ضلع بلندتر است.",
|
|
440
440
|
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودیهای متن و تصویر پشتیبانی میکند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه میدهد. این مدل تصاویر را از دستورات متنی تولید میکند.",
|
|
@@ -526,6 +526,7 @@
|
|
|
526
526
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview پیشرفتهترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و میتواند مجموعهدادههای بزرگ، پایگاههای کد و اسناد را با زمینه طولانی تحلیل کند.",
|
|
527
527
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview پیشرفتهترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و میتواند مجموعهدادههای بزرگ، پایگاههای کد و اسناد را با زمینه طولانی تحلیل کند.",
|
|
528
528
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro پرچمدار مدلهای استدلالی گوگل است که از زمینههای طولانی برای انجام وظایف پیچیده پشتیبانی میکند.",
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحیشده برای سرعت است که هوش پیشرفته را با قابلیت جستوجوی دقیق ترکیب میکند.",
|
|
529
530
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتوگوی چندوجهی نیز پشتیبانی میکند.",
|
|
530
531
|
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتوگوی چندوجهی نیز پشتیبانی میکند.",
|
|
531
532
|
"gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنیتر و تعامل عمیقتری را بر پایه استدلال پیشرفته ارائه میدهد.",
|
|
@@ -559,8 +560,8 @@
|
|
|
559
560
|
"glm-4.5-x.description": "نسخه سریع GLM-4.5 با عملکرد قوی و سرعت تولید تا ۱۰۰ توکن در ثانیه.",
|
|
560
561
|
"glm-4.5.description": "مدل پرچمدار Zhipu با حالت تفکر قابل تغییر، ارائهدهنده بهترین عملکرد متنباز و پشتیبانی از زمینه تا ۱۲۸ هزار توکن.",
|
|
561
562
|
"glm-4.5v.description": "مدل نسل بعدی بینایی و استدلال Zhipu با معماری MoE، دارای ۱۰۶ میلیارد پارامتر کل و ۱۲ میلیارد فعال، که در میان مدلهای چندوجهی متنباز همرده خود درک تصویر، ویدیو، اسناد و رابطهای گرافیکی را به سطح SOTA میرساند.",
|
|
562
|
-
"glm-4.6.description": "
|
|
563
|
-
"glm-4.7.description": "GLM-4.7 پرچمدار
|
|
563
|
+
"glm-4.6.description": "مدل پرچمدار جدید Zhipu با نام GLM-4.6 (۳۵۵ میلیارد پارامتر) در زمینههای برنامهنویسی پیشرفته، پردازش متون بلند، استدلال و تواناییهای عامل از نسخههای قبلی خود فراتر رفته است. این مدل بهویژه در توانایی برنامهنویسی با Claude Sonnet 4 همتراز است و به عنوان برترین مدل برنامهنویسی در چین شناخته میشود.",
|
|
564
|
+
"glm-4.7.description": "GLM-4.7 جدیدترین مدل پرچمدار Zhipu است که برای سناریوهای برنامهنویسی عاملمحور بهینهسازی شده و دارای تواناییهای برنامهنویسی پیشرفتهتر، برنامهریزی وظایف بلندمدت و همکاری با ابزارها است. این مدل در چندین معیار عمومی عملکردی پیشرو در میان مدلهای متنباز دارد. تواناییهای عمومی آن با پاسخهای طبیعیتر و مختصرتر و نوشتاری جذابتر بهبود یافته است. در وظایف پیچیده عاملمحور، پیروی از دستورالعملها هنگام استفاده از ابزارها قویتر شده و زیبایی ظاهری رابط کاربری و کارایی انجام وظایف بلندمدت در Artifacts و برنامهنویسی عاملمحور ارتقا یافته است.",
|
|
564
565
|
"glm-4.description": "GLM-4 پرچمدار قدیمی است که در ژانویه ۲۰۲۴ منتشر شد و اکنون با GLM-4-0520 قویتر جایگزین شده است.",
|
|
565
566
|
"glm-4v-flash.description": "GLM-4V-Flash بر درک کارآمد تصویر تکی تمرکز دارد و برای سناریوهای تحلیلی سریع مانند پردازش تصویر بلادرنگ یا دستهای مناسب است.",
|
|
566
567
|
"glm-4v-plus-0111.description": "GLM-4V-Plus توانایی درک ویدیو و چند تصویر را دارد و برای وظایف چندوجهی مناسب است.",
|
|
@@ -628,6 +629,42 @@
|
|
|
628
629
|
"gpt-4o-2024-05-13.description": "ChatGPT-4o مدلی پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
629
630
|
"gpt-4o-2024-08-06.description": "ChatGPT-4o مدلی پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
630
631
|
"gpt-4o-2024-11-20.description": "ChatGPT-4o مدلی پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
632
|
+
"gpt-4o-audio-preview.description": "مدل پیشنمایش صوتی GPT-4o با ورودی و خروجی صوتی.",
|
|
633
|
+
"gpt-4o-mini-audio-preview.description": "مدل صوتی کوچک GPT-4o با ورودی و خروجی صوتی.",
|
|
634
|
+
"gpt-4o-mini-realtime-preview.description": "نسخه بلادرنگ GPT-4o-mini با ورودی/خروجی بلادرنگ صوتی و متنی.",
|
|
635
|
+
"gpt-4o-mini-search-preview.description": "پیشنمایش جستوجوی GPT-4o mini برای درک و اجرای پرسوجوهای جستوجوی وب از طریق API تکمیل چت. جستوجوی وب به ازای هر فراخوانی ابزار، علاوه بر هزینه توکن، محاسبه میشود.",
|
|
636
|
+
"gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe مدلی برای تبدیل گفتار به متن است که با استفاده از GPT-4o دقت شناسایی کلمات، تشخیص زبان و صحت را نسبت به مدل Whisper اصلی بهبود میبخشد.",
|
|
637
|
+
"gpt-4o-mini-tts.description": "GPT-4o mini TTS مدلی برای تبدیل متن به گفتار است که بر پایه GPT-4o mini ساخته شده و متن را به گفتاری طبیعی تبدیل میکند (حداکثر ورودی ۲۰۰۰ توکن).",
|
|
638
|
+
"gpt-4o-mini.description": "GPT-4o mini جدیدترین مدل OpenAI پس از GPT-4 Omni است که از ورودی متن+تصویر و خروجی متنی پشتیبانی میکند. این مدل پیشرفتهترین مدل کوچک آنهاست، بسیار ارزانتر از مدلهای پیشرفته اخیر و بیش از ۶۰٪ ارزانتر از GPT-3.5 Turbo، در حالی که هوش سطح بالا (۸۲٪ MMLU) را حفظ میکند.",
|
|
639
|
+
"gpt-4o-realtime-preview-2024-10-01.description": "نسخه بلادرنگ GPT-4o با ورودی/خروجی بلادرنگ صوتی و متنی.",
|
|
640
|
+
"gpt-4o-realtime-preview-2025-06-03.description": "نسخه بلادرنگ GPT-4o با ورودی/خروجی بلادرنگ صوتی و متنی.",
|
|
641
|
+
"gpt-4o-realtime-preview.description": "نسخه بلادرنگ GPT-4o با ورودی/خروجی بلادرنگ صوتی و متنی.",
|
|
642
|
+
"gpt-4o-search-preview.description": "پیشنمایش جستوجوی GPT-4o برای درک و اجرای پرسوجوهای جستوجوی وب از طریق API تکمیل چت. جستوجوی وب به ازای هر فراخوانی ابزار، علاوه بر هزینه توکن، محاسبه میشود.",
|
|
643
|
+
"gpt-4o-transcribe.description": "GPT-4o Transcribe مدلی برای تبدیل گفتار به متن است که با استفاده از GPT-4o دقت شناسایی کلمات، تشخیص زبان و صحت را نسبت به مدل Whisper اصلی بهبود میبخشد.",
|
|
644
|
+
"gpt-4o.description": "ChatGPT-4o مدلی پویا و بهروزرسانیشونده در زمان واقعی است که درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
645
|
+
"gpt-5-chat-latest.description": "مدل GPT-5 مورد استفاده در ChatGPT که درک و تولید قوی را برای کاربردهای مکالمهای ترکیب میکند.",
|
|
646
|
+
"gpt-5-chat.description": "GPT-5 Chat یک مدل پیشنمایش بهینهشده برای سناریوهای مکالمهای است. از ورودی متن و تصویر پشتیبانی میکند، فقط خروجی متنی دارد و برای چتباتها و برنامههای هوش مصنوعی مکالمهای مناسب است.",
|
|
647
|
+
"gpt-5-codex.description": "GPT-5 Codex نسخهای از GPT-5 است که برای وظایف برنامهنویسی عاملمحور در محیطهای مشابه Codex بهینهسازی شده است.",
|
|
648
|
+
"gpt-5-mini.description": "نسخهای سریعتر و مقرونبهصرفهتر از GPT-5 برای وظایف مشخص، با پاسخهای سریعتر در عین حفظ کیفیت.",
|
|
649
|
+
"gpt-5-nano.description": "سریعترین و مقرونبهصرفهترین نسخه GPT-5، مناسب برای برنامههایی با حساسیت بالا به تأخیر و هزینه.",
|
|
650
|
+
"gpt-5-pro.description": "GPT-5 pro از منابع محاسباتی بیشتر برای تفکر عمیقتر استفاده میکند و بهطور مداوم پاسخهای بهتری ارائه میدهد.",
|
|
651
|
+
"gpt-5.1-chat-latest.description": "GPT-5.1 Chat: نسخه ChatGPT از GPT-5.1، ساختهشده برای سناریوهای چت.",
|
|
652
|
+
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: نسخه کوچکتر و کمهزینهتر Codex بهینهشده برای وظایف برنامهنویسی عاملمحور.",
|
|
653
|
+
"gpt-5.1-codex.description": "GPT-5.1 Codex: نسخهای از GPT-5.1 بهینهشده برای وظایف برنامهنویسی عاملمحور، مناسب برای گردشکارهای پیچیده کد/عامل در API پاسخها.",
|
|
654
|
+
"gpt-5.1.description": "GPT-5.1 — یک مدل پرچمدار بهینهشده برای برنامهنویسی و وظایف عامل با تلاش استدلال قابل تنظیم و زمینه طولانیتر.",
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat نسخه ChatGPT (chat-latest) برای تجربه بهبودهای جدید مکالمهای است.",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro: نسخهای هوشمندتر و دقیقتر از GPT-5.2 (فقط در API پاسخها)، مناسب برای مسائل دشوار و استدلال چندمرحلهای طولانی.",
|
|
657
|
+
"gpt-5.2.description": "GPT-5.2 یک مدل پرچمدار برای گردشکارهای برنامهنویسی و عاملمحور با استدلال قویتر و عملکرد بهتر در زمینههای طولانی است.",
|
|
658
|
+
"gpt-5.description": "بهترین مدل برای برنامهنویسی میانرشتهای و وظایف عامل. GPT-5 جهشی در دقت، سرعت، استدلال، آگاهی زمینهای، تفکر ساختاریافته و حل مسئله دارد.",
|
|
659
|
+
"gpt-audio.description": "GPT Audio یک مدل چت عمومی برای ورودی/خروجی صوتی است که در API تکمیل چت پشتیبانی میشود.",
|
|
660
|
+
"gpt-image-1-mini.description": "نسخه کمهزینهتر GPT Image 1 با ورودی بومی متن و تصویر و خروجی تصویری.",
|
|
661
|
+
"gpt-image-1.5.description": "مدل بهبودیافته GPT Image 1 با تولید ۴ برابر سریعتر، ویرایش دقیقتر و رندر بهتر متن.",
|
|
662
|
+
"gpt-image-1.description": "مدل تولید تصویر چندوجهی بومی ChatGPT.",
|
|
663
|
+
"gpt-oss-120b.description": "دسترسی نیاز به درخواست دارد. GPT-OSS-120B یک مدل زبان بزرگ متنباز از OpenAI با توانایی قوی در تولید متن است.",
|
|
664
|
+
"gpt-oss-20b.description": "دسترسی نیاز به درخواست دارد. GPT-OSS-20B یک مدل زبان میانرده متنباز از OpenAI با تولید متن کارآمد است.",
|
|
665
|
+
"gpt-oss:120b.description": "GPT-OSS 120B مدل LLM بزرگ متنباز OpenAI با کوانتیزاسیون MXFP4 است که به عنوان مدل پرچمدار معرفی شده. نیازمند محیط چند GPU یا ایستگاه کاری پیشرفته است و در استدلال پیچیده، تولید کد و پردازش چندزبانه عملکرد عالی دارد، با قابلیت فراخوانی توابع پیشرفته و ادغام ابزارها.",
|
|
666
|
+
"gpt-oss:20b.description": "GPT-OSS 20B یک LLM متنباز از OpenAI با کوانتیزاسیون MXFP4 است که برای GPUهای مصرفی پیشرفته یا مکهای Apple Silicon مناسب است. در تولید گفتوگو، برنامهنویسی و وظایف استدلالی عملکرد خوبی دارد و از فراخوانی توابع و استفاده از ابزارها پشتیبانی میکند.",
|
|
667
|
+
"gpt-realtime.description": "مدل بلادرنگ عمومی با پشتیبانی از ورودی/خروجی بلادرنگ متن و صوت، بهعلاوه ورودی تصویری.",
|
|
631
668
|
"meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعهدهندگان، پژوهشگران و شرکتها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد طراحی شده است. این مدل بهعنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیطهایی با منابع محدود، دستگاههای لبه و زمانهای آموزش سریع مناسب است.",
|
|
632
669
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری.",
|
|
633
670
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامههای عامل با قابلیت درک بصری.",
|