@lobehub/lobehub 2.0.0-next.51 → 2.0.0-next.53
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/README.md +8 -8
- package/README.zh-CN.md +8 -8
- package/apps/desktop/package.json +1 -1
- package/apps/desktop/src/main/controllers/LocalFileCtr.ts +25 -5
- package/apps/desktop/src/main/controllers/__tests__/LocalFileCtr.test.ts +4 -1
- package/apps/desktop/src/main/modules/fileSearch/__tests__/macOS.integration.test.ts +357 -0
- package/apps/desktop/src/main/modules/fileSearch/impl/macOS.ts +30 -22
- package/changelog/v1.json +21 -0
- package/locales/ar/models.json +119 -126
- package/locales/ar/plugin.json +1 -1
- package/locales/bg-BG/models.json +104 -132
- package/locales/bg-BG/plugin.json +1 -1
- package/locales/de-DE/models.json +119 -126
- package/locales/de-DE/plugin.json +1 -1
- package/locales/en-US/models.json +167 -126
- package/locales/en-US/plugin.json +1 -1
- package/locales/es-ES/models.json +119 -126
- package/locales/es-ES/plugin.json +1 -1
- package/locales/fa-IR/models.json +119 -126
- package/locales/fa-IR/plugin.json +1 -1
- package/locales/fr-FR/models.json +119 -126
- package/locales/fr-FR/plugin.json +1 -1
- package/locales/it-IT/models.json +119 -126
- package/locales/it-IT/plugin.json +1 -1
- package/locales/ja-JP/models.json +119 -126
- package/locales/ja-JP/plugin.json +1 -1
- package/locales/ko-KR/models.json +119 -126
- package/locales/ko-KR/plugin.json +1 -1
- package/locales/nl-NL/models.json +119 -126
- package/locales/nl-NL/plugin.json +1 -1
- package/locales/pl-PL/models.json +119 -126
- package/locales/pl-PL/plugin.json +1 -1
- package/locales/pt-BR/models.json +119 -126
- package/locales/pt-BR/plugin.json +1 -1
- package/locales/ru-RU/models.json +119 -126
- package/locales/ru-RU/plugin.json +1 -1
- package/locales/tr-TR/models.json +119 -126
- package/locales/tr-TR/plugin.json +1 -1
- package/locales/vi-VN/models.json +119 -126
- package/locales/vi-VN/plugin.json +1 -1
- package/locales/zh-CN/models.json +173 -80
- package/locales/zh-CN/plugin.json +1 -1
- package/locales/zh-TW/models.json +119 -126
- package/locales/zh-TW/plugin.json +1 -1
- package/package.json +2 -2
- package/packages/const/src/models.ts +2 -0
- package/packages/electron-client-ipc/src/types/localSystem.ts +26 -2
- package/packages/electron-server-ipc/src/ipcClient.ts +31 -31
- package/packages/electron-server-ipc/src/ipcServer.ts +15 -15
- package/packages/model-bank/src/aiModels/aihubmix.ts +106 -2
- package/packages/model-bank/src/aiModels/openai.ts +107 -3
- package/packages/model-bank/src/aiModels/qwen.ts +76 -7
- package/packages/model-bank/src/types/aiModel.ts +1 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +58 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.ts +24 -10
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +3 -2
- package/packages/model-runtime/src/providers/openai/index.test.ts +44 -0
- package/packages/types/src/agent/chatConfig.ts +9 -0
- package/packages/types/src/tool/builtin.ts +6 -4
- package/src/app/[variants]/(main)/chat/components/WorkspaceLayout.tsx +32 -23
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +12 -0
- package/src/features/ChatInput/ActionBar/Model/GPT51ReasoningEffortSlider.tsx +58 -0
- package/src/features/ChatItem/components/MessageContent.tsx +3 -1
- package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
- package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/ApprovalActions.tsx +34 -13
- package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/index.tsx +2 -2
- package/src/features/Conversation/Messages/Group/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
- package/src/features/Conversation/Messages/User/index.tsx +11 -1
- package/src/features/PluginsUI/Render/BuiltinType/index.test.tsx +10 -4
- package/src/features/PluginsUI/Render/BuiltinType/index.tsx +2 -2
- package/src/libs/mcp/__tests__/__snapshots__/index.test.ts.snap +0 -6
- package/src/locales/default/chat.ts +2 -0
- package/src/locales/default/plugin.ts +1 -1
- package/src/services/chat/chat.test.ts +1 -0
- package/src/services/chat/index.ts +7 -0
- package/src/store/aiInfra/slices/aiProvider/__tests__/selectors.test.ts +62 -0
- package/src/store/aiInfra/slices/aiProvider/selectors.ts +1 -1
- package/src/store/chat/slices/aiChat/actions/conversationControl.ts +42 -0
- package/src/tools/code-interpreter/Render/index.tsx +1 -1
- package/src/tools/interventions.ts +28 -4
- package/src/tools/local-system/Intervention/RunCommand/index.tsx +4 -5
- package/src/tools/local-system/Placeholder/ListFiles.tsx +3 -5
- package/src/tools/local-system/Placeholder/SearchFiles.tsx +2 -5
- package/src/tools/local-system/Render/ListFiles/index.tsx +16 -21
- package/src/tools/local-system/Render/ReadLocalFile/ReadFileView.tsx +2 -1
- package/src/tools/local-system/Render/RenameLocalFile/index.tsx +15 -20
- package/src/tools/local-system/Render/RunCommand/index.tsx +67 -70
- package/src/tools/local-system/Render/SearchFiles/SearchQuery/index.tsx +0 -1
- package/src/tools/local-system/Render/SearchFiles/index.tsx +15 -20
- package/src/tools/local-system/Render/WriteFile/index.tsx +2 -8
- package/src/tools/local-system/index.ts +5 -4
- package/src/tools/local-system/systemRole.ts +1 -1
- package/src/tools/placeholders.ts +39 -8
- package/src/tools/renders.ts +56 -9
- package/src/tools/web-browsing/Placeholder/{PageContent.tsx → CrawlMultiPages.tsx} +4 -1
- package/src/tools/web-browsing/Placeholder/CrawlSinglePage.tsx +12 -0
- package/src/tools/web-browsing/Placeholder/Search.tsx +4 -4
- package/src/tools/web-browsing/Render/CrawlMultiPages.tsx +15 -0
- package/src/tools/web-browsing/Render/CrawlSinglePage.tsx +15 -0
- package/src/tools/web-browsing/Render/Search/index.tsx +39 -44
- package/packages/database/migrations/0044_add_tool_intervention.sql +0 -1
- package/src/tools/local-system/Intervention/index.tsx +0 -17
- package/src/tools/local-system/Placeholder/index.tsx +0 -25
- package/src/tools/local-system/Render/index.tsx +0 -42
- package/src/tools/web-browsing/Placeholder/index.tsx +0 -40
- package/src/tools/web-browsing/Render/index.tsx +0 -57
|
@@ -1049,6 +1049,9 @@
|
|
|
1049
1049
|
"deepseek-r1-0528": {
|
|
1050
1050
|
"description": "Modelo completo de 685 mil millones de parámetros, lanzado el 28 de mayo de 2025. DeepSeek-R1 utiliza técnicas de aprendizaje reforzado a gran escala en la fase de postentrenamiento, mejorando significativamente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Presenta alto rendimiento y gran capacidad en tareas de matemáticas, código y razonamiento en lenguaje natural."
|
|
1051
1051
|
},
|
|
1052
|
+
"deepseek-r1-250528": {
|
|
1053
|
+
"description": "DeepSeek R1 250528, versión completa del modelo de inferencia DeepSeek-R1, ideal para tareas complejas de matemáticas y lógica."
|
|
1054
|
+
},
|
|
1052
1055
|
"deepseek-r1-70b-fast-online": {
|
|
1053
1056
|
"description": "DeepSeek R1 70B versión rápida, que soporta búsqueda en línea en tiempo real, ofreciendo una velocidad de respuesta más rápida mientras mantiene el rendimiento del modelo."
|
|
1054
1057
|
},
|
|
@@ -1059,31 +1062,34 @@
|
|
|
1059
1062
|
"description": "deepseek-r1-distill-llama es un modelo basado en Llama destilado a partir de DeepSeek-R1."
|
|
1060
1063
|
},
|
|
1061
1064
|
"deepseek-r1-distill-llama-70b": {
|
|
1062
|
-
"description": "DeepSeek R1
|
|
1065
|
+
"description": "DeepSeek R1 Distill Llama 70B, modelo destilado que combina la capacidad de inferencia R1 con el ecosistema Llama."
|
|
1063
1066
|
},
|
|
1064
1067
|
"deepseek-r1-distill-llama-8b": {
|
|
1065
|
-
"description": "
|
|
1068
|
+
"description": "DeepSeek-R1-Distill-Llama-8B es un modelo de lenguaje grande destilado basado en Llama-3.1-8B, utilizando las salidas de DeepSeek R1."
|
|
1066
1069
|
},
|
|
1067
|
-
"deepseek-r1-distill-qianfan-
|
|
1068
|
-
"description": "
|
|
1070
|
+
"deepseek-r1-distill-qianfan-70b": {
|
|
1071
|
+
"description": "DeepSeek R1 Distill Qianfan 70B, modelo destilado R1 basado en Qianfan-70B, con excelente relación calidad-precio."
|
|
1072
|
+
},
|
|
1073
|
+
"deepseek-r1-distill-qianfan-8b": {
|
|
1074
|
+
"description": "DeepSeek R1 Distill Qianfan 8B, modelo destilado R1 basado en Qianfan-8B, ideal para aplicaciones medianas y pequeñas."
|
|
1069
1075
|
},
|
|
1070
|
-
"deepseek-r1-distill-qianfan-llama-
|
|
1071
|
-
"description": "
|
|
1076
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
|
1077
|
+
"description": "DeepSeek R1 Distill Qianfan Llama 70B, modelo destilado R1 basado en Llama-70B."
|
|
1072
1078
|
},
|
|
1073
1079
|
"deepseek-r1-distill-qwen": {
|
|
1074
1080
|
"description": "deepseek-r1-distill-qwen es un modelo basado en Qwen destilado a partir de DeepSeek-R1."
|
|
1075
1081
|
},
|
|
1076
1082
|
"deepseek-r1-distill-qwen-1.5b": {
|
|
1077
|
-
"description": "
|
|
1083
|
+
"description": "DeepSeek R1 Distill Qwen 1.5B, modelo R1 ultraligero, adecuado para entornos con recursos extremadamente limitados."
|
|
1078
1084
|
},
|
|
1079
1085
|
"deepseek-r1-distill-qwen-14b": {
|
|
1080
|
-
"description": "
|
|
1086
|
+
"description": "DeepSeek R1 Distill Qwen 14B, modelo R1 de tamaño medio, ideal para despliegue en múltiples escenarios."
|
|
1081
1087
|
},
|
|
1082
1088
|
"deepseek-r1-distill-qwen-32b": {
|
|
1083
|
-
"description": "
|
|
1089
|
+
"description": "DeepSeek R1 Distill Qwen 32B, modelo destilado R1 basado en Qwen-32B, equilibrando rendimiento y coste."
|
|
1084
1090
|
},
|
|
1085
1091
|
"deepseek-r1-distill-qwen-7b": {
|
|
1086
|
-
"description": "
|
|
1092
|
+
"description": "DeepSeek R1 Distill Qwen 7B, modelo R1 ligero, adecuado para entornos perimetrales y empresariales privados."
|
|
1087
1093
|
},
|
|
1088
1094
|
"deepseek-r1-fast-online": {
|
|
1089
1095
|
"description": "DeepSeek R1 versión rápida completa, que soporta búsqueda en línea en tiempo real, combinando la potente capacidad de 671B de parámetros con una velocidad de respuesta más rápida."
|
|
@@ -1112,12 +1118,24 @@
|
|
|
1112
1118
|
"deepseek-v3.1-terminus": {
|
|
1113
1119
|
"description": "DeepSeek-V3.1-Terminus es una versión optimizada del modelo de lenguaje a gran escala lanzado por DeepSeek, especialmente diseñado para dispositivos terminales."
|
|
1114
1120
|
},
|
|
1121
|
+
"deepseek-v3.1-think-250821": {
|
|
1122
|
+
"description": "DeepSeek V3.1 Think 250821, modelo de pensamiento profundo correspondiente a la versión Terminus, ideal para escenarios de inferencia de alto rendimiento."
|
|
1123
|
+
},
|
|
1115
1124
|
"deepseek-v3.1:671b": {
|
|
1116
1125
|
"description": "DeepSeek V3.1: modelo de inferencia de próxima generación que mejora las capacidades de razonamiento complejo y pensamiento en cadena, ideal para tareas que requieren análisis profundo."
|
|
1117
1126
|
},
|
|
1118
1127
|
"deepseek-v3.2-exp": {
|
|
1119
1128
|
"description": "deepseek-v3.2-exp introduce el mecanismo de atención dispersa, con el objetivo de mejorar la eficiencia en el entrenamiento y la inferencia al procesar textos largos, con un precio inferior al de deepseek-v3.1."
|
|
1120
1129
|
},
|
|
1130
|
+
"deepseek-v3.2-think": {
|
|
1131
|
+
"description": "DeepSeek V3.2 Think, versión completa del modelo de pensamiento profundo, con capacidades mejoradas de razonamiento de cadenas largas."
|
|
1132
|
+
},
|
|
1133
|
+
"deepseek-vl2": {
|
|
1134
|
+
"description": "DeepSeek VL2, modelo multimodal que admite comprensión de imágenes y texto, así como preguntas visuales de alta precisión."
|
|
1135
|
+
},
|
|
1136
|
+
"deepseek-vl2-small": {
|
|
1137
|
+
"description": "DeepSeek VL2 Small, versión multimodal ligera, adecuada para entornos con recursos limitados y escenarios de alta concurrencia."
|
|
1138
|
+
},
|
|
1121
1139
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1122
1140
|
"description": "DeepSeek V3 es un modelo experto de mezcla de 685B parámetros, la última iteración de la serie de modelos de chat insignia del equipo de DeepSeek.\n\nHereda el modelo [DeepSeek V3](/deepseek/deepseek-chat-v3) y se desempeña excepcionalmente en diversas tareas."
|
|
1123
1141
|
},
|
|
@@ -1253,83 +1271,89 @@
|
|
|
1253
1271
|
"emohaa": {
|
|
1254
1272
|
"description": "Emohaa es un modelo psicológico con capacidades de consulta profesional, ayudando a los usuarios a comprender problemas emocionales."
|
|
1255
1273
|
},
|
|
1256
|
-
"ernie-
|
|
1257
|
-
"description": "
|
|
1258
|
-
},
|
|
1259
|
-
"ernie-3.5-8k": {
|
|
1260
|
-
"description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, cubre una vasta cantidad de corpus en chino e inglés, con potentes capacidades generales que satisfacen la mayoría de los requisitos de preguntas y respuestas en diálogos, generación creativa y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
|
|
1261
|
-
},
|
|
1262
|
-
"ernie-3.5-8k-preview": {
|
|
1263
|
-
"description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, cubre una vasta cantidad de corpus en chino e inglés, con potentes capacidades generales que satisfacen la mayoría de los requisitos de preguntas y respuestas en diálogos, generación creativa y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
|
|
1264
|
-
},
|
|
1265
|
-
"ernie-4.0-8k-latest": {
|
|
1266
|
-
"description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, ha logrado una actualización completa de capacidades en comparación con ERNIE 3.5, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
|
|
1267
|
-
},
|
|
1268
|
-
"ernie-4.0-8k-preview": {
|
|
1269
|
-
"description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, ha logrado una actualización completa de capacidades en comparación con ERNIE 3.5, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
|
|
1270
|
-
},
|
|
1271
|
-
"ernie-4.0-turbo-128k": {
|
|
1272
|
-
"description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, muestra un rendimiento excepcional en general, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas. En comparación con ERNIE 4.0, presenta un rendimiento superior."
|
|
1273
|
-
},
|
|
1274
|
-
"ernie-4.0-turbo-8k-latest": {
|
|
1275
|
-
"description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, muestra un rendimiento excepcional en general, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas. En comparación con ERNIE 4.0, presenta un rendimiento superior."
|
|
1276
|
-
},
|
|
1277
|
-
"ernie-4.0-turbo-8k-preview": {
|
|
1278
|
-
"description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, muestra un rendimiento excepcional en general, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas. En comparación con ERNIE 4.0, presenta un rendimiento superior."
|
|
1274
|
+
"ernie-4.5-0.3b": {
|
|
1275
|
+
"description": "ERNIE 4.5 0.3B, modelo ligero de código abierto, ideal para despliegues locales y personalizados."
|
|
1279
1276
|
},
|
|
1280
1277
|
"ernie-4.5-21b-a3b": {
|
|
1281
|
-
"description": "ERNIE 4.5 21B A3B
|
|
1278
|
+
"description": "ERNIE 4.5 21B A3B, modelo de gran tamaño de código abierto, con mejor rendimiento en tareas de comprensión y generación."
|
|
1282
1279
|
},
|
|
1283
1280
|
"ernie-4.5-300b-a47b": {
|
|
1284
1281
|
"description": "ERNIE 4.5 300B A47B es un modelo de expertos mixto a gran escala desarrollado por Wenxin de Baidu, con capacidades de razonamiento excepcionales."
|
|
1285
1282
|
},
|
|
1286
1283
|
"ernie-4.5-8k-preview": {
|
|
1287
|
-
"description": "
|
|
1284
|
+
"description": "ERNIE 4.5 8K Preview, modelo de vista previa con contexto de 8K, diseñado para probar y experimentar las capacidades de ERNIE 4.5."
|
|
1288
1285
|
},
|
|
1289
1286
|
"ernie-4.5-turbo-128k": {
|
|
1290
|
-
"description": "ERNIE 4.5 Turbo
|
|
1287
|
+
"description": "ERNIE 4.5 Turbo 128K, modelo general de alto rendimiento, compatible con búsqueda mejorada y uso de herramientas, ideal para preguntas y respuestas, código, agentes inteligentes y más."
|
|
1288
|
+
},
|
|
1289
|
+
"ernie-4.5-turbo-128k-preview": {
|
|
1290
|
+
"description": "ERNIE 4.5 Turbo 128K Preview, versión de vista previa con capacidades equivalentes a la versión oficial, ideal para pruebas y ajustes."
|
|
1291
1291
|
},
|
|
1292
1292
|
"ernie-4.5-turbo-32k": {
|
|
1293
|
-
"description": "ERNIE 4.5 Turbo
|
|
1293
|
+
"description": "ERNIE 4.5 Turbo 32K, versión de contexto medio-largo, adecuada para preguntas y respuestas, recuperación de bases de conocimiento y diálogos multivuelta."
|
|
1294
|
+
},
|
|
1295
|
+
"ernie-4.5-turbo-latest": {
|
|
1296
|
+
"description": "ERNIE 4.5 Turbo Última versión, optimizada en rendimiento general, ideal como modelo principal en entornos de producción."
|
|
1297
|
+
},
|
|
1298
|
+
"ernie-4.5-turbo-vl": {
|
|
1299
|
+
"description": "ERNIE 4.5 Turbo VL, modelo multimodal maduro, ideal para tareas de comprensión e identificación de imágenes y texto en producción."
|
|
1294
1300
|
},
|
|
1295
1301
|
"ernie-4.5-turbo-vl-32k": {
|
|
1296
|
-
"description": "
|
|
1302
|
+
"description": "ERNIE 4.5 Turbo VL 32K, versión multimodal de texto largo, adecuada para comprensión conjunta de documentos extensos e imágenes."
|
|
1303
|
+
},
|
|
1304
|
+
"ernie-4.5-turbo-vl-32k-preview": {
|
|
1305
|
+
"description": "ERNIE 4.5 Turbo VL 32K Preview, versión de vista previa multimodal 32K, útil para evaluar capacidades visuales de contexto largo."
|
|
1306
|
+
},
|
|
1307
|
+
"ernie-4.5-turbo-vl-latest": {
|
|
1308
|
+
"description": "ERNIE 4.5 Turbo VL Última versión, versión más reciente multimodal, con mejor rendimiento en comprensión e inferencia de imágenes y texto."
|
|
1309
|
+
},
|
|
1310
|
+
"ernie-4.5-turbo-vl-preview": {
|
|
1311
|
+
"description": "ERNIE 4.5 Turbo VL Preview, modelo multimodal de vista previa, compatible con comprensión y generación de imágenes y texto, ideal para preguntas visuales y experiencias de comprensión de contenido."
|
|
1312
|
+
},
|
|
1313
|
+
"ernie-4.5-vl-28b-a3b": {
|
|
1314
|
+
"description": "ERNIE 4.5 VL 28B A3B, modelo multimodal de código abierto, compatible con tareas de comprensión e inferencia de imágenes y texto."
|
|
1315
|
+
},
|
|
1316
|
+
"ernie-5.0-thinking-preview": {
|
|
1317
|
+
"description": "ERNIE 5.0 Thinking Preview, modelo insignia nativo totalmente multimodal, compatible con modelado unificado de texto, imagen, audio y video, con capacidades integrales mejoradas, ideal para preguntas complejas, creación y agentes inteligentes."
|
|
1297
1318
|
},
|
|
1298
1319
|
"ernie-char-8k": {
|
|
1299
|
-
"description": "
|
|
1320
|
+
"description": "ERNIE Character 8K, modelo de diálogo con personalidad, ideal para construcción de personajes IP y conversaciones de acompañamiento a largo plazo."
|
|
1300
1321
|
},
|
|
1301
1322
|
"ernie-char-fiction-8k": {
|
|
1302
|
-
"description": "
|
|
1323
|
+
"description": "ERNIE Character Fiction 8K, modelo de personalidad orientado a la creación de novelas y tramas, ideal para generación de historias largas."
|
|
1324
|
+
},
|
|
1325
|
+
"ernie-char-fiction-8k-preview": {
|
|
1326
|
+
"description": "ERNIE Character Fiction 8K Preview, versión de vista previa del modelo de creación de personajes y tramas, para pruebas y experiencia funcional."
|
|
1303
1327
|
},
|
|
1304
1328
|
"ernie-irag-edit": {
|
|
1305
|
-
"description": "
|
|
1329
|
+
"description": "ERNIE iRAG Edit, modelo de edición de imágenes que admite borrado, repintado y generación de variantes."
|
|
1306
1330
|
},
|
|
1307
1331
|
"ernie-lite-8k": {
|
|
1308
|
-
"description": "ERNIE Lite
|
|
1332
|
+
"description": "ERNIE Lite 8K, modelo general ligero, ideal para preguntas y respuestas diarias y generación de contenido con sensibilidad al coste."
|
|
1309
1333
|
},
|
|
1310
1334
|
"ernie-lite-pro-128k": {
|
|
1311
|
-
"description": "
|
|
1335
|
+
"description": "ERNIE Lite Pro 128K, modelo ligero de alto rendimiento, ideal para escenarios sensibles a la latencia y al coste."
|
|
1312
1336
|
},
|
|
1313
1337
|
"ernie-novel-8k": {
|
|
1314
|
-
"description": "
|
|
1338
|
+
"description": "ERNIE Novel 8K, modelo para creación de novelas largas y tramas IP, experto en narrativas multirrol y multilínea."
|
|
1315
1339
|
},
|
|
1316
1340
|
"ernie-speed-128k": {
|
|
1317
|
-
"description": "
|
|
1341
|
+
"description": "ERNIE Speed 128K, modelo grande sin coste de entrada/salida, ideal para comprensión de textos largos y pruebas a gran escala."
|
|
1342
|
+
},
|
|
1343
|
+
"ernie-speed-8k": {
|
|
1344
|
+
"description": "ERNIE Speed 8K, modelo gratuito y rápido, ideal para conversaciones diarias y tareas ligeras de texto."
|
|
1318
1345
|
},
|
|
1319
1346
|
"ernie-speed-pro-128k": {
|
|
1320
|
-
"description": "
|
|
1347
|
+
"description": "ERNIE Speed Pro 128K, modelo de alta concurrencia y excelente relación calidad-precio, ideal para servicios en línea a gran escala y aplicaciones empresariales."
|
|
1321
1348
|
},
|
|
1322
1349
|
"ernie-tiny-8k": {
|
|
1323
|
-
"description": "ERNIE Tiny
|
|
1324
|
-
},
|
|
1325
|
-
"ernie-x1-32k": {
|
|
1326
|
-
"description": "Posee una comprensión, planificación, reflexión y capacidad de evolución más fuertes. Como un modelo de pensamiento profundo más completo, ERNIE-X1 combina precisión, creatividad y elocuencia, destacándose especialmente en preguntas y respuestas en chino, creación literaria, redacción de documentos, diálogos cotidianos, razonamiento lógico, cálculos complejos y llamadas a herramientas."
|
|
1327
|
-
},
|
|
1328
|
-
"ernie-x1-32k-preview": {
|
|
1329
|
-
"description": "El modelo grande Wenxin X1 posee una mayor capacidad de comprensión, planificación, reflexión y evolución. Como un modelo de pensamiento profundo más completo, Wenxin X1 combina precisión, creatividad y elocuencia, destacándose especialmente en preguntas y respuestas de conocimiento en chino, creación literaria, redacción de documentos, diálogos cotidianos, razonamiento lógico, cálculos complejos y llamadas a herramientas."
|
|
1350
|
+
"description": "ERNIE Tiny 8K, modelo ultraligero, ideal para preguntas simples, clasificación y escenarios de inferencia de bajo coste."
|
|
1330
1351
|
},
|
|
1331
1352
|
"ernie-x1-turbo-32k": {
|
|
1332
|
-
"description": "
|
|
1353
|
+
"description": "ERNIE X1 Turbo 32K, modelo de pensamiento rápido con contexto largo de 32K, ideal para razonamiento complejo y diálogos multivuelta."
|
|
1354
|
+
},
|
|
1355
|
+
"ernie-x1.1-preview": {
|
|
1356
|
+
"description": "ERNIE X1.1 Preview, versión de vista previa del modelo de pensamiento ERNIE X1.1, ideal para validación y pruebas de capacidades."
|
|
1333
1357
|
},
|
|
1334
1358
|
"fal-ai/bytedance/seedream/v4": {
|
|
1335
1359
|
"description": "El modelo de generación de imágenes Seedream 4.0, desarrollado por el equipo Seed de ByteDance, soporta entrada de texto e imagen, ofreciendo una experiencia de generación de imágenes altamente controlable y de alta calidad. Genera imágenes basadas en indicaciones de texto."
|
|
@@ -1389,7 +1413,7 @@
|
|
|
1389
1413
|
"description": "FLUX.1 [schnell], como el modelo de pocos pasos más avanzado de código abierto actualmente, supera no solo a competidores similares sino también a potentes modelos no refinados como Midjourney v6.0 y DALL·E 3 (HD). Este modelo ha sido ajustado específicamente para conservar toda la diversidad de salida de la etapa de preentrenamiento. En comparación con los modelos más avanzados del mercado, FLUX.1 [schnell] mejora significativamente la calidad visual, el cumplimiento de instrucciones, la variación de tamaño/proporción, el manejo de fuentes y la diversidad de salida, ofreciendo a los usuarios una experiencia de generación de imágenes creativas más rica y variada."
|
|
1390
1414
|
},
|
|
1391
1415
|
"flux.1-schnell": {
|
|
1392
|
-
"description": "
|
|
1416
|
+
"description": "FLUX.1-schnell, modelo de generación de imágenes de alto rendimiento, ideal para crear rápidamente imágenes de múltiples estilos."
|
|
1393
1417
|
},
|
|
1394
1418
|
"gemini-1.0-pro-001": {
|
|
1395
1419
|
"description": "Gemini 1.0 Pro 001 (Ajuste) ofrece un rendimiento estable y ajustable, siendo una opción ideal para soluciones de tareas complejas."
|
|
@@ -1538,6 +1562,9 @@
|
|
|
1538
1562
|
"glm-4-0520": {
|
|
1539
1563
|
"description": "GLM-4-0520 es la última versión del modelo, diseñada para tareas altamente complejas y diversas, con un rendimiento excepcional."
|
|
1540
1564
|
},
|
|
1565
|
+
"glm-4-32b-0414": {
|
|
1566
|
+
"description": "GLM-4 32B 0414, versión del modelo general de la serie GLM, compatible con generación y comprensión de texto multitarea."
|
|
1567
|
+
},
|
|
1541
1568
|
"glm-4-9b-chat": {
|
|
1542
1569
|
"description": "GLM-4-9B-Chat ofrece un alto rendimiento en semántica, matemáticas, razonamiento, programación y conocimiento. También admite navegación web, ejecución de código, uso de herramientas personalizadas e inferencia de textos largos. Compatible con 26 idiomas, incluidos japonés, coreano y alemán."
|
|
1543
1570
|
},
|
|
@@ -2036,14 +2063,26 @@
|
|
|
2036
2063
|
"internlm3-latest": {
|
|
2037
2064
|
"description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, lidera el mercado de modelos de código abierto de tamaño similar. Apunta por defecto a nuestra serie de modelos InternLM3 más reciente."
|
|
2038
2065
|
},
|
|
2066
|
+
"internvl2.5-38b-mpo": {
|
|
2067
|
+
"description": "InternVL2.5 38B MPO, modelo multimodal preentrenado, compatible con tareas complejas de inferencia de imágenes y texto."
|
|
2068
|
+
},
|
|
2039
2069
|
"internvl2.5-latest": {
|
|
2040
2070
|
"description": "La versión InternVL2.5 que seguimos manteniendo, que ofrece un rendimiento excelente y estable. Por defecto, apunta a nuestra serie de modelos InternVL2.5 más reciente, actualmente apuntando a internvl2.5-78b."
|
|
2041
2071
|
},
|
|
2072
|
+
"internvl3-14b": {
|
|
2073
|
+
"description": "InternVL3 14B, modelo multimodal de tamaño medio, equilibrando rendimiento y coste."
|
|
2074
|
+
},
|
|
2075
|
+
"internvl3-1b": {
|
|
2076
|
+
"description": "InternVL3 1B, modelo multimodal ligero, ideal para despliegue en entornos con recursos limitados."
|
|
2077
|
+
},
|
|
2078
|
+
"internvl3-38b": {
|
|
2079
|
+
"description": "InternVL3 38B, modelo multimodal de código abierto a gran escala, ideal para tareas de comprensión de imágenes y texto de alta precisión."
|
|
2080
|
+
},
|
|
2042
2081
|
"internvl3-latest": {
|
|
2043
2082
|
"description": "Nuestro modelo multimodal más reciente, que posee una mayor capacidad de comprensión de texto e imagen, así como una comprensión de imágenes a largo plazo, con un rendimiento comparable a los mejores modelos cerrados. Por defecto, apunta a nuestra serie de modelos InternVL más reciente, actualmente apuntando a internvl3-78b."
|
|
2044
2083
|
},
|
|
2045
2084
|
"irag-1.0": {
|
|
2046
|
-
"description": "iRAG
|
|
2085
|
+
"description": "ERNIE iRAG, modelo de generación mejorada por recuperación de imágenes, compatible con búsqueda por imagen, recuperación de imágenes y texto, y generación de contenido."
|
|
2047
2086
|
},
|
|
2048
2087
|
"jamba-large": {
|
|
2049
2088
|
"description": "Nuestro modelo más potente y avanzado, diseñado para manejar tareas complejas a nivel empresarial, con un rendimiento excepcional."
|
|
@@ -2064,7 +2103,7 @@
|
|
|
2064
2103
|
"description": "El modelo kimi-k2-0905-preview tiene una longitud de contexto de 256k, con una mayor capacidad de codificación agentiva, una estética y funcionalidad mejoradas en el código frontend, y una mejor comprensión del contexto."
|
|
2065
2104
|
},
|
|
2066
2105
|
"kimi-k2-instruct": {
|
|
2067
|
-
"description": "Kimi K2 Instruct
|
|
2106
|
+
"description": "Kimi K2 Instruct, modelo de inferencia oficial de Kimi, compatible con contexto largo, código, preguntas y respuestas, entre otros escenarios."
|
|
2068
2107
|
},
|
|
2069
2108
|
"kimi-k2-turbo-preview": {
|
|
2070
2109
|
"description": "kimi-k2 es un modelo base con arquitectura MoE que ofrece potentes capacidades para código y agentes, con 1T parámetros totales y 32B parámetros activados. En las pruebas de referencia en categorías principales como razonamiento de conocimiento general, programación, matemáticas y agentes, el rendimiento del modelo K2 supera al de otros modelos de código abierto más extendidos."
|
|
@@ -2885,9 +2924,7 @@
|
|
|
2885
2924
|
"qwen2.5-72b-instruct": {
|
|
2886
2925
|
"description": "El modelo de 72B de Tongyi Qwen 2.5, de código abierto."
|
|
2887
2926
|
},
|
|
2888
|
-
"qwen2.5-7b-instruct": {
|
|
2889
|
-
"description": "El modelo de 7B de Tongyi Qwen 2.5, de código abierto."
|
|
2890
|
-
},
|
|
2927
|
+
"qwen2.5-7b-instruct": {},
|
|
2891
2928
|
"qwen2.5-coder-1.5b-instruct": {
|
|
2892
2929
|
"description": "La versión de código abierto del modelo Qwen para codificación."
|
|
2893
2930
|
},
|
|
@@ -2918,15 +2955,11 @@
|
|
|
2918
2955
|
"qwen2.5-omni-7b": {
|
|
2919
2956
|
"description": "La serie de modelos Qwen-Omni admite la entrada de datos de múltiples modalidades, incluyendo video, audio, imágenes y texto, y produce audio y texto como salida."
|
|
2920
2957
|
},
|
|
2921
|
-
"qwen2.5-vl-32b-instruct": {
|
|
2922
|
-
"description": "La serie de modelos Qwen2.5-VL ha mejorado el nivel de inteligencia, utilidad y aplicabilidad del modelo, optimizando su rendimiento en escenarios como conversaciones naturales, creación de contenido, servicios de conocimiento especializado y desarrollo de código. La versión 32B utiliza técnicas de aprendizaje por refuerzo para optimizar el modelo, ofreciendo en comparación con otros modelos de la serie Qwen2.5 VL, un estilo de salida más acorde con las preferencias humanas, capacidad de razonamiento para problemas matemáticos complejos, así como comprensión y razonamiento detallado de imágenes."
|
|
2923
|
-
},
|
|
2958
|
+
"qwen2.5-vl-32b-instruct": {},
|
|
2924
2959
|
"qwen2.5-vl-72b-instruct": {
|
|
2925
2960
|
"description": "Mejora general en seguimiento de instrucciones, matemáticas, resolución de problemas y código, con capacidades de reconocimiento de objetos mejoradas, soporta formatos diversos para localizar elementos visuales con precisión, y puede entender archivos de video largos (hasta 10 minutos) y localizar eventos en segundos, comprendiendo la secuencia y velocidad del tiempo, soportando el control de agentes en OS o móviles, con fuerte capacidad de extracción de información clave y salida en formato Json. Esta versión es la de 72B, la más potente de la serie."
|
|
2926
2961
|
},
|
|
2927
|
-
"qwen2.5-vl-7b-instruct": {
|
|
2928
|
-
"description": "Mejora general en seguimiento de instrucciones, matemáticas, resolución de problemas y código, con capacidades de reconocimiento de objetos mejoradas, soporta formatos diversos para localizar elementos visuales con precisión, y puede entender archivos de video largos (hasta 10 minutos) y localizar eventos en segundos, comprendiendo la secuencia y velocidad del tiempo, soportando el control de agentes en OS o móviles, con fuerte capacidad de extracción de información clave y salida en formato Json. Esta versión es la de 72B, la más potente de la serie."
|
|
2929
|
-
},
|
|
2962
|
+
"qwen2.5-vl-7b-instruct": {},
|
|
2930
2963
|
"qwen2.5-vl-instruct": {
|
|
2931
2964
|
"description": "Qwen2.5-VL es la última versión del modelo de lenguaje visual de la familia de modelos Qwen."
|
|
2932
2965
|
},
|
|
@@ -2951,48 +2984,22 @@
|
|
|
2951
2984
|
"qwen3": {
|
|
2952
2985
|
"description": "Qwen3 es la nueva generación de modelo de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación."
|
|
2953
2986
|
},
|
|
2954
|
-
"qwen3-0.6b": {
|
|
2955
|
-
|
|
2956
|
-
},
|
|
2957
|
-
"qwen3-
|
|
2958
|
-
|
|
2959
|
-
},
|
|
2960
|
-
"qwen3-
|
|
2961
|
-
|
|
2962
|
-
},
|
|
2963
|
-
"qwen3-
|
|
2964
|
-
|
|
2965
|
-
},
|
|
2966
|
-
"qwen3-235b-a22b-instruct-2507": {
|
|
2967
|
-
"description": "Modelo de código abierto basado en Qwen3 en modo no reflexivo, con mejoras leves en capacidad creativa subjetiva y seguridad del modelo respecto a la versión anterior (Tongyi Qianwen 3-235B-A22B)."
|
|
2968
|
-
},
|
|
2969
|
-
"qwen3-235b-a22b-thinking-2507": {
|
|
2970
|
-
"description": "Modelo de código abierto basado en Qwen3 en modo reflexivo, con mejoras significativas en capacidad lógica, general, enriquecimiento de conocimiento y creatividad respecto a la versión anterior (Tongyi Qianwen 3-235B-A22B), adecuado para escenarios de razonamiento complejo y avanzado."
|
|
2971
|
-
},
|
|
2972
|
-
"qwen3-30b-a3b": {
|
|
2973
|
-
"description": "Qwen3 es un modelo de nueva generación con capacidades significativamente mejoradas, alcanzando niveles líderes en la industria en razonamiento, generalidad, agentes y multilingüismo, y soporta el cambio de modo de pensamiento."
|
|
2974
|
-
},
|
|
2975
|
-
"qwen3-30b-a3b-instruct-2507": {
|
|
2976
|
-
"description": "En comparación con la versión anterior (Qwen3-30B-A3B), se ha mejorado considerablemente la capacidad general en chino, inglés y otros idiomas. Se ha optimizado especialmente para tareas subjetivas y abiertas, alineándose mucho mejor con las preferencias del usuario y proporcionando respuestas más útiles."
|
|
2977
|
-
},
|
|
2978
|
-
"qwen3-30b-a3b-thinking-2507": {
|
|
2979
|
-
"description": "Basado en el modelo de código abierto en modo reflexivo de Qwen3, esta versión mejora significativamente la capacidad lógica, la capacidad general, el conocimiento y la creatividad en comparación con la versión anterior (Tongyi Qianwen 3-30B-A3B). Es adecuado para escenarios complejos que requieren un razonamiento avanzado."
|
|
2980
|
-
},
|
|
2981
|
-
"qwen3-32b": {
|
|
2982
|
-
"description": "Qwen3 es un modelo de nueva generación con capacidades significativamente mejoradas, alcanzando niveles líderes en la industria en razonamiento, generalidad, agentes y multilingüismo, y soporta el cambio de modo de pensamiento."
|
|
2983
|
-
},
|
|
2984
|
-
"qwen3-4b": {
|
|
2985
|
-
"description": "Qwen3 es un modelo de nueva generación con capacidades significativamente mejoradas, alcanzando niveles líderes en la industria en razonamiento, generalidad, agentes y multilingüismo, y soporta el cambio de modo de pensamiento."
|
|
2986
|
-
},
|
|
2987
|
-
"qwen3-8b": {
|
|
2988
|
-
"description": "Qwen3 es un modelo de nueva generación con capacidades significativamente mejoradas, alcanzando niveles líderes en la industria en razonamiento, generalidad, agentes y multilingüismo, y soporta el cambio de modo de pensamiento."
|
|
2989
|
-
},
|
|
2987
|
+
"qwen3-0.6b": {},
|
|
2988
|
+
"qwen3-1.7b": {},
|
|
2989
|
+
"qwen3-14b": {},
|
|
2990
|
+
"qwen3-235b-a22b": {},
|
|
2991
|
+
"qwen3-235b-a22b-instruct-2507": {},
|
|
2992
|
+
"qwen3-235b-a22b-thinking-2507": {},
|
|
2993
|
+
"qwen3-30b-a3b": {},
|
|
2994
|
+
"qwen3-30b-a3b-instruct-2507": {},
|
|
2995
|
+
"qwen3-30b-a3b-thinking-2507": {},
|
|
2996
|
+
"qwen3-32b": {},
|
|
2997
|
+
"qwen3-4b": {},
|
|
2998
|
+
"qwen3-8b": {},
|
|
2990
2999
|
"qwen3-coder-30b-a3b-instruct": {
|
|
2991
3000
|
"description": "Versión de código abierto del modelo de codificación Tongyi Qianwen. El nuevo qwen3-coder-30b-a3b-instruct, basado en Qwen3, es un modelo de generación de código con potentes capacidades como Agente de Programación, especializado en llamadas a herramientas e interacción con entornos, capaz de programar de forma autónoma con habilidades de codificación sobresalientes y capacidades generales."
|
|
2992
3001
|
},
|
|
2993
|
-
"qwen3-coder-480b-a35b-instruct": {
|
|
2994
|
-
"description": "Versión de código abierto del modelo de código Tongyi Qianwen. El más reciente qwen3-coder-480b-a35b-instruct está basado en Qwen3, con fuertes capacidades de agente de codificación, experto en llamadas a herramientas e interacción con entornos, capaz de programación autónoma y con habilidades sobresalientes de código y capacidades generales."
|
|
2995
|
-
},
|
|
3002
|
+
"qwen3-coder-480b-a35b-instruct": {},
|
|
2996
3003
|
"qwen3-coder-flash": {
|
|
2997
3004
|
"description": "Modelo de código Tongyi Qianwen. La última serie de modelos Qwen3-Coder está basada en Qwen3 para generación de código, con una potente capacidad de agente de codificación, experta en llamadas a herramientas e interacción con el entorno, capaz de programación autónoma, combinando una excelente habilidad en código con capacidades generales."
|
|
2998
3005
|
},
|
|
@@ -3008,30 +3015,16 @@
|
|
|
3008
3015
|
"qwen3-next-80b-a3b-instruct": {
|
|
3009
3016
|
"description": "Modelo de código abierto de nueva generación basado en Qwen3 en modo no reflexivo, que ofrece una mejor comprensión del texto en chino, mayor capacidad de razonamiento lógico y un mejor desempeño en tareas de generación de texto en comparación con la versión anterior (Tongyi Qianwen 3-235B-A22B-Instruct-2507)."
|
|
3010
3017
|
},
|
|
3011
|
-
"qwen3-next-80b-a3b-thinking": {
|
|
3012
|
-
"description": "Modelo de código abierto de nueva generación basado en Qwen3 en modo reflexivo, que mejora la capacidad de seguir instrucciones y ofrece respuestas más concisas en comparación con la versión anterior (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
|
|
3013
|
-
},
|
|
3018
|
+
"qwen3-next-80b-a3b-thinking": {},
|
|
3014
3019
|
"qwen3-omni-flash": {
|
|
3015
3020
|
"description": "El modelo Qwen-Omni puede recibir entradas combinadas de texto, imágenes, audio y video, y generar respuestas en forma de texto o voz. Ofrece múltiples voces humanizadas, admite salida de voz en varios idiomas y dialectos, y puede aplicarse en escenarios como creación de texto, reconocimiento visual y asistentes de voz."
|
|
3016
3021
|
},
|
|
3017
|
-
"qwen3-vl-235b-a22b-instruct": {
|
|
3018
|
-
|
|
3019
|
-
},
|
|
3020
|
-
"qwen3-vl-
|
|
3021
|
-
|
|
3022
|
-
},
|
|
3023
|
-
"qwen3-vl-30b-a3b-instruct": {
|
|
3024
|
-
"description": "Qwen3 VL 30B en modo sin razonamiento (Instruct), orientado a escenarios comunes de seguimiento de instrucciones, manteniendo una alta capacidad de comprensión y generación multimodal."
|
|
3025
|
-
},
|
|
3026
|
-
"qwen3-vl-30b-a3b-thinking": {
|
|
3027
|
-
"description": "Qwen-VL (versión de código abierto) ofrece capacidades de comprensión visual y generación de texto, compatible con interacción de agentes, codificación visual, percepción espacial, comprensión de videos largos y pensamiento profundo, con un sólido reconocimiento de texto y soporte multilingüe en escenarios complejos."
|
|
3028
|
-
},
|
|
3029
|
-
"qwen3-vl-8b-instruct": {
|
|
3030
|
-
"description": "Qwen3 VL 8B en modo sin razonamiento (Instruct), adecuado para tareas comunes de generación y reconocimiento multimodal."
|
|
3031
|
-
},
|
|
3032
|
-
"qwen3-vl-8b-thinking": {
|
|
3033
|
-
"description": "Qwen3 VL 8B en modo de razonamiento, orientado a escenarios ligeros de razonamiento e interacción multimodal, manteniendo la capacidad de comprensión de contextos largos."
|
|
3034
|
-
},
|
|
3022
|
+
"qwen3-vl-235b-a22b-instruct": {},
|
|
3023
|
+
"qwen3-vl-235b-a22b-thinking": {},
|
|
3024
|
+
"qwen3-vl-30b-a3b-instruct": {},
|
|
3025
|
+
"qwen3-vl-30b-a3b-thinking": {},
|
|
3026
|
+
"qwen3-vl-8b-instruct": {},
|
|
3027
|
+
"qwen3-vl-8b-thinking": {},
|
|
3035
3028
|
"qwen3-vl-flash": {
|
|
3036
3029
|
"description": "Qwen3 VL Flash: versión ligera de inferencia rápida, ideal para escenarios sensibles a la latencia o con solicitudes en gran volumen."
|
|
3037
3030
|
},
|