@lobehub/chat 1.87.5 → 1.87.7
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/models.json +23 -8
- package/locales/ar/plugin.json +15 -0
- package/locales/bg-BG/models.json +23 -8
- package/locales/bg-BG/plugin.json +15 -0
- package/locales/de-DE/models.json +23 -8
- package/locales/de-DE/plugin.json +15 -0
- package/locales/en-US/models.json +23 -8
- package/locales/en-US/plugin.json +15 -0
- package/locales/es-ES/models.json +23 -8
- package/locales/es-ES/plugin.json +15 -0
- package/locales/fa-IR/models.json +23 -8
- package/locales/fa-IR/plugin.json +15 -0
- package/locales/fr-FR/models.json +23 -8
- package/locales/fr-FR/plugin.json +15 -0
- package/locales/it-IT/models.json +23 -8
- package/locales/it-IT/plugin.json +15 -0
- package/locales/ja-JP/models.json +23 -8
- package/locales/ja-JP/plugin.json +15 -0
- package/locales/ko-KR/models.json +23 -8
- package/locales/ko-KR/plugin.json +15 -0
- package/locales/nl-NL/models.json +23 -8
- package/locales/nl-NL/plugin.json +15 -0
- package/locales/pl-PL/models.json +23 -8
- package/locales/pl-PL/plugin.json +15 -0
- package/locales/pt-BR/models.json +23 -8
- package/locales/pt-BR/plugin.json +15 -0
- package/locales/ru-RU/models.json +23 -8
- package/locales/ru-RU/plugin.json +15 -0
- package/locales/tr-TR/models.json +23 -8
- package/locales/tr-TR/plugin.json +15 -0
- package/locales/vi-VN/models.json +23 -8
- package/locales/vi-VN/plugin.json +15 -0
- package/locales/zh-CN/models.json +23 -8
- package/locales/zh-CN/plugin.json +15 -0
- package/locales/zh-TW/models.json +23 -8
- package/locales/zh-TW/plugin.json +15 -0
- package/package.json +2 -2
- package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +1 -1
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/BuiltinPluginTitle.tsx +59 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/ToolTitle.tsx +33 -7
- package/src/locales/default/plugin.ts +15 -0
- package/src/tools/local-system/Render/ListFiles/Result.tsx +1 -1
- package/src/tools/local-system/systemRole.ts +1 -1
- package/src/utils/fetch/fetchSSE.ts +2 -1
@@ -74,6 +74,9 @@
|
|
74
74
|
"Doubao-1.5-thinking-pro-m": {
|
75
75
|
"description": "Doubao-1.5 es un nuevo modelo de pensamiento profundo (la versión m incluye capacidades de razonamiento multimodal nativas), destacándose en campos profesionales como matemáticas, programación, razonamiento científico y tareas generales como la escritura creativa, alcanzando o acercándose a los niveles de élite en múltiples pruebas de referencia como AIME 2024, Codeforces y GPQA. Soporta una ventana de contexto de 128k y una salida de 16k."
|
76
76
|
},
|
77
|
+
"Doubao-1.5-thinking-vision-pro": {
|
78
|
+
"description": "Modelo de pensamiento profundo visual completamente nuevo, que posee una mayor capacidad de comprensión y razonamiento multimodal general, logrando un rendimiento SOTA en 37 de los 59 estándares de evaluación pública."
|
79
|
+
},
|
77
80
|
"Doubao-1.5-vision-pro": {
|
78
81
|
"description": "Doubao-1.5-vision-pro es un modelo multimodal de gran escala actualizado, que soporta el reconocimiento de imágenes de cualquier resolución y proporciones extremas, mejorando la capacidad de razonamiento visual, reconocimiento de documentos, comprensión de información detallada y seguimiento de instrucciones."
|
79
82
|
},
|
@@ -338,6 +341,9 @@
|
|
338
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
339
342
|
"description": "Qwen2.5-Coder-32B-Instruct es un modelo de lenguaje grande diseñado específicamente para la generación de código, comprensión de código y escenarios de desarrollo eficiente, con una escala de 32B parámetros, líder en la industria, capaz de satisfacer diversas necesidades de programación."
|
340
343
|
},
|
344
|
+
"SenseCat-5-1202": {
|
345
|
+
"description": "Es la última versión basada en V5.5, que ha mostrado mejoras significativas en varios aspectos en comparación con la versión anterior, incluyendo habilidades básicas en chino e inglés, conversación, conocimientos de ciencias, conocimientos de humanidades, escritura, lógica matemática y control de palabras."
|
346
|
+
},
|
341
347
|
"SenseChat": {
|
342
348
|
"description": "Modelo de versión básica (V4), longitud de contexto de 4K, con potentes capacidades generales."
|
343
349
|
},
|
@@ -350,12 +356,12 @@
|
|
350
356
|
"SenseChat-5": {
|
351
357
|
"description": "Modelo de última versión (V5.5), longitud de contexto de 128K, con capacidades significativamente mejoradas en razonamiento matemático, diálogos en inglés, seguimiento de instrucciones y comprensión de textos largos, comparable a GPT-4o."
|
352
358
|
},
|
353
|
-
"SenseChat-5-1202": {
|
354
|
-
"description": "Es la última versión basada en V5.5, que muestra mejoras significativas en varios aspectos como la capacidad básica en chino e inglés, conversación, conocimientos de ciencias, conocimientos de humanidades, escritura, lógica matemática y control de palabras en comparación con la versión anterior."
|
355
|
-
},
|
356
359
|
"SenseChat-5-Cantonese": {
|
357
360
|
"description": "Longitud de contexto de 32K, supera a GPT-4 en la comprensión de diálogos en cantonés, siendo comparable a GPT-4 Turbo en múltiples áreas como conocimiento, razonamiento, matemáticas y programación."
|
358
361
|
},
|
362
|
+
"SenseChat-5-beta": {
|
363
|
+
"description": "Rendimiento superior en algunos aspectos en comparación con SenseCat-5-1202"
|
364
|
+
},
|
359
365
|
"SenseChat-Character": {
|
360
366
|
"description": "Modelo estándar, longitud de contexto de 8K, alta velocidad de respuesta."
|
361
367
|
},
|
@@ -1010,8 +1016,8 @@
|
|
1010
1016
|
"gemini-2.0-flash-lite-001": {
|
1011
1017
|
"description": "Variante del modelo Gemini 2.0 Flash, optimizada para objetivos como la rentabilidad y la baja latencia."
|
1012
1018
|
},
|
1013
|
-
"gemini-2.0-flash-
|
1014
|
-
"description": "Gemini 2.0 Flash
|
1019
|
+
"gemini-2.0-flash-preview-image-generation": {
|
1020
|
+
"description": "Modelo de vista previa Gemini 2.0 Flash, que admite la generación de imágenes"
|
1015
1021
|
},
|
1016
1022
|
"gemini-2.5-flash-preview-04-17": {
|
1017
1023
|
"description": "Gemini 2.5 Flash Preview es el modelo más rentable de Google, que ofrece una funcionalidad completa."
|
@@ -1349,15 +1355,18 @@
|
|
1349
1355
|
"internlm/internlm2_5-7b-chat": {
|
1350
1356
|
"description": "InternLM2.5 ofrece soluciones de diálogo inteligente en múltiples escenarios."
|
1351
1357
|
},
|
1352
|
-
"internlm2-pro-chat": {
|
1353
|
-
"description": "Modelo de versión anterior que seguimos manteniendo, disponible en opciones de 7B y 20B parámetros."
|
1354
|
-
},
|
1355
1358
|
"internlm2.5-latest": {
|
1356
1359
|
"description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, que admite una longitud de contexto de 1M y una mayor capacidad de seguimiento de instrucciones y llamadas a herramientas."
|
1357
1360
|
},
|
1358
1361
|
"internlm3-latest": {
|
1359
1362
|
"description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, lidera el mercado de modelos de código abierto de tamaño similar. Apunta por defecto a nuestra serie de modelos InternLM3 más reciente."
|
1360
1363
|
},
|
1364
|
+
"internvl2.5-latest": {
|
1365
|
+
"description": "La versión InternVL2.5 que seguimos manteniendo, que ofrece un rendimiento excelente y estable. Por defecto, apunta a nuestra serie de modelos InternVL2.5 más reciente, actualmente apuntando a internvl2.5-78b."
|
1366
|
+
},
|
1367
|
+
"internvl3-latest": {
|
1368
|
+
"description": "Nuestro modelo multimodal más reciente, que posee una mayor capacidad de comprensión de texto e imagen, así como una comprensión de imágenes a largo plazo, con un rendimiento comparable a los mejores modelos cerrados. Por defecto, apunta a nuestra serie de modelos InternVL más reciente, actualmente apuntando a internvl3-78b."
|
1369
|
+
},
|
1361
1370
|
"jamba-large": {
|
1362
1371
|
"description": "Nuestro modelo más potente y avanzado, diseñado para manejar tareas complejas a nivel empresarial, con un rendimiento excepcional."
|
1363
1372
|
},
|
@@ -1373,6 +1382,9 @@
|
|
1373
1382
|
"learnlm-1.5-pro-experimental": {
|
1374
1383
|
"description": "LearnLM es un modelo de lenguaje experimental y específico para tareas, entrenado para cumplir con los principios de la ciencia del aprendizaje, capaz de seguir instrucciones sistemáticas en escenarios de enseñanza y aprendizaje, actuando como un tutor experto, entre otros."
|
1375
1384
|
},
|
1385
|
+
"learnlm-2.0-flash-experimental": {
|
1386
|
+
"description": "LearnLM es un modelo de lenguaje experimental y específico para tareas, entrenado para cumplir con los principios de la ciencia del aprendizaje, capaz de seguir instrucciones sistemáticas en escenarios de enseñanza y aprendizaje, actuando como un tutor experto, entre otros."
|
1387
|
+
},
|
1376
1388
|
"lite": {
|
1377
1389
|
"description": "Spark Lite es un modelo de lenguaje grande y ligero, con una latencia extremadamente baja y una capacidad de procesamiento eficiente, completamente gratuito y de código abierto, que admite funciones de búsqueda en línea en tiempo real. Su característica de respuesta rápida lo hace destacar en aplicaciones de inferencia y ajuste de modelos en dispositivos de baja potencia, brindando a los usuarios una excelente relación costo-beneficio y experiencia inteligente, especialmente en escenarios de preguntas y respuestas, generación de contenido y búsqueda."
|
1378
1390
|
},
|
@@ -2162,6 +2174,9 @@
|
|
2162
2174
|
"wizardlm2:8x22b": {
|
2163
2175
|
"description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingües, razonamiento y asistentes inteligentes."
|
2164
2176
|
},
|
2177
|
+
"x1": {
|
2178
|
+
"description": "El modelo Spark X1 se actualizará aún más, logrando resultados en tareas generales como razonamiento, generación de texto y comprensión del lenguaje que se comparan con OpenAI o1 y DeepSeek R1, además de liderar en tareas matemáticas en el país."
|
2179
|
+
},
|
2165
2180
|
"yi-1.5-34b-chat": {
|
2166
2181
|
"description": "Yi-1.5 es una versión mejorada de Yi. Utiliza un corpus de alta calidad de 500B tokens para continuar el preentrenamiento de Yi y se微调 en 3M muestras de ajuste fino diversificadas."
|
2167
2182
|
},
|
@@ -219,8 +219,23 @@
|
|
219
219
|
"content": "Cargando complemento...",
|
220
220
|
"plugin": "Ejecutando complemento..."
|
221
221
|
},
|
222
|
+
"localSystem": {
|
223
|
+
"apiName": {
|
224
|
+
"listLocalFiles": "Ver lista de archivos",
|
225
|
+
"moveLocalFiles": "Mover archivos",
|
226
|
+
"readLocalFile": "Leer contenido del archivo",
|
227
|
+
"renameLocalFile": "Renombrar",
|
228
|
+
"searchLocalFiles": "Buscar archivos",
|
229
|
+
"writeLocalFile": "Escribir en archivo"
|
230
|
+
},
|
231
|
+
"title": "Archivos locales"
|
232
|
+
},
|
222
233
|
"pluginList": "Lista de complementos",
|
223
234
|
"search": {
|
235
|
+
"apiName": {
|
236
|
+
"crawlSinglePage": "Leer contenido de la página",
|
237
|
+
"search": "Buscar página"
|
238
|
+
},
|
224
239
|
"config": {
|
225
240
|
"addKey": "Agregar clave",
|
226
241
|
"close": "Eliminar",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"Doubao-1.5-thinking-pro-m": {
|
75
75
|
"description": "Doubao-1.5 مدل جدید تفکر عمیق (نسخه m دارای قابلیت استدلال عمیق چندرسانهای بومی است) است که در زمینههای تخصصی مانند ریاضیات، برنامهنویسی، استدلال علمی و همچنین وظایف عمومی مانند نوشتن خلاقانه عملکرد برجستهای دارد و در چندین معیار معتبر مانند AIME 2024، Codeforces، GPQA به سطح اول صنعت دست یافته یا نزدیک شده است. این مدل از پنجره زمینه 128k و خروجی 16k پشتیبانی میکند."
|
76
76
|
},
|
77
|
+
"Doubao-1.5-thinking-vision-pro": {
|
78
|
+
"description": "مدل جدید تفکر عمیق بصری که دارای تواناییهای قویتر در درک و استدلال چندرسانهای عمومی است و در 37 مورد از 59 معیار ارزیابی عمومی عملکرد SOTA را به دست آورده است."
|
79
|
+
},
|
77
80
|
"Doubao-1.5-vision-pro": {
|
78
81
|
"description": "Doubao-1.5-vision-pro مدل بزرگ چندرسانهای بهروز شده است که از شناسایی تصاویر با هر وضوح و نسبت ابعاد بسیار طولانی پشتیبانی میکند و تواناییهای استدلال بصری، شناسایی مستندات، درک اطلاعات جزئی و پیروی از دستورات را تقویت میکند."
|
79
82
|
},
|
@@ -338,6 +341,9 @@
|
|
338
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
339
342
|
"description": "Qwen2.5-Coder-32B-Instruct یک مدل زبان بزرگ است که به طور خاص برای تولید کد، درک کد و سناریوهای توسعه کارآمد طراحی شده است و از مقیاس 32B پارامتر پیشرفته در صنعت بهره میبرد و میتواند نیازهای متنوع برنامهنویسی را برآورده کند."
|
340
343
|
},
|
344
|
+
"SenseCat-5-1202": {
|
345
|
+
"description": "نسخه جدیدترین بر اساس V5.5 است که در مقایسه با نسخه قبلی در تواناییهای پایه چینی و انگلیسی، چت، دانش علوم، دانش انسانی، نوشتن، منطق ریاضی و کنترل تعداد کلمات به طور قابل توجهی بهبود یافته است."
|
346
|
+
},
|
341
347
|
"SenseChat": {
|
342
348
|
"description": "نسخه پایه مدل (V4)، طول متن ۴K، با تواناییهای عمومی قوی"
|
343
349
|
},
|
@@ -350,12 +356,12 @@
|
|
350
356
|
"SenseChat-5": {
|
351
357
|
"description": "جدیدترین نسخه مدل (V5.5)، با طول زمینه 128K، بهبود قابل توجه در زمینههای استدلال ریاضی، مکالمه انگلیسی، پیروی از دستورات و درک متون طولانی، قابل مقایسه با GPT-4o"
|
352
358
|
},
|
353
|
-
"SenseChat-5-1202": {
|
354
|
-
"description": "نسخه جدید مبتنی بر V5.5 است که در مقایسه با نسخه قبلی در تواناییهای پایه چینی و انگلیسی، چت، دانش علوم، دانش انسانی، نوشتن، منطق ریاضی و کنترل تعداد کلمات بهبود قابل توجهی داشته است."
|
355
|
-
},
|
356
359
|
"SenseChat-5-Cantonese": {
|
357
360
|
"description": "طول متن 32K، در درک مکالمات به زبان کانتونی از GPT-4 پیشی میگیرد و در زمینههای مختلفی مانند دانش، استدلال، ریاضیات و برنامهنویسی با GPT-4 Turbo قابل مقایسه است."
|
358
361
|
},
|
362
|
+
"SenseChat-5-beta": {
|
363
|
+
"description": "برخی از عملکردها بهتر از SenseCat-5-1202 است"
|
364
|
+
},
|
359
365
|
"SenseChat-Character": {
|
360
366
|
"description": "نسخه استاندارد مدل، طول متن ۸۰۰۰ کاراکتر، سرعت پاسخدهی بالا"
|
361
367
|
},
|
@@ -1010,8 +1016,8 @@
|
|
1010
1016
|
"gemini-2.0-flash-lite-001": {
|
1011
1017
|
"description": "مدل متغیر Gemini 2.0 Flash برای بهینهسازی هزینه و تأخیر کم طراحی شده است."
|
1012
1018
|
},
|
1013
|
-
"gemini-2.0-flash-
|
1014
|
-
"description": "Gemini 2.0 Flash
|
1019
|
+
"gemini-2.0-flash-preview-image-generation": {
|
1020
|
+
"description": "مدل پیشنمایش Gemini 2.0 Flash، از تولید تصویر پشتیبانی میکند"
|
1015
1021
|
},
|
1016
1022
|
"gemini-2.5-flash-preview-04-17": {
|
1017
1023
|
"description": "پیشنمایش فلش Gemini 2.5 مدل با بهترین قیمت و کیفیت گوگل است که امکانات جامع و کاملی را ارائه میدهد."
|
@@ -1349,15 +1355,18 @@
|
|
1349
1355
|
"internlm/internlm2_5-7b-chat": {
|
1350
1356
|
"description": "InternLM2.5 راهحلهای گفتگوی هوشمند در چندین سناریو ارائه میدهد."
|
1351
1357
|
},
|
1352
|
-
"internlm2-pro-chat": {
|
1353
|
-
"description": "مدل قدیمی که هنوز در حال نگهداری است و گزینههای مختلفی از پارامترهای ۷B و ۲۰B را ارائه میدهد."
|
1354
|
-
},
|
1355
1358
|
"internlm2.5-latest": {
|
1356
1359
|
"description": "جدیدترین سری مدلهای ما با عملکرد استدلال عالی، از طول متن ۱M پشتیبانی میکند و تواناییهای قویتری در پیروی از دستورات و فراخوانی ابزارها دارد."
|
1357
1360
|
},
|
1358
1361
|
"internlm3-latest": {
|
1359
1362
|
"description": "سری جدیدترین مدلهای ما با عملکرد استدلال برجسته، پیشتاز مدلهای متنباز در همان سطح هستند. به طور پیشفرض به جدیدترین مدلهای سری InternLM3 ما اشاره دارد."
|
1360
1363
|
},
|
1364
|
+
"internvl2.5-latest": {
|
1365
|
+
"description": "ما هنوز در حال نگهداری نسخه InternVL2.5 هستیم که دارای عملکرد عالی و پایدار است. به طور پیشفرض به جدیدترین مدلهای سری InternVL2.5 ما اشاره دارد که در حال حاضر به internvl2.5-78b اشاره دارد."
|
1366
|
+
},
|
1367
|
+
"internvl3-latest": {
|
1368
|
+
"description": "ما جدیدترین مدل بزرگ چندرسانهای خود را منتشر کردهایم که دارای تواناییهای قویتر در درک متن و تصویر و درک تصاویر در زمانهای طولانی است و عملکرد آن با مدلهای برتر بسته به منبع قابل مقایسه است. به طور پیشفرض به جدیدترین مدلهای سری InternVL ما اشاره دارد که در حال حاضر به internvl3-78b اشاره دارد."
|
1369
|
+
},
|
1361
1370
|
"jamba-large": {
|
1362
1371
|
"description": "قدرتمندترین و پیشرفتهترین مدل ما، که بهطور خاص برای پردازش وظایف پیچیده در سطح سازمانی طراحی شده و دارای عملکرد فوقالعادهای است."
|
1363
1372
|
},
|
@@ -1373,6 +1382,9 @@
|
|
1373
1382
|
"learnlm-1.5-pro-experimental": {
|
1374
1383
|
"description": "LearnLM یک مدل زبانی تجربی و خاص برای وظایف است که برای مطابقت با اصول علم یادگیری آموزش دیده است و میتواند در سناریوهای آموزشی و یادگیری از دستورات سیستم پیروی کند و به عنوان مربی متخصص عمل کند."
|
1375
1384
|
},
|
1385
|
+
"learnlm-2.0-flash-experimental": {
|
1386
|
+
"description": "LearnLM یک مدل زبانی تجربی و خاص برای وظایف است که برای تطابق با اصول علم یادگیری آموزش دیده است و میتواند در سناریوهای آموزشی و یادگیری دستورات سیستم را دنبال کند و به عنوان یک مربی متخصص عمل کند."
|
1387
|
+
},
|
1376
1388
|
"lite": {
|
1377
1389
|
"description": "Spark Lite یک مدل زبان بزرگ سبک است که دارای تأخیر بسیار کم و توانایی پردازش کارآمد میباشد. بهطور کامل رایگان و باز است و از قابلیت جستجوی آنلاین در زمان واقعی پشتیبانی میکند. ویژگی پاسخدهی سریع آن باعث میشود که در کاربردهای استنتاجی و تنظیم مدل در دستگاههای با توان محاسباتی پایین عملکرد برجستهای داشته باشد و تجربهای هوشمند و مقرونبهصرفه برای کاربران فراهم کند. بهویژه در زمینههای پرسش و پاسخ دانش، تولید محتوا و جستجو عملکرد خوبی دارد."
|
1378
1390
|
},
|
@@ -2162,6 +2174,9 @@
|
|
2162
2174
|
"wizardlm2:8x22b": {
|
2163
2175
|
"description": "WizardLM 2 یک مدل زبانی ارائه شده توسط مایکروسافت AI است که در زمینههای مکالمات پیچیده، چندزبانه، استدلال و دستیارهای هوشمند عملکرد برجستهای دارد."
|
2164
2176
|
},
|
2177
|
+
"x1": {
|
2178
|
+
"description": "مدل Spark X1 بهزودی ارتقا خواهد یافت و در زمینه وظایف ریاضی که در کشور پیشرو است، عملکردهای استدلال، تولید متن و درک زبان را با OpenAI o1 و DeepSeek R1 مقایسه خواهد کرد."
|
2179
|
+
},
|
2165
2180
|
"yi-1.5-34b-chat": {
|
2166
2181
|
"description": "Yi-1.5 نسخهی بهروزرسانی شدهی Yi است. این مدل با استفاده از یک مجموعه داده با کیفیت بالا شامل 500 میلیارد توکن برای پیشآموزی و 3 میلیون نمونه متنوع برای آموزش ریزی مجدداً آموزش داده شده است."
|
2167
2182
|
},
|
@@ -219,8 +219,23 @@
|
|
219
219
|
"content": "در حال فراخوانی افزونه...",
|
220
220
|
"plugin": "افزونه در حال اجرا..."
|
221
221
|
},
|
222
|
+
"localSystem": {
|
223
|
+
"apiName": {
|
224
|
+
"listLocalFiles": "نمایش لیست فایلها",
|
225
|
+
"moveLocalFiles": "انتقال فایلها",
|
226
|
+
"readLocalFile": "خواندن محتوای فایل",
|
227
|
+
"renameLocalFile": "تغییر نام",
|
228
|
+
"searchLocalFiles": "جستجوی فایلها",
|
229
|
+
"writeLocalFile": "نوشتن در فایل"
|
230
|
+
},
|
231
|
+
"title": "فایلهای محلی"
|
232
|
+
},
|
222
233
|
"pluginList": "فهرست افزونهها",
|
223
234
|
"search": {
|
235
|
+
"apiName": {
|
236
|
+
"crawlSinglePage": "خواندن محتوای صفحه",
|
237
|
+
"search": "جستجو در صفحه"
|
238
|
+
},
|
224
239
|
"config": {
|
225
240
|
"addKey": "کلید را اضافه کنید",
|
226
241
|
"close": "حذف",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"Doubao-1.5-thinking-pro-m": {
|
75
75
|
"description": "Doubao-1.5 est un nouveau modèle de pensée profonde (version m avec des capacités de raisonnement multimodal natif), qui excelle dans des domaines spécialisés tels que les mathématiques, la programmation, le raisonnement scientifique et des tâches générales comme l'écriture créative, atteignant ou se rapprochant des niveaux de pointe dans plusieurs benchmarks autorisés tels que AIME 2024, Codeforces, GPQA. Prend en charge une fenêtre de contexte de 128k et une sortie de 16k."
|
76
76
|
},
|
77
|
+
"Doubao-1.5-thinking-vision-pro": {
|
78
|
+
"description": "Nouveau modèle de pensée visuelle profonde, doté de capacités de compréhension et de raisonnement multimodal général plus puissantes, ayant obtenu des performances SOTA dans 37 des 59 benchmarks d'évaluation publics."
|
79
|
+
},
|
77
80
|
"Doubao-1.5-vision-pro": {
|
78
81
|
"description": "Doubao-1.5-vision-pro est un modèle multimodal de nouvelle génération, prenant en charge la reconnaissance d'images à n'importe quelle résolution et rapport d'aspect extrême, améliorant les capacités de raisonnement visuel, de reconnaissance de documents, de compréhension des informations détaillées et de respect des instructions."
|
79
82
|
},
|
@@ -338,6 +341,9 @@
|
|
338
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
339
342
|
"description": "Qwen2.5-Coder-32B-Instruct est un grand modèle de langage conçu pour la génération de code, la compréhension de code et les scénarios de développement efficaces, avec une échelle de 32 milliards de paramètres, répondant à des besoins de programmation variés."
|
340
343
|
},
|
344
|
+
"SenseCat-5-1202": {
|
345
|
+
"description": "Basé sur la version V5.5, cette version présente des améliorations significatives par rapport à la précédente dans plusieurs dimensions, notamment les compétences de base en chinois et en anglais, la conversation, les connaissances en sciences, les connaissances en lettres, l'écriture, la logique mathématique et le contrôle du nombre de mots."
|
346
|
+
},
|
341
347
|
"SenseChat": {
|
342
348
|
"description": "Modèle de version de base (V4), longueur de contexte de 4K, avec de puissantes capacités générales."
|
343
349
|
},
|
@@ -350,12 +356,12 @@
|
|
350
356
|
"SenseChat-5": {
|
351
357
|
"description": "Modèle de dernière version (V5.5), longueur de contexte de 128K, avec des capacités significativement améliorées dans le raisonnement mathématique, les dialogues en anglais, le suivi d'instructions et la compréhension de longs textes, rivalisant avec GPT-4o."
|
352
358
|
},
|
353
|
-
"SenseChat-5-1202": {
|
354
|
-
"description": "C'est la dernière version basée sur V5.5, qui présente des améliorations significatives par rapport à la version précédente dans plusieurs dimensions telles que les capacités de base en chinois et en anglais, la conversation, les connaissances en sciences, les connaissances en lettres, l'écriture, la logique mathématique et le contrôle du nombre de mots."
|
355
|
-
},
|
356
359
|
"SenseChat-5-Cantonese": {
|
357
360
|
"description": "Longueur de contexte de 32K, surpassant GPT-4 dans la compréhension des dialogues en cantonais, rivalisant avec GPT-4 Turbo dans plusieurs domaines tels que les connaissances, le raisonnement, les mathématiques et la rédaction de code."
|
358
361
|
},
|
362
|
+
"SenseChat-5-beta": {
|
363
|
+
"description": "Certaines performances surpassent celles de SenseCat-5-1202"
|
364
|
+
},
|
359
365
|
"SenseChat-Character": {
|
360
366
|
"description": "Modèle standard, longueur de contexte de 8K, avec une grande rapidité de réponse."
|
361
367
|
},
|
@@ -1010,8 +1016,8 @@
|
|
1010
1016
|
"gemini-2.0-flash-lite-001": {
|
1011
1017
|
"description": "Une variante du modèle Gemini 2.0 Flash, optimisée pour des objectifs tels que le rapport coût-efficacité et la faible latence."
|
1012
1018
|
},
|
1013
|
-
"gemini-2.0-flash-
|
1014
|
-
"description": "Gemini 2.0 Flash
|
1019
|
+
"gemini-2.0-flash-preview-image-generation": {
|
1020
|
+
"description": "Modèle de prévisualisation Gemini 2.0 Flash, prenant en charge la génération d'images"
|
1015
1021
|
},
|
1016
1022
|
"gemini-2.5-flash-preview-04-17": {
|
1017
1023
|
"description": "Gemini 2.5 Flash Preview est le modèle le plus rentable de Google, offrant des fonctionnalités complètes."
|
@@ -1349,15 +1355,18 @@
|
|
1349
1355
|
"internlm/internlm2_5-7b-chat": {
|
1350
1356
|
"description": "InternLM2.5 fournit des solutions de dialogue intelligent dans divers scénarios."
|
1351
1357
|
},
|
1352
|
-
"internlm2-pro-chat": {
|
1353
|
-
"description": "Une ancienne version du modèle que nous maintenons encore, avec des options de paramètres de 7B et 20B disponibles."
|
1354
|
-
},
|
1355
1358
|
"internlm2.5-latest": {
|
1356
1359
|
"description": "Notre dernière série de modèles, offrant des performances d'inférence exceptionnelles, prenant en charge une longueur de contexte de 1M et des capacités améliorées de suivi des instructions et d'appel d'outils."
|
1357
1360
|
},
|
1358
1361
|
"internlm3-latest": {
|
1359
1362
|
"description": "Notre dernière série de modèles, avec des performances d'inférence exceptionnelles, en tête des modèles open source de même niveau. Par défaut, elle pointe vers notre dernière version du modèle InternLM3."
|
1360
1363
|
},
|
1364
|
+
"internvl2.5-latest": {
|
1365
|
+
"description": "Version InternVL2.5 que nous maintenons encore, offrant des performances excellentes et stables. Il pointe par défaut vers notre dernier modèle de la série InternVL2.5, actuellement vers internvl2.5-78b."
|
1366
|
+
},
|
1367
|
+
"internvl3-latest": {
|
1368
|
+
"description": "Nous avons récemment publié un grand modèle multimodal, doté de capacités de compréhension d'images et de textes plus puissantes, ainsi que d'une compréhension d'images sur de longues séquences, dont les performances rivalisent avec celles des meilleurs modèles fermés. Il pointe par défaut vers notre dernier modèle de la série InternVL, actuellement vers internvl3-78b."
|
1369
|
+
},
|
1361
1370
|
"jamba-large": {
|
1362
1371
|
"description": "Notre modèle le plus puissant et avancé, conçu pour traiter des tâches complexes de niveau entreprise, offrant des performances exceptionnelles."
|
1363
1372
|
},
|
@@ -1373,6 +1382,9 @@
|
|
1373
1382
|
"learnlm-1.5-pro-experimental": {
|
1374
1383
|
"description": "LearnLM est un modèle de langage expérimental, spécifique à des tâches, formé pour respecter les principes des sciences de l'apprentissage, capable de suivre des instructions systématiques dans des contextes d'enseignement et d'apprentissage, agissant comme un mentor expert, entre autres."
|
1375
1384
|
},
|
1385
|
+
"learnlm-2.0-flash-experimental": {
|
1386
|
+
"description": "LearnLM est un modèle de langage expérimental, spécifique à des tâches, formé pour respecter les principes des sciences de l'apprentissage, capable de suivre des instructions systématiques dans des contextes d'enseignement et d'apprentissage, agissant comme un mentor expert, entre autres."
|
1387
|
+
},
|
1376
1388
|
"lite": {
|
1377
1389
|
"description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, prenant en charge la recherche en temps réel. Sa capacité de réponse rapide le rend exceptionnel pour les applications d'inférence sur des appareils à faible puissance de calcul et pour le réglage des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
|
1378
1390
|
},
|
@@ -2162,6 +2174,9 @@
|
|
2162
2174
|
"wizardlm2:8x22b": {
|
2163
2175
|
"description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
|
2164
2176
|
},
|
2177
|
+
"x1": {
|
2178
|
+
"description": "Le modèle Spark X1 sera mis à niveau, et sur la base de ses performances déjà leaders dans les tâches mathématiques, il atteindra des résultats comparables dans des tâches générales telles que le raisonnement, la génération de texte et la compréhension du langage, en se mesurant à OpenAI o1 et DeepSeek R1."
|
2179
|
+
},
|
2165
2180
|
"yi-1.5-34b-chat": {
|
2166
2181
|
"description": "Yi-1.5 est une version améliorée de Yi. Il utilise un corpus de haute qualité de 500 milliards de tokens pour poursuivre l'entraînement préalable de Yi, et est affiné sur 3 millions d'exemples de fine-tuning variés."
|
2167
2182
|
},
|
@@ -219,8 +219,23 @@
|
|
219
219
|
"content": "Appel du plugin en cours...",
|
220
220
|
"plugin": "Exécution du plugin en cours..."
|
221
221
|
},
|
222
|
+
"localSystem": {
|
223
|
+
"apiName": {
|
224
|
+
"listLocalFiles": "Afficher la liste des fichiers",
|
225
|
+
"moveLocalFiles": "Déplacer les fichiers",
|
226
|
+
"readLocalFile": "Lire le contenu du fichier",
|
227
|
+
"renameLocalFile": "Renommer",
|
228
|
+
"searchLocalFiles": "Rechercher des fichiers",
|
229
|
+
"writeLocalFile": "Écrire dans le fichier"
|
230
|
+
},
|
231
|
+
"title": "Fichiers locaux"
|
232
|
+
},
|
222
233
|
"pluginList": "Liste des plugins",
|
223
234
|
"search": {
|
235
|
+
"apiName": {
|
236
|
+
"crawlSinglePage": "Lire le contenu de la page",
|
237
|
+
"search": "Rechercher la page"
|
238
|
+
},
|
224
239
|
"config": {
|
225
240
|
"addKey": "Ajouter une clé",
|
226
241
|
"close": "Supprimer",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"Doubao-1.5-thinking-pro-m": {
|
75
75
|
"description": "Doubao-1.5 è un nuovo modello di pensiero profondo (versione m con capacità di ragionamento multimodale native), che si distingue in matematica, programmazione, ragionamento scientifico e compiti generali come la scrittura creativa, raggiungendo o avvicinandosi ai livelli di punta del settore in vari benchmark autorevoli come AIME 2024, Codeforces, GPQA. Supporta una finestra di contesto di 128k e un output di 16k."
|
76
76
|
},
|
77
|
+
"Doubao-1.5-thinking-vision-pro": {
|
78
|
+
"description": "Nuovo modello di pensiero visivo profondo, con una maggiore capacità di comprensione e ragionamento multimodale generale, ottenendo prestazioni SOTA in 37 dei 59 benchmark pubblici."
|
79
|
+
},
|
77
80
|
"Doubao-1.5-vision-pro": {
|
78
81
|
"description": "Doubao-1.5-vision-pro è un grande modello multimodale aggiornato, che supporta il riconoscimento di immagini a qualsiasi risoluzione e proporzioni estremamente lunghe, migliorando le capacità di ragionamento visivo, riconoscimento di documenti, comprensione delle informazioni dettagliate e rispetto delle istruzioni."
|
79
82
|
},
|
@@ -338,6 +341,9 @@
|
|
338
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
339
342
|
"description": "Qwen2.5-Coder-32B-Instruct è un grande modello linguistico progettato per la generazione di codice, la comprensione del codice e scenari di sviluppo efficienti, con una scala di 32 miliardi di parametri all'avanguardia nel settore, in grado di soddisfare esigenze di programmazione diversificate."
|
340
343
|
},
|
344
|
+
"SenseCat-5-1202": {
|
345
|
+
"description": "È l'ultima versione basata su V5.5, con miglioramenti significativi rispetto alla versione precedente in vari ambiti come le capacità di base in cinese e inglese, chat, conoscenze scientifiche, conoscenze umanistiche, scrittura, logica matematica e controllo del numero di parole."
|
346
|
+
},
|
341
347
|
"SenseChat": {
|
342
348
|
"description": "Modello di base (V4), lunghezza del contesto di 4K, con potenti capacità generali."
|
343
349
|
},
|
@@ -350,12 +356,12 @@
|
|
350
356
|
"SenseChat-5": {
|
351
357
|
"description": "Modello dell'ultima versione (V5.5), lunghezza del contesto di 128K, con capacità significativamente migliorate in ragionamento matematico, conversazioni in inglese, seguire istruzioni e comprensione di testi lunghi, paragonabile a GPT-4o."
|
352
358
|
},
|
353
|
-
"SenseChat-5-1202": {
|
354
|
-
"description": "È l'ultima versione basata su V5.5, con miglioramenti significativi rispetto alla versione precedente nelle capacità di base in cinese e inglese, chat, conoscenze scientifiche, conoscenze umanistiche, scrittura, logica matematica e controllo del numero di parole."
|
355
|
-
},
|
356
359
|
"SenseChat-5-Cantonese": {
|
357
360
|
"description": "Lunghezza del contesto di 32K, supera GPT-4 nella comprensione delle conversazioni in cantonese, paragonabile a GPT-4 Turbo in vari ambiti come conoscenza, ragionamento, matematica e scrittura di codice."
|
358
361
|
},
|
362
|
+
"SenseChat-5-beta": {
|
363
|
+
"description": "Alcune prestazioni superiori a SenseCat-5-1202"
|
364
|
+
},
|
359
365
|
"SenseChat-Character": {
|
360
366
|
"description": "Modello standard, lunghezza del contesto di 8K, alta velocità di risposta."
|
361
367
|
},
|
@@ -1010,8 +1016,8 @@
|
|
1010
1016
|
"gemini-2.0-flash-lite-001": {
|
1011
1017
|
"description": "Gemini 2.0 Flash è una variante del modello Flash, ottimizzata per obiettivi come il rapporto costo-efficacia e la bassa latenza."
|
1012
1018
|
},
|
1013
|
-
"gemini-2.0-flash-
|
1014
|
-
"description": "Gemini 2.0 Flash
|
1019
|
+
"gemini-2.0-flash-preview-image-generation": {
|
1020
|
+
"description": "Gemini 2.0 Flash modello di anteprima, supporta la generazione di immagini"
|
1015
1021
|
},
|
1016
1022
|
"gemini-2.5-flash-preview-04-17": {
|
1017
1023
|
"description": "Gemini 2.5 Flash Preview è il modello più conveniente di Google, che offre funzionalità complete."
|
@@ -1349,15 +1355,18 @@
|
|
1349
1355
|
"internlm/internlm2_5-7b-chat": {
|
1350
1356
|
"description": "InternLM2.5 offre soluzioni di dialogo intelligente in vari scenari."
|
1351
1357
|
},
|
1352
|
-
"internlm2-pro-chat": {
|
1353
|
-
"description": "Un modello della vecchia versione che stiamo ancora mantenendo, disponibile in diverse dimensioni di parametri: 7B e 20B."
|
1354
|
-
},
|
1355
1358
|
"internlm2.5-latest": {
|
1356
1359
|
"description": "La nostra ultima serie di modelli, con prestazioni di ragionamento eccezionali, supporta una lunghezza di contesto di 1M e offre una migliore capacità di seguire istruzioni e chiamare strumenti."
|
1357
1360
|
},
|
1358
1361
|
"internlm3-latest": {
|
1359
1362
|
"description": "La nostra ultima serie di modelli, con prestazioni di inferenza eccezionali, è leader tra i modelli open source della stessa classe. Punta di default ai modelli della serie InternLM3 appena rilasciati."
|
1360
1363
|
},
|
1364
|
+
"internvl2.5-latest": {
|
1365
|
+
"description": "La versione InternVL2.5 che stiamo ancora mantenendo, offre prestazioni eccellenti e stabili. Punta di default al nostro ultimo modello della serie InternVL2.5, attualmente indirizzato a internvl2.5-78b."
|
1366
|
+
},
|
1367
|
+
"internvl3-latest": {
|
1368
|
+
"description": "Il nostro ultimo modello multimodale, con una maggiore capacità di comprensione delle immagini e del testo, e una comprensione delle immagini a lungo termine, offre prestazioni paragonabili ai migliori modelli closed-source. Punta di default al nostro ultimo modello della serie InternVL, attualmente indirizzato a internvl3-78b."
|
1369
|
+
},
|
1361
1370
|
"jamba-large": {
|
1362
1371
|
"description": "Il nostro modello più potente e avanzato, progettato per gestire compiti complessi a livello aziendale, con prestazioni eccezionali."
|
1363
1372
|
},
|
@@ -1373,6 +1382,9 @@
|
|
1373
1382
|
"learnlm-1.5-pro-experimental": {
|
1374
1383
|
"description": "LearnLM è un modello linguistico sperimentale, specifico per compiti, addestrato per rispettare i principi della scienza dell'apprendimento, in grado di seguire istruzioni sistematiche in contesti di insegnamento e apprendimento, fungendo da tutor esperto."
|
1375
1384
|
},
|
1385
|
+
"learnlm-2.0-flash-experimental": {
|
1386
|
+
"description": "LearnLM è un modello linguistico sperimentale, specifico per compiti, addestrato per rispettare i principi della scienza dell'apprendimento, in grado di seguire istruzioni sistematiche in contesti di insegnamento e apprendimento, fungendo da tutor esperto."
|
1387
|
+
},
|
1376
1388
|
"lite": {
|
1377
1389
|
"description": "Spark Lite è un modello di linguaggio di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supporta funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning dei modelli, offrendo agli utenti un'ottima efficienza dei costi e un'esperienza intelligente, soprattutto nei contesti di domande e risposte, generazione di contenuti e ricerca."
|
1378
1390
|
},
|
@@ -2162,6 +2174,9 @@
|
|
2162
2174
|
"wizardlm2:8x22b": {
|
2163
2175
|
"description": "WizardLM 2 è un modello di linguaggio fornito da Microsoft AI, particolarmente efficace in dialoghi complessi, multilingue, ragionamento e assistenti intelligenti."
|
2164
2176
|
},
|
2177
|
+
"x1": {
|
2178
|
+
"description": "Il modello Spark X1 sarà ulteriormente aggiornato, raggiungendo risultati in compiti generali come ragionamento, generazione di testo e comprensione del linguaggio, in linea con OpenAI o1 e DeepSeek R1, partendo da una posizione di leadership nei compiti matematici."
|
2179
|
+
},
|
2165
2180
|
"yi-1.5-34b-chat": {
|
2166
2181
|
"description": "Yi-1.5 è una versione aggiornata di Yi. Utilizza un corpus di alta qualità di 500B token per il pre-addestramento continuo di Yi e viene finetunato su 3M campioni di micro-tuning diversificati."
|
2167
2182
|
},
|
@@ -219,8 +219,23 @@
|
|
219
219
|
"content": "Caricamento del plugin in corso...",
|
220
220
|
"plugin": "Esecuzione del plugin in corso..."
|
221
221
|
},
|
222
|
+
"localSystem": {
|
223
|
+
"apiName": {
|
224
|
+
"listLocalFiles": "Visualizza elenco file",
|
225
|
+
"moveLocalFiles": "Sposta file",
|
226
|
+
"readLocalFile": "Leggi contenuto file",
|
227
|
+
"renameLocalFile": "Rinomina",
|
228
|
+
"searchLocalFiles": "Cerca file",
|
229
|
+
"writeLocalFile": "Scrivi file"
|
230
|
+
},
|
231
|
+
"title": "File locali"
|
232
|
+
},
|
222
233
|
"pluginList": "Elenco dei plugin",
|
223
234
|
"search": {
|
235
|
+
"apiName": {
|
236
|
+
"crawlSinglePage": "Leggi contenuto pagina",
|
237
|
+
"search": "Cerca pagina"
|
238
|
+
},
|
224
239
|
"config": {
|
225
240
|
"addKey": "Aggiungi chiave",
|
226
241
|
"close": "Rimuovi",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"Doubao-1.5-thinking-pro-m": {
|
75
75
|
"description": "Doubao-1.5は新しい深い思考モデルであり(mバージョンはネイティブなマルチモーダル深推論能力を備えています)、数学、プログラミング、科学推論などの専門分野や創造的な執筆などの一般的なタスクで優れたパフォーマンスを発揮し、AIME 2024、Codeforces、GPQAなどの複数の権威あるベンチマークで業界の第一梯隊レベルに達しています。128kのコンテキストウィンドウと16kの出力をサポートしています。"
|
76
76
|
},
|
77
|
+
"Doubao-1.5-thinking-vision-pro": {
|
78
|
+
"description": "全く新しい視覚的深層思考モデルで、より強力な汎用マルチモーダル理解と推論能力を備えており、59 の公開評価基準のうち 37 の基準で SOTA パフォーマンスを達成しています。"
|
79
|
+
},
|
77
80
|
"Doubao-1.5-vision-pro": {
|
78
81
|
"description": "Doubao-1.5-vision-proは新たにアップグレードされた多モーダル大モデルで、任意の解像度と極端なアスペクト比の画像認識をサポートし、視覚推論、文書認識、詳細情報の理解、指示の遵守能力を強化しています。"
|
79
82
|
},
|
@@ -338,6 +341,9 @@
|
|
338
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
339
342
|
"description": "Qwen2.5-Coder-32B-Instructは、コード生成、コード理解、効率的な開発シーンのために設計された大規模言語モデルで、業界をリードする32Bパラメータ規模を採用しており、多様なプログラミングニーズに応えます。"
|
340
343
|
},
|
344
|
+
"SenseCat-5-1202": {
|
345
|
+
"description": "V5.5 に基づく最新バージョンであり、前のバージョンに比べて中英語の基礎能力、チャット、理科知識、文科知識、執筆、数理論理、文字数制御などのいくつかの次元でのパフォーマンスが大幅に向上しています。"
|
346
|
+
},
|
341
347
|
"SenseChat": {
|
342
348
|
"description": "基本バージョンのモデル (V4)、4Kのコンテキスト長で、汎用能力が強力です。"
|
343
349
|
},
|
@@ -350,12 +356,12 @@
|
|
350
356
|
"SenseChat-5": {
|
351
357
|
"description": "最新バージョンのモデル (V5.5)、128Kのコンテキスト長で、数学的推論、英語の対話、指示のフォロー、長文理解などの分野での能力が大幅に向上し、GPT-4oに匹敵します。"
|
352
358
|
},
|
353
|
-
"SenseChat-5-1202": {
|
354
|
-
"description": "V5.5に基づく最新バージョンで、前のバージョンに比べて中国語と英語の基本能力、チャット、理系知識、人文系知識、ライティング、数理論理、文字数制御などのいくつかの次元でのパフォーマンスが大幅に向上しています。"
|
355
|
-
},
|
356
359
|
"SenseChat-5-Cantonese": {
|
357
360
|
"description": "32Kのコンテキスト長で、広東語の対話理解においてGPT-4を超え、知識、推論、数学、コード作成などの複数の分野でGPT-4 Turboに匹敵します。"
|
358
361
|
},
|
362
|
+
"SenseChat-5-beta": {
|
363
|
+
"description": "一部の性能が SenseCat-5-1202 を上回っています"
|
364
|
+
},
|
359
365
|
"SenseChat-Character": {
|
360
366
|
"description": "スタンダード版モデル、8Kのコンテキスト長で、高速な応答速度を持っています。"
|
361
367
|
},
|
@@ -1010,8 +1016,8 @@
|
|
1010
1016
|
"gemini-2.0-flash-lite-001": {
|
1011
1017
|
"description": "Gemini 2.0 Flashモデルのバリアントで、コスト効率と低遅延などの目標に最適化されています。"
|
1012
1018
|
},
|
1013
|
-
"gemini-2.0-flash-
|
1014
|
-
"description": "Gemini 2.0 Flash
|
1019
|
+
"gemini-2.0-flash-preview-image-generation": {
|
1020
|
+
"description": "Gemini 2.0 Flash プレビュー モデル、画像生成をサポート"
|
1015
1021
|
},
|
1016
1022
|
"gemini-2.5-flash-preview-04-17": {
|
1017
1023
|
"description": "Gemini 2.5 Flash Previewは、Googleのコストパフォーマンスに優れたモデルで、包括的な機能を提供します。"
|
@@ -1349,15 +1355,18 @@
|
|
1349
1355
|
"internlm/internlm2_5-7b-chat": {
|
1350
1356
|
"description": "InternLM2.5は多様なシーンでのインテリジェントな対話ソリューションを提供します。"
|
1351
1357
|
},
|
1352
|
-
"internlm2-pro-chat": {
|
1353
|
-
"description": "私たちがまだ維持している旧バージョンのモデルで、7B、20Bのさまざまなモデルパラメータ量が選択可能です。"
|
1354
|
-
},
|
1355
1358
|
"internlm2.5-latest": {
|
1356
1359
|
"description": "私たちの最新のモデルシリーズで、卓越した推論性能を持ち、1Mのコンテキスト長をサポートし、より強力な指示追従とツール呼び出し能力を備えています。"
|
1357
1360
|
},
|
1358
1361
|
"internlm3-latest": {
|
1359
1362
|
"description": "私たちの最新のモデルシリーズは、卓越した推論性能を持ち、同等のオープンソースモデルの中でリーダーシップを発揮しています。デフォルトで最新のInternLM3シリーズモデルを指します。"
|
1360
1363
|
},
|
1364
|
+
"internvl2.5-latest": {
|
1365
|
+
"description": "私たちが引き続きメンテナンスしている InternVL2.5 バージョンは、優れた安定した性能を持っています。デフォルトでは、私たちの最新の InternVL2.5 シリーズモデルに指向されており、現在は internvl2.5-78b に指向しています。"
|
1366
|
+
},
|
1367
|
+
"internvl3-latest": {
|
1368
|
+
"description": "私たちの最新のマルチモーダル大規模モデルは、より強力な画像と言語の理解能力と長期的な画像理解能力を備えており、トップクラスのクローズドソースモデルに匹敵する性能を持っています。デフォルトでは、私たちの最新の InternVL シリーズモデルに指向されており、現在は internvl3-78b に指向しています。"
|
1369
|
+
},
|
1361
1370
|
"jamba-large": {
|
1362
1371
|
"description": "私たちの最も強力で先進的なモデルで、企業レベルの複雑なタスクを処理するために設計されており、卓越した性能を備えています。"
|
1363
1372
|
},
|
@@ -1373,6 +1382,9 @@
|
|
1373
1382
|
"learnlm-1.5-pro-experimental": {
|
1374
1383
|
"description": "LearnLMは、学習科学の原則に従って訓練された実験的なタスク特化型言語モデルで、教育や学習のシーンでシステムの指示に従い、専門的なメンターとして機能します。"
|
1375
1384
|
},
|
1385
|
+
"learnlm-2.0-flash-experimental": {
|
1386
|
+
"description": "LearnLM は、学習科学の原則に従って訓練された、タスク特化型の実験的言語モデルであり、教育や学習のシーンでシステムの指示に従い、専門のメンターとして機能します。"
|
1387
|
+
},
|
1376
1388
|
"lite": {
|
1377
1389
|
"description": "Spark Liteは軽量な大規模言語モデルで、非常に低い遅延と高い処理能力を備えています。完全に無料でオープンであり、リアルタイムのオンライン検索機能をサポートしています。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデルの微調整において優れたパフォーマンスを発揮し、特に知識問答、コンテンツ生成、検索シーンにおいて優れたコストパフォーマンスとインテリジェントな体験を提供します。"
|
1378
1390
|
},
|
@@ -2162,6 +2174,9 @@
|
|
2162
2174
|
"wizardlm2:8x22b": {
|
2163
2175
|
"description": "WizardLM 2は、Microsoft AIが提供する言語モデルであり、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。"
|
2164
2176
|
},
|
2177
|
+
"x1": {
|
2178
|
+
"description": "Spark X1 モデルはさらにアップグレードされ、元の数学タスクで国内のリーダーシップを維持しつつ、推論、テキスト生成、言語理解などの一般的なタスクで OpenAI o1 および DeepSeek R1 に匹敵する効果を実現します。"
|
2179
|
+
},
|
2165
2180
|
"yi-1.5-34b-chat": {
|
2166
2181
|
"description": "Yi-1.5は、Yiのアップグレード版です。500Bトークンの高品質なコーパスを使用してYiの事前学習を継続し、3Mの多様なファインチューニングサンプルでファインチューニングを行います。"
|
2167
2182
|
},
|
@@ -219,8 +219,23 @@
|
|
219
219
|
"content": "プラグインを呼び出しています...",
|
220
220
|
"plugin": "プラグインの実行中..."
|
221
221
|
},
|
222
|
+
"localSystem": {
|
223
|
+
"apiName": {
|
224
|
+
"listLocalFiles": "ファイルリストを表示",
|
225
|
+
"moveLocalFiles": "ファイルを移動",
|
226
|
+
"readLocalFile": "ファイル内容を読み取る",
|
227
|
+
"renameLocalFile": "名前を変更",
|
228
|
+
"searchLocalFiles": "ファイルを検索",
|
229
|
+
"writeLocalFile": "ファイルに書き込む"
|
230
|
+
},
|
231
|
+
"title": "ローカルファイル"
|
232
|
+
},
|
222
233
|
"pluginList": "プラグインリスト",
|
223
234
|
"search": {
|
235
|
+
"apiName": {
|
236
|
+
"crawlSinglePage": "ページ内容を読み取る",
|
237
|
+
"search": "ページを検索"
|
238
|
+
},
|
224
239
|
"config": {
|
225
240
|
"addKey": "キーを追加",
|
226
241
|
"close": "削除",
|