@lobehub/chat 1.47.17 → 1.47.18
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/modelProvider.json +1 -0
- package/locales/ar/models.json +30 -3
- package/locales/bg-BG/modelProvider.json +1 -0
- package/locales/bg-BG/models.json +30 -3
- package/locales/de-DE/modelProvider.json +1 -0
- package/locales/de-DE/models.json +30 -3
- package/locales/en-US/modelProvider.json +1 -0
- package/locales/en-US/models.json +30 -3
- package/locales/es-ES/modelProvider.json +1 -0
- package/locales/es-ES/models.json +30 -3
- package/locales/fa-IR/modelProvider.json +1 -0
- package/locales/fa-IR/models.json +30 -3
- package/locales/fr-FR/modelProvider.json +1 -0
- package/locales/fr-FR/models.json +30 -3
- package/locales/it-IT/modelProvider.json +1 -0
- package/locales/it-IT/models.json +30 -3
- package/locales/ja-JP/modelProvider.json +1 -0
- package/locales/ja-JP/models.json +30 -3
- package/locales/ko-KR/modelProvider.json +1 -0
- package/locales/ko-KR/models.json +30 -3
- package/locales/nl-NL/modelProvider.json +1 -0
- package/locales/nl-NL/models.json +30 -3
- package/locales/pl-PL/modelProvider.json +1 -0
- package/locales/pl-PL/models.json +30 -3
- package/locales/pt-BR/modelProvider.json +1 -0
- package/locales/pt-BR/models.json +30 -3
- package/locales/ru-RU/modelProvider.json +1 -0
- package/locales/ru-RU/models.json +30 -3
- package/locales/tr-TR/modelProvider.json +1 -0
- package/locales/tr-TR/models.json +30 -3
- package/locales/vi-VN/modelProvider.json +1 -0
- package/locales/vi-VN/models.json +30 -3
- package/locales/zh-CN/modelProvider.json +2 -1
- package/locales/zh-CN/models.json +32 -5
- package/locales/zh-TW/modelProvider.json +1 -0
- package/locales/zh-TW/models.json +30 -3
- package/package.json +1 -1
- package/src/app/(main)/settings/provider/(detail)/azure/page.tsx +4 -6
- package/src/app/(main)/settings/provider/(detail)/bedrock/page.tsx +5 -4
- package/src/app/(main)/settings/provider/(detail)/cloudflare/page.tsx +3 -3
- package/src/app/(main)/settings/provider/(detail)/github/page.tsx +2 -2
- package/src/app/(main)/settings/provider/(detail)/huggingface/page.tsx +2 -2
- package/src/app/(main)/settings/provider/(detail)/wenxin/page.tsx +3 -3
- package/src/app/(main)/settings/provider/features/ProviderConfig/index.tsx +17 -4
- package/src/components/FormInput/FormInput.tsx +42 -0
- package/src/components/FormInput/FormPassword.tsx +42 -0
- package/src/components/FormInput/index.ts +2 -0
- package/src/config/modelProviders/deepseek.ts +3 -0
- package/src/locales/default/modelProvider.ts +1 -0
@@ -17,6 +17,9 @@
|
|
17
17
|
"360gpt-turbo-responsibility-8k": {
|
18
18
|
"description": "360GPT Turbo Responsibility 8K enfatiza la seguridad semántica y la responsabilidad, diseñado específicamente para aplicaciones que requieren altos estándares de seguridad de contenido, asegurando la precisión y robustez de la experiencia del usuario."
|
19
19
|
},
|
20
|
+
"360gpt2-o1": {
|
21
|
+
"description": "360gpt2-o1 utiliza la búsqueda en árbol para construir cadenas de pensamiento e introduce un mecanismo de reflexión, entrenado mediante aprendizaje por refuerzo, lo que le permite tener la capacidad de auto-reflexión y corrección de errores."
|
22
|
+
},
|
20
23
|
"360gpt2-pro": {
|
21
24
|
"description": "360GPT2 Pro es un modelo avanzado de procesamiento de lenguaje natural lanzado por la empresa 360, con una excelente capacidad de generación y comprensión de textos, destacándose especialmente en la generación y creación de contenido, capaz de manejar tareas complejas de conversión de lenguaje y representación de roles."
|
22
25
|
},
|
@@ -110,6 +113,9 @@
|
|
110
113
|
"LoRA/Qwen/Qwen2.5-7B-Instruct": {
|
111
114
|
"description": "Qwen2.5-7B-Instruct es uno de los últimos modelos de lenguaje a gran escala lanzados por Alibaba Cloud. Este modelo de 7B ha mejorado significativamente en áreas como codificación y matemáticas. También ofrece soporte multilingüe, abarcando más de 29 idiomas, incluidos chino e inglés. El modelo ha mostrado mejoras significativas en el seguimiento de instrucciones, comprensión de datos estructurados y generación de salidas estructuradas (especialmente JSON)."
|
112
115
|
},
|
116
|
+
"MiniMax-Text-01": {
|
117
|
+
"description": "En la serie de modelos MiniMax-01, hemos realizado una innovación audaz: la implementación a gran escala del mecanismo de atención lineal, donde la arquitectura Transformer tradicional ya no es la única opción. Este modelo tiene una cantidad de parámetros de hasta 456 mil millones, con 45.9 mil millones por activación. El rendimiento general del modelo es comparable a los mejores modelos internacionales, y puede manejar de manera eficiente contextos de hasta 4 millones de tokens, que es 32 veces más que GPT-4o y 20 veces más que Claude-3.5-Sonnet."
|
118
|
+
},
|
113
119
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
114
120
|
"description": "Hermes 2 Mixtral 8x7B DPO es una fusión de múltiples modelos altamente flexible, diseñada para ofrecer una experiencia creativa excepcional."
|
115
121
|
},
|
@@ -218,6 +224,9 @@
|
|
218
224
|
"Qwen2-7B-Instruct": {
|
219
225
|
"description": "Qwen2 es la última serie del modelo Qwen, capaz de superar a los modelos de código abierto de tamaño equivalente e incluso a modelos de mayor tamaño. Qwen2 7B ha logrado ventajas significativas en múltiples evaluaciones, especialmente en comprensión de código y chino."
|
220
226
|
},
|
227
|
+
"Qwen2-VL-72B": {
|
228
|
+
"description": "Qwen2-VL-72B es un potente modelo de lenguaje visual que admite el procesamiento multimodal de imágenes y texto, capaz de identificar con precisión el contenido de las imágenes y generar descripciones o respuestas relacionadas."
|
229
|
+
},
|
221
230
|
"Qwen2.5-14B-Instruct": {
|
222
231
|
"description": "Qwen2.5-14B-Instruct es un modelo de lenguaje grande de 14 mil millones de parámetros, con un rendimiento excelente, optimizado para escenarios en chino y multilingües, que admite aplicaciones de preguntas y respuestas inteligentes, generación de contenido, entre otros."
|
223
232
|
},
|
@@ -230,6 +239,9 @@
|
|
230
239
|
"Qwen2.5-7B-Instruct": {
|
231
240
|
"description": "Qwen2.5-7B-Instruct es un modelo de lenguaje grande de 7 mil millones de parámetros, que admite llamadas a funciones e interacción sin problemas con sistemas externos, mejorando enormemente la flexibilidad y escalabilidad. Optimizado para escenarios en chino y multilingües, admite aplicaciones de preguntas y respuestas inteligentes, generación de contenido, entre otros."
|
232
241
|
},
|
242
|
+
"Qwen2.5-Coder-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-Coder-14B-Instruct es un modelo de instrucciones de programación basado en un preentrenamiento a gran escala, con una potente capacidad de comprensión y generación de código, capaz de manejar eficientemente diversas tareas de programación, especialmente adecuado para la escritura inteligente de código, generación de scripts automatizados y resolución de problemas de programación."
|
244
|
+
},
|
233
245
|
"Qwen2.5-Coder-32B-Instruct": {
|
234
246
|
"description": "Qwen2.5-Coder-32B-Instruct es un modelo de lenguaje grande diseñado específicamente para la generación de código, comprensión de código y escenarios de desarrollo eficiente, con una escala de 32B parámetros, líder en la industria, capaz de satisfacer diversas necesidades de programación."
|
235
247
|
},
|
@@ -458,9 +470,6 @@
|
|
458
470
|
"claude-3-sonnet-20240229": {
|
459
471
|
"description": "Claude 3 Sonnet proporciona un equilibrio ideal entre inteligencia y velocidad para cargas de trabajo empresariales. Ofrece la máxima utilidad a un costo más bajo, siendo fiable y adecuado para implementaciones a gran escala."
|
460
472
|
},
|
461
|
-
"code-raccoon-v1": {
|
462
|
-
"description": "Code Raccoon es un asistente de desarrollo inteligente basado en el modelo de lenguaje grande de SenseTime, que abarca análisis de requisitos de software, diseño de arquitectura, escritura de código, pruebas de software y más, satisfaciendo diversas necesidades de escritura de código y aprendizaje de programación. Code Raccoon admite más de 90 lenguajes de programación populares como Python, Java, JavaScript, C++, Go, SQL, y entornos de desarrollo integrados como VS Code, IntelliJ IDEA, entre otros. En la práctica, Code Raccoon puede ayudar a los desarrolladores a mejorar la eficiencia de programación en más del 50%."
|
463
|
-
},
|
464
473
|
"codegeex-4": {
|
465
474
|
"description": "CodeGeeX-4 es un potente asistente de programación AI, que admite preguntas y respuestas inteligentes y autocompletado de código en varios lenguajes de programación, mejorando la eficiencia del desarrollo."
|
466
475
|
},
|
@@ -599,6 +608,9 @@
|
|
599
608
|
"gemini-2.0-flash-exp": {
|
600
609
|
"description": "Gemini 2.0 Flash Exp es el último modelo experimental de inteligencia artificial multimodal de Google, que cuenta con características de próxima generación, velocidad superior, llamadas nativas a herramientas y generación multimodal."
|
601
610
|
},
|
611
|
+
"gemini-2.0-flash-thinking-exp-01-21": {
|
612
|
+
"description": "Gemini 2.0 Flash Exp es el último modelo experimental de IA multimodal de Google, con características de próxima generación, velocidad excepcional, llamadas nativas a herramientas y generación multimodal."
|
613
|
+
},
|
602
614
|
"gemini-2.0-flash-thinking-exp-1219": {
|
603
615
|
"description": "Gemini 2.0 Flash Exp es el último modelo de IA multimodal experimental de Google, que cuenta con características de próxima generación, velocidad excepcional, llamadas a herramientas nativas y generación multimodal."
|
604
616
|
},
|
@@ -671,6 +683,9 @@
|
|
671
683
|
"glm-4v-plus": {
|
672
684
|
"description": "GLM-4V-Plus tiene la capacidad de entender contenido de video y múltiples imágenes, adecuado para tareas multimodales."
|
673
685
|
},
|
686
|
+
"glm-zero-preview": {
|
687
|
+
"description": "GLM-Zero-Preview posee una poderosa capacidad de razonamiento complejo, destacándose en áreas como razonamiento lógico, matemáticas y programación."
|
688
|
+
},
|
674
689
|
"google/gemini-flash-1.5": {
|
675
690
|
"description": "Gemini 1.5 Flash ofrece capacidades de procesamiento multimodal optimizadas, adecuadas para una variedad de escenarios de tareas complejas."
|
676
691
|
},
|
@@ -1100,12 +1115,21 @@
|
|
1100
1115
|
"moonshot-v1-128k": {
|
1101
1116
|
"description": "Moonshot V1 128K es un modelo con capacidad de procesamiento de contexto ultra largo, adecuado para generar textos extensos, satisfaciendo las demandas de tareas de generación complejas, capaz de manejar hasta 128,000 tokens, ideal para aplicaciones en investigación, académicas y generación de documentos grandes."
|
1102
1117
|
},
|
1118
|
+
"moonshot-v1-128k-vision-preview": {
|
1119
|
+
"description": "El modelo visual Kimi (incluyendo moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) puede entender el contenido de las imágenes, incluyendo texto en imágenes, colores de imágenes y formas de objetos."
|
1120
|
+
},
|
1103
1121
|
"moonshot-v1-32k": {
|
1104
1122
|
"description": "Moonshot V1 32K ofrece capacidad de procesamiento de contexto de longitud media, capaz de manejar 32,768 tokens, especialmente adecuado para generar diversos documentos largos y diálogos complejos, aplicable en creación de contenido, generación de informes y sistemas de diálogo."
|
1105
1123
|
},
|
1124
|
+
"moonshot-v1-32k-vision-preview": {
|
1125
|
+
"description": "El modelo visual Kimi (incluyendo moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) puede entender el contenido de las imágenes, incluyendo texto en imágenes, colores de imágenes y formas de objetos."
|
1126
|
+
},
|
1106
1127
|
"moonshot-v1-8k": {
|
1107
1128
|
"description": "Moonshot V1 8K está diseñado para tareas de generación de texto corto, con un rendimiento de procesamiento eficiente, capaz de manejar 8,192 tokens, ideal para diálogos breves, toma de notas y generación rápida de contenido."
|
1108
1129
|
},
|
1130
|
+
"moonshot-v1-8k-vision-preview": {
|
1131
|
+
"description": "El modelo visual Kimi (incluyendo moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) puede entender el contenido de las imágenes, incluyendo texto en imágenes, colores de imágenes y formas de objetos."
|
1132
|
+
},
|
1109
1133
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1110
1134
|
"description": "Hermes 2 Pro Llama 3 8B es una versión mejorada de Nous Hermes 2, que incluye los conjuntos de datos más recientes desarrollados internamente."
|
1111
1135
|
},
|
@@ -1313,6 +1337,9 @@
|
|
1313
1337
|
"step-2-16k": {
|
1314
1338
|
"description": "Soporta interacciones de contexto a gran escala, adecuado para escenarios de diálogo complejos."
|
1315
1339
|
},
|
1340
|
+
"taichu2_mm": {
|
1341
|
+
"description": "Integra capacidades de comprensión de imágenes, transferencia de conocimiento, atribución lógica, destacándose en el campo de preguntas y respuestas basadas en texto e imagen."
|
1342
|
+
},
|
1316
1343
|
"taichu_llm": {
|
1317
1344
|
"description": "El modelo de lenguaje Taichu de Zīdōng tiene una poderosa capacidad de comprensión del lenguaje, así como habilidades en creación de textos, preguntas y respuestas, programación de código, cálculos matemáticos, razonamiento lógico, análisis de sentimientos y resúmenes de texto. Combina de manera innovadora el preentrenamiento con grandes datos y un conocimiento rico de múltiples fuentes, perfeccionando continuamente la tecnología algorítmica y absorbiendo nuevos conocimientos en vocabulario, estructura, gramática y semántica de grandes volúmenes de datos textuales, logrando una evolución constante del modelo. Proporciona a los usuarios información y servicios más convenientes, así como una experiencia más inteligente."
|
1318
1345
|
},
|
@@ -17,6 +17,9 @@
|
|
17
17
|
"360gpt-turbo-responsibility-8k": {
|
18
18
|
"description": "360GPT Turbo Responsibility 8K بر امنیت معنایی و مسئولیتپذیری تأکید دارد و بهطور ویژه برای سناریوهایی طراحی شده است که نیاز بالایی به امنیت محتوا دارند، تا دقت و پایداری تجربه کاربری را تضمین کند."
|
19
19
|
},
|
20
|
+
"360gpt2-o1": {
|
21
|
+
"description": "360gpt2-o1 از جستجوی درخت برای ساخت زنجیرههای تفکر استفاده میکند و مکانیزم بازتاب را معرفی کرده است و با استفاده از یادگیری تقویتی آموزش دیده است، این مدل توانایی خودبازتابی و اصلاح خطا را دارد."
|
22
|
+
},
|
20
23
|
"360gpt2-pro": {
|
21
24
|
"description": "360GPT2 Pro مدل پیشرفته پردازش زبان طبیعی است که توسط شرکت 360 ارائه شده است. این مدل دارای تواناییهای برجستهای در تولید و درک متن است و به ویژه در زمینه تولید و خلاقیت عملکرد فوقالعادهای دارد. همچنین قادر به انجام وظایف پیچیده تبدیل زبان و ایفای نقش میباشد."
|
22
25
|
},
|
@@ -110,6 +113,9 @@
|
|
110
113
|
"LoRA/Qwen/Qwen2.5-7B-Instruct": {
|
111
114
|
"description": "Qwen2.5-7B-Instruct یکی از جدیدترین سری مدلهای زبانی بزرگ منتشر شده توسط Alibaba Cloud است. این مدل 7B در زمینههای کدنویسی و ریاضی دارای تواناییهای بهبود یافته قابل توجهی است. این مدل همچنین از پشتیبانی چند زبانه برخوردار است و بیش از 29 زبان از جمله چینی و انگلیسی را پوشش میدهد. این مدل در پیروی از دستورات، درک دادههای ساختاری و تولید خروجیهای ساختاری (به ویژه JSON) به طور قابل توجهی بهبود یافته است."
|
112
115
|
},
|
116
|
+
"MiniMax-Text-01": {
|
117
|
+
"description": "در سری مدلهای MiniMax-01، ما نوآوریهای جسورانهای انجام دادهایم: برای اولین بار مکانیزم توجه خطی را به طور وسیع پیادهسازی کردهایم و معماری سنتی Transformer دیگر تنها گزینه نیست. این مدل دارای 456 میلیارد پارامتر است که در یک بار فعالسازی 45.9 میلیارد است. عملکرد کلی این مدل با بهترین مدلهای خارجی برابری میکند و در عین حال میتواند به طور مؤثر به متنهای طولانی جهانی با 4 میلیون توکن رسیدگی کند، که 32 برابر GPT-4o و 20 برابر Claude-3.5-Sonnet است."
|
118
|
+
},
|
113
119
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
114
120
|
"description": "Hermes 2 Mixtral 8x7B DPO یک ترکیب چندمدلی بسیار انعطافپذیر است که برای ارائه تجربهای خلاقانه و برجسته طراحی شده است."
|
115
121
|
},
|
@@ -218,6 +224,9 @@
|
|
218
224
|
"Qwen2-7B-Instruct": {
|
219
225
|
"description": "Qwen2 جدیدترین سری مدلهای Qwen است که میتواند از مدلهای متنباز با مقیاس مشابه و حتی بزرگتر فراتر رود. Qwen2 7B در چندین ارزیابی برتری قابل توجهی به دست آورده است، به ویژه در درک کد و زبان چینی."
|
220
226
|
},
|
227
|
+
"Qwen2-VL-72B": {
|
228
|
+
"description": "Qwen2-VL-72B یک مدل زبان بصری قدرتمند است که از پردازش چندرسانهای تصویر و متن پشتیبانی میکند و میتواند محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخهای مرتبط تولید کند."
|
229
|
+
},
|
221
230
|
"Qwen2.5-14B-Instruct": {
|
222
231
|
"description": "Qwen2.5-14B-Instruct یک مدل زبان بزرگ با 140 میلیارد پارامتر است که عملکرد عالی دارد و بهینهسازی شده برای سناریوهای چینی و چند زبانه، از کاربردهایی مانند پرسش و پاسخ هوشمند و تولید محتوا پشتیبانی میکند."
|
223
232
|
},
|
@@ -230,6 +239,9 @@
|
|
230
239
|
"Qwen2.5-7B-Instruct": {
|
231
240
|
"description": "Qwen2.5-7B-Instruct یک مدل زبان بزرگ با 70 میلیارد پارامتر است که از تماسهای تابع و تعامل بینقص با سیستمهای خارجی پشتیبانی میکند و به طور قابل توجهی انعطافپذیری و مقیاسپذیری را افزایش میدهد. این مدل بهینهسازی شده برای سناریوهای چینی و چند زبانه، از کاربردهایی مانند پرسش و پاسخ هوشمند و تولید محتوا پشتیبانی میکند."
|
232
241
|
},
|
242
|
+
"Qwen2.5-Coder-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-Coder-14B-Instruct یک مدل دستور برنامهنویسی مبتنی بر پیشآموزش وسیع است که دارای تواناییهای قوی در درک و تولید کد است و میتواند به طور مؤثر به انواع وظایف برنامهنویسی رسیدگی کند، به ویژه برای نوشتن کد هوشمند، تولید اسکریپتهای خودکار و پاسخ به مسائل برنامهنویسی مناسب است."
|
244
|
+
},
|
233
245
|
"Qwen2.5-Coder-32B-Instruct": {
|
234
246
|
"description": "Qwen2.5-Coder-32B-Instruct یک مدل زبان بزرگ است که به طور خاص برای تولید کد، درک کد و سناریوهای توسعه کارآمد طراحی شده است و از مقیاس 32B پارامتر پیشرفته در صنعت بهره میبرد و میتواند نیازهای متنوع برنامهنویسی را برآورده کند."
|
235
247
|
},
|
@@ -458,9 +470,6 @@
|
|
458
470
|
"claude-3-sonnet-20240229": {
|
459
471
|
"description": "Claude 3 Sonnet تعادلی ایدهآل بین هوش و سرعت برای بارهای کاری سازمانی فراهم میکند. این محصول با قیمتی پایینتر حداکثر بهرهوری را ارائه میدهد، قابل اعتماد است و برای استقرار در مقیاس بزرگ مناسب میباشد."
|
460
472
|
},
|
461
|
-
"code-raccoon-v1": {
|
462
|
-
"description": "کد راکون یک دستیار هوشمند توسعه نرمافزار است که بر اساس مدل زبان بزرگ سنتنگ طراحی شده و شامل تحلیل نیازمندیهای نرمافزار، طراحی معماری، نوشتن کد و تست نرمافزار است و نیازهای مختلف کاربران در نوشتن کد و یادگیری برنامهنویسی را برآورده میکند. کد راکون از بیش از 90 زبان برنامهنویسی اصلی مانند Python، Java، JavaScript، C++، Go، SQL و IDEهای اصلی مانند VS Code و IntelliJ IDEA پشتیبانی میکند. در کاربردهای واقعی، کد راکون میتواند به توسعهدهندگان کمک کند تا کارایی برنامهنویسی خود را بیش از 50% افزایش دهند."
|
463
|
-
},
|
464
473
|
"codegeex-4": {
|
465
474
|
"description": "CodeGeeX-4 یک دستیار برنامهنویسی قدرتمند مبتنی بر هوش مصنوعی است که از پرسش و پاسخ هوشمند و تکمیل کد در زبانهای برنامهنویسی مختلف پشتیبانی میکند و بهرهوری توسعه را افزایش میدهد."
|
466
475
|
},
|
@@ -599,6 +608,9 @@
|
|
599
608
|
"gemini-2.0-flash-exp": {
|
600
609
|
"description": "Gemini 2.0 Flash Exp یک مدل هوش مصنوعی چندمدلی آزمایشی از گوگل است که دارای ویژگیهای نسل بعدی، سرعت فوقالعاده، فراخوانی ابزارهای بومی و تولید چندمدلی است."
|
601
610
|
},
|
611
|
+
"gemini-2.0-flash-thinking-exp-01-21": {
|
612
|
+
"description": "Gemini 2.0 Flash Exp جدیدترین مدل AI چندرسانهای آزمایشی گوگل است که دارای ویژگیهای نسل بعدی، سرعت فوقالعاده، فراخوانی ابزار بومی و تولید چندرسانهای است."
|
613
|
+
},
|
602
614
|
"gemini-2.0-flash-thinking-exp-1219": {
|
603
615
|
"description": "Gemini 2.0 Flash Exp جدیدترین مدل هوش مصنوعی چندرسانهای آزمایشی Google است که ویژگیهای نسل بعدی، سرعت فوقالعاده، فراخوانی ابزارهای بومی و تولید چندرسانهای را داراست."
|
604
616
|
},
|
@@ -671,6 +683,9 @@
|
|
671
683
|
"glm-4v-plus": {
|
672
684
|
"description": "GLM-4V-Plus توانایی درک محتوای ویدئویی و تصاویر متعدد را دارد و برای وظایف چندرسانهای مناسب است."
|
673
685
|
},
|
686
|
+
"glm-zero-preview": {
|
687
|
+
"description": "GLM-Zero-Preview دارای تواناییهای پیچیده استدلال است و در زمینههای استدلال منطقی، ریاضیات، برنامهنویسی و غیره عملکرد عالی دارد."
|
688
|
+
},
|
674
689
|
"google/gemini-flash-1.5": {
|
675
690
|
"description": "Gemini 1.5 Flash قابلیت پردازش چندوجهی بهینهشده را ارائه میدهد و برای انواع سناریوهای پیچیده مناسب است."
|
676
691
|
},
|
@@ -1100,12 +1115,21 @@
|
|
1100
1115
|
"moonshot-v1-128k": {
|
1101
1116
|
"description": "Moonshot V1 128K یک مدل با قابلیت پردازش متن طولانی است که برای تولید متون بسیار طولانی مناسب است. این مدل میتواند تا 128,000 توکن را پردازش کند و برای کاربردهایی مانند پژوهش، علمی و تولید اسناد بزرگ بسیار مناسب است."
|
1102
1117
|
},
|
1118
|
+
"moonshot-v1-128k-vision-preview": {
|
1119
|
+
"description": "مدل بصری Kimi (شامل moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview و غیره) قادر به درک محتوای تصویر است، از جمله متن تصویر، رنگ تصویر و شکل اشیاء."
|
1120
|
+
},
|
1103
1121
|
"moonshot-v1-32k": {
|
1104
1122
|
"description": "Moonshot V1 32K توانایی پردازش متن با طول متوسط را فراهم میکند و قادر به پردازش 32,768 توکن است. این مدل بهویژه برای تولید اسناد طولانی و مکالمات پیچیده مناسب است و در زمینههایی مانند تولید محتوا، ایجاد گزارش و سیستمهای مکالمه کاربرد دارد."
|
1105
1123
|
},
|
1124
|
+
"moonshot-v1-32k-vision-preview": {
|
1125
|
+
"description": "مدل بصری Kimi (شامل moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview و غیره) قادر به درک محتوای تصویر است، از جمله متن تصویر، رنگ تصویر و شکل اشیاء."
|
1126
|
+
},
|
1106
1127
|
"moonshot-v1-8k": {
|
1107
1128
|
"description": "Moonshot V1 8K بهطور ویژه برای تولید متنهای کوتاه طراحی شده است و دارای عملکرد پردازشی کارآمدی است که میتواند ۸,۱۹۲ توکن را پردازش کند. این مدل برای مکالمات کوتاه، یادداشتبرداری سریع و تولید محتوای سریع بسیار مناسب است."
|
1108
1129
|
},
|
1130
|
+
"moonshot-v1-8k-vision-preview": {
|
1131
|
+
"description": "مدل بصری Kimi (شامل moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview و غیره) قادر به درک محتوای تصویر است، از جمله متن تصویر، رنگ تصویر و شکل اشیاء."
|
1132
|
+
},
|
1109
1133
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1110
1134
|
"description": "هرمس ۲ پرو لاما ۳ ۸B نسخه ارتقاء یافته Nous Hermes 2 است که شامل جدیدترین مجموعه دادههای توسعهیافته داخلی میباشد."
|
1111
1135
|
},
|
@@ -1313,6 +1337,9 @@
|
|
1313
1337
|
"step-2-16k": {
|
1314
1338
|
"description": "پشتیبانی از تعاملات متنی گسترده، مناسب برای سناریوهای مکالمه پیچیده."
|
1315
1339
|
},
|
1340
|
+
"taichu2_mm": {
|
1341
|
+
"description": "ترکیبی از درک تصویر، انتقال دانش، استدلال منطقی و غیره، در زمینه پرسش و پاسخ تصویری و متنی عملکرد برجستهای دارد."
|
1342
|
+
},
|
1316
1343
|
"taichu_llm": {
|
1317
1344
|
"description": "Taichu 2.0 بر اساس حجم زیادی از دادههای با کیفیت بالا آموزش دیده است و دارای تواناییهای قویتری در درک متن، تولید محتوا، پرسش و پاسخ در مکالمه و غیره میباشد."
|
1318
1345
|
},
|
@@ -17,6 +17,9 @@
|
|
17
17
|
"360gpt-turbo-responsibility-8k": {
|
18
18
|
"description": "360GPT Turbo Responsibility 8K met l'accent sur la sécurité sémantique et l'orientation vers la responsabilité, conçu pour des scénarios d'application exigeant une sécurité de contenu élevée, garantissant l'exactitude et la robustesse de l'expérience utilisateur."
|
19
19
|
},
|
20
|
+
"360gpt2-o1": {
|
21
|
+
"description": "360gpt2-o1 utilise une recherche arborescente pour construire des chaînes de pensée et introduit un mécanisme de réflexion, entraîné par apprentissage par renforcement, permettant au modèle d'avoir des capacités d'auto-réflexion et de correction."
|
22
|
+
},
|
20
23
|
"360gpt2-pro": {
|
21
24
|
"description": "360GPT2 Pro est un modèle avancé de traitement du langage naturel lancé par la société 360, offrant d'excellentes capacités de génération et de compréhension de texte, en particulier dans le domaine de la création et de la génération."
|
22
25
|
},
|
@@ -110,6 +113,9 @@
|
|
110
113
|
"LoRA/Qwen/Qwen2.5-7B-Instruct": {
|
111
114
|
"description": "Qwen2.5-7B-Instruct est l'un des derniers modèles de langage à grande échelle publiés par Alibaba Cloud. Ce modèle 7B présente des capacités considérablement améliorées dans des domaines tels que le codage et les mathématiques. Le modèle offre également un support multilingue, couvrant plus de 29 langues, y compris le chinois et l'anglais. Il a montré des améliorations significatives dans le suivi des instructions, la compréhension des données structurées et la génération de sorties structurées (en particulier JSON)."
|
112
115
|
},
|
116
|
+
"MiniMax-Text-01": {
|
117
|
+
"description": "Dans la série de modèles MiniMax-01, nous avons réalisé une innovation audacieuse : la première mise en œuvre à grande échelle d'un mécanisme d'attention linéaire, rendant l'architecture Transformer traditionnelle non plus le seul choix. Ce modèle possède un nombre de paramètres atteignant 456 milliards, avec 45,9 milliards d'activations par instance. Les performances globales du modèle rivalisent avec celles des meilleurs modèles étrangers, tout en étant capable de traiter efficacement un contexte mondial de 4 millions de tokens, soit 32 fois celui de GPT-4o et 20 fois celui de Claude-3.5-Sonnet."
|
118
|
+
},
|
113
119
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
114
120
|
"description": "Hermes 2 Mixtral 8x7B DPO est une fusion de modèles hautement flexible, visant à offrir une expérience créative exceptionnelle."
|
115
121
|
},
|
@@ -218,6 +224,9 @@
|
|
218
224
|
"Qwen2-7B-Instruct": {
|
219
225
|
"description": "Qwen2 est la dernière série du modèle Qwen, capable de surpasser les meilleurs modèles open source de taille équivalente, voire de plus grande taille. Qwen2 7B a obtenu des résultats significatifs dans plusieurs évaluations, en particulier en ce qui concerne la compréhension du code et du chinois."
|
220
226
|
},
|
227
|
+
"Qwen2-VL-72B": {
|
228
|
+
"description": "Qwen2-VL-72B est un puissant modèle de langage visuel, prenant en charge le traitement multimodal d'images et de textes, capable de reconnaître avec précision le contenu des images et de générer des descriptions ou des réponses pertinentes."
|
229
|
+
},
|
221
230
|
"Qwen2.5-14B-Instruct": {
|
222
231
|
"description": "Qwen2.5-14B-Instruct est un grand modèle de langage de 14 milliards de paramètres, offrant d'excellentes performances, optimisé pour les scénarios en chinois et multilingues, prenant en charge des applications telles que les questions-réponses intelligentes et la génération de contenu."
|
223
232
|
},
|
@@ -230,6 +239,9 @@
|
|
230
239
|
"Qwen2.5-7B-Instruct": {
|
231
240
|
"description": "Qwen2.5-7B-Instruct est un grand modèle de langage de 7 milliards de paramètres, prenant en charge les appels de fonction et l'interaction transparente avec des systèmes externes, améliorant considérablement la flexibilité et l'évolutivité. Optimisé pour les scénarios en chinois et multilingues, il prend en charge des applications telles que les questions-réponses intelligentes et la génération de contenu."
|
232
241
|
},
|
242
|
+
"Qwen2.5-Coder-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-Coder-14B-Instruct est un modèle d'instructions de programmation basé sur un pré-entraînement à grande échelle, doté d'une puissante capacité de compréhension et de génération de code, capable de traiter efficacement diverses tâches de programmation, particulièrement adapté à la rédaction de code intelligent, à la génération de scripts automatisés et à la résolution de problèmes de programmation."
|
244
|
+
},
|
233
245
|
"Qwen2.5-Coder-32B-Instruct": {
|
234
246
|
"description": "Qwen2.5-Coder-32B-Instruct est un grand modèle de langage conçu pour la génération de code, la compréhension de code et les scénarios de développement efficaces, avec une échelle de 32 milliards de paramètres, répondant à des besoins de programmation variés."
|
235
247
|
},
|
@@ -458,9 +470,6 @@
|
|
458
470
|
"claude-3-sonnet-20240229": {
|
459
471
|
"description": "Claude 3 Sonnet offre un équilibre idéal entre intelligence et vitesse pour les charges de travail d'entreprise. Il fournit une utilité maximale à un coût inférieur, fiable et adapté à un déploiement à grande échelle."
|
460
472
|
},
|
461
|
-
"code-raccoon-v1": {
|
462
|
-
"description": "Code Raccoon est un assistant de développement intelligent basé sur le grand modèle de langage de SenseTime, couvrant l'analyse des besoins logiciels, la conception d'architecture, la rédaction de code, les tests logiciels, etc., répondant aux divers besoins des utilisateurs en matière de rédaction de code et d'apprentissage de la programmation. Code Raccoon prend en charge plus de 90 langages de programmation populaires tels que Python, Java, JavaScript, C++, Go, SQL, ainsi que des IDE populaires comme VS Code et IntelliJ IDEA. Dans les applications pratiques, Code Raccoon peut aider les développeurs à améliorer leur efficacité de programmation de plus de 50 %."
|
463
|
-
},
|
464
473
|
"codegeex-4": {
|
465
474
|
"description": "CodeGeeX-4 est un puissant assistant de programmation AI, prenant en charge des questions intelligentes et l'achèvement de code dans divers langages de programmation, améliorant l'efficacité du développement."
|
466
475
|
},
|
@@ -599,6 +608,9 @@
|
|
599
608
|
"gemini-2.0-flash-exp": {
|
600
609
|
"description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, avec des caractéristiques de nouvelle génération, une vitesse exceptionnelle, des appels d'outils natifs et une génération multimodale."
|
601
610
|
},
|
611
|
+
"gemini-2.0-flash-thinking-exp-01-21": {
|
612
|
+
"description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale."
|
613
|
+
},
|
602
614
|
"gemini-2.0-flash-thinking-exp-1219": {
|
603
615
|
"description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale."
|
604
616
|
},
|
@@ -671,6 +683,9 @@
|
|
671
683
|
"glm-4v-plus": {
|
672
684
|
"description": "GLM-4V-Plus possède la capacité de comprendre le contenu vidéo et plusieurs images, adapté aux tâches multimodales."
|
673
685
|
},
|
686
|
+
"glm-zero-preview": {
|
687
|
+
"description": "GLM-Zero-Preview possède de puissantes capacités de raisonnement complexe, se distinguant dans les domaines du raisonnement logique, des mathématiques et de la programmation."
|
688
|
+
},
|
674
689
|
"google/gemini-flash-1.5": {
|
675
690
|
"description": "Gemini 1.5 Flash propose des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes."
|
676
691
|
},
|
@@ -1100,12 +1115,21 @@
|
|
1100
1115
|
"moonshot-v1-128k": {
|
1101
1116
|
"description": "Moonshot V1 128K est un modèle doté d'une capacité de traitement de contexte ultra-long, adapté à la génération de textes très longs, répondant aux besoins de tâches de génération complexes, capable de traiter jusqu'à 128 000 tokens, idéal pour la recherche, l'académie et la génération de documents volumineux."
|
1102
1117
|
},
|
1118
|
+
"moonshot-v1-128k-vision-preview": {
|
1119
|
+
"description": "Le modèle visuel Kimi (y compris moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) est capable de comprendre le contenu des images, y compris le texte des images, les couleurs des images et les formes des objets."
|
1120
|
+
},
|
1103
1121
|
"moonshot-v1-32k": {
|
1104
1122
|
"description": "Moonshot V1 32K offre une capacité de traitement de contexte de longueur moyenne, capable de traiter 32 768 tokens, particulièrement adapté à la génération de divers documents longs et de dialogues complexes, utilisé dans la création de contenu, la génération de rapports et les systèmes de dialogue."
|
1105
1123
|
},
|
1124
|
+
"moonshot-v1-32k-vision-preview": {
|
1125
|
+
"description": "Le modèle visuel Kimi (y compris moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) est capable de comprendre le contenu des images, y compris le texte des images, les couleurs des images et les formes des objets."
|
1126
|
+
},
|
1106
1127
|
"moonshot-v1-8k": {
|
1107
1128
|
"description": "Moonshot V1 8K est conçu pour des tâches de génération de courts textes, avec des performances de traitement efficaces, capable de traiter 8 192 tokens, idéal pour des dialogues courts, des prises de notes et une génération rapide de contenu."
|
1108
1129
|
},
|
1130
|
+
"moonshot-v1-8k-vision-preview": {
|
1131
|
+
"description": "Le modèle visuel Kimi (y compris moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) est capable de comprendre le contenu des images, y compris le texte des images, les couleurs des images et les formes des objets."
|
1132
|
+
},
|
1109
1133
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1110
1134
|
"description": "Hermes 2 Pro Llama 3 8B est une version améliorée de Nous Hermes 2, intégrant les derniers ensembles de données développés en interne."
|
1111
1135
|
},
|
@@ -1313,6 +1337,9 @@
|
|
1313
1337
|
"step-2-16k": {
|
1314
1338
|
"description": "Prend en charge des interactions contextuelles à grande échelle, adapté aux scénarios de dialogue complexes."
|
1315
1339
|
},
|
1340
|
+
"taichu2_mm": {
|
1341
|
+
"description": "Intègre des capacités de compréhension d'images, de transfert de connaissances et d'attribution logique, se distinguant dans le domaine des questions-réponses textuelles et visuelles."
|
1342
|
+
},
|
1316
1343
|
"taichu_llm": {
|
1317
1344
|
"description": "Le modèle de langage Taichu Zidong possède une forte capacité de compréhension linguistique ainsi que des compétences en création de texte, questions-réponses, programmation, calcul mathématique, raisonnement logique, analyse des sentiments, et résumé de texte. Il combine de manière innovante le pré-entraînement sur de grandes données avec des connaissances riches provenant de multiples sources, en perfectionnant continuellement la technologie algorithmique et en intégrant de nouvelles connaissances sur le vocabulaire, la structure, la grammaire et le sens à partir de vastes ensembles de données textuelles, offrant aux utilisateurs des informations et des services plus pratiques ainsi qu'une expérience plus intelligente."
|
1318
1345
|
},
|
@@ -17,6 +17,9 @@
|
|
17
17
|
"360gpt-turbo-responsibility-8k": {
|
18
18
|
"description": "360GPT Turbo Responsibility 8K enfatizza la sicurezza semantica e l'orientamento alla responsabilità, progettato specificamente per scenari applicativi con elevati requisiti di sicurezza dei contenuti, garantendo l'accuratezza e la robustezza dell'esperienza utente."
|
19
19
|
},
|
20
|
+
"360gpt2-o1": {
|
21
|
+
"description": "360gpt2-o1 utilizza la ricerca ad albero per costruire catene di pensiero e introduce un meccanismo di riflessione, addestrato tramite apprendimento rinforzato, dotando il modello della capacità di auto-riflessione e correzione degli errori."
|
22
|
+
},
|
20
23
|
"360gpt2-pro": {
|
21
24
|
"description": "360GPT2 Pro è un modello avanzato di elaborazione del linguaggio naturale lanciato da 360, con eccellenti capacità di generazione e comprensione del testo, in particolare nel campo della generazione e creazione, capace di gestire compiti complessi di conversione linguistica e interpretazione di ruoli."
|
22
25
|
},
|
@@ -110,6 +113,9 @@
|
|
110
113
|
"LoRA/Qwen/Qwen2.5-7B-Instruct": {
|
111
114
|
"description": "Qwen2.5-7B-Instruct è uno dei più recenti modelli linguistici di grandi dimensioni rilasciati da Alibaba Cloud. Questo modello da 7B ha capacità notevolmente migliorate in codifica e matematica. Il modello offre anche supporto multilingue, coprendo oltre 29 lingue, tra cui cinese e inglese. Ha mostrato miglioramenti significativi nel seguire istruzioni, comprendere dati strutturati e generare output strutturati (soprattutto JSON)."
|
112
115
|
},
|
116
|
+
"MiniMax-Text-01": {
|
117
|
+
"description": "Nella serie di modelli MiniMax-01, abbiamo fatto un'innovazione audace: per la prima volta abbiamo implementato su larga scala un meccanismo di attenzione lineare, rendendo l'architettura Transformer tradizionale non più l'unica opzione. Questo modello ha un numero di parametri che raggiunge i 456 miliardi, con un'attivazione singola di 45,9 miliardi. Le prestazioni complessive del modello sono paragonabili a quelle dei migliori modelli internazionali, mentre è in grado di gestire in modo efficiente contesti globali lunghi fino a 4 milioni di token, 32 volte rispetto a GPT-4o e 20 volte rispetto a Claude-3.5-Sonnet."
|
118
|
+
},
|
113
119
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
114
120
|
"description": "Hermes 2 Mixtral 8x7B DPO è un modello altamente flessibile, progettato per offrire un'esperienza creativa eccezionale."
|
115
121
|
},
|
@@ -218,6 +224,9 @@
|
|
218
224
|
"Qwen2-7B-Instruct": {
|
219
225
|
"description": "Qwen2 è l'ultima serie del modello Qwen, in grado di superare i modelli open source ottimali di dimensioni simili e anche modelli di dimensioni maggiori. Qwen2 7B ha ottenuto vantaggi significativi in vari test, in particolare nella comprensione del codice e del cinese."
|
220
226
|
},
|
227
|
+
"Qwen2-VL-72B": {
|
228
|
+
"description": "Qwen2-VL-72B è un potente modello di linguaggio visivo, supporta l'elaborazione multimodale di immagini e testo, in grado di riconoscere con precisione il contenuto delle immagini e generare descrizioni o risposte correlate."
|
229
|
+
},
|
221
230
|
"Qwen2.5-14B-Instruct": {
|
222
231
|
"description": "Qwen2.5-14B-Instruct è un grande modello linguistico con 14 miliardi di parametri, con prestazioni eccellenti, ottimizzato per scenari in cinese e multilingue, supporta applicazioni di domande e risposte intelligenti, generazione di contenuti e altro."
|
223
232
|
},
|
@@ -230,6 +239,9 @@
|
|
230
239
|
"Qwen2.5-7B-Instruct": {
|
231
240
|
"description": "Qwen2.5-7B-Instruct è un grande modello linguistico con 7 miliardi di parametri, supporta chiamate di funzione e interazioni senza soluzione di continuità con sistemi esterni, aumentando notevolmente flessibilità e scalabilità. Ottimizzato per scenari in cinese e multilingue, supporta applicazioni di domande e risposte intelligenti, generazione di contenuti e altro."
|
232
241
|
},
|
242
|
+
"Qwen2.5-Coder-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-Coder-14B-Instruct è un modello di istruzioni per la programmazione basato su un pre-addestramento su larga scala, con potenti capacità di comprensione e generazione del codice, in grado di gestire in modo efficiente vari compiti di programmazione, particolarmente adatto per la scrittura intelligente di codice, la generazione di script automatizzati e la risoluzione di problemi di programmazione."
|
244
|
+
},
|
233
245
|
"Qwen2.5-Coder-32B-Instruct": {
|
234
246
|
"description": "Qwen2.5-Coder-32B-Instruct è un grande modello linguistico progettato per la generazione di codice, la comprensione del codice e scenari di sviluppo efficienti, con una scala di 32 miliardi di parametri all'avanguardia nel settore, in grado di soddisfare esigenze di programmazione diversificate."
|
235
247
|
},
|
@@ -458,9 +470,6 @@
|
|
458
470
|
"claude-3-sonnet-20240229": {
|
459
471
|
"description": "Claude 3 Sonnet offre un equilibrio ideale tra intelligenza e velocità per i carichi di lavoro aziendali. Fornisce la massima utilità a un prezzo inferiore, affidabile e adatto per distribuzioni su larga scala."
|
460
472
|
},
|
461
|
-
"code-raccoon-v1": {
|
462
|
-
"description": "Code Raccoon è un assistente intelligente per lo sviluppo software basato su un grande modello linguistico di SenseTime, copre fasi come analisi dei requisiti software, progettazione dell'architettura, scrittura del codice e test del software, soddisfacendo le esigenze degli utenti nella scrittura di codice e nell'apprendimento della programmazione. Code Raccoon supporta oltre 90 linguaggi di programmazione principali come Python, Java, JavaScript, C++, Go, SQL e IDE principali come VS Code, IntelliJ IDEA. Nelle applicazioni pratiche, Code Raccoon può aiutare gli sviluppatori a migliorare l'efficienza della programmazione di oltre il 50%."
|
463
|
-
},
|
464
473
|
"codegeex-4": {
|
465
474
|
"description": "CodeGeeX-4 è un potente assistente di programmazione AI, supporta domande intelligenti e completamento del codice in vari linguaggi di programmazione, migliorando l'efficienza dello sviluppo."
|
466
475
|
},
|
@@ -599,6 +608,9 @@
|
|
599
608
|
"gemini-2.0-flash-exp": {
|
600
609
|
"description": "Gemini 2.0 Flash Exp è il nuovo modello AI multimodale sperimentale di Google, dotato di funzionalità di nuova generazione, velocità straordinaria, chiamate di strumenti native e generazione multimodale."
|
601
610
|
},
|
611
|
+
"gemini-2.0-flash-thinking-exp-01-21": {
|
612
|
+
"description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di caratteristiche di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale."
|
613
|
+
},
|
602
614
|
"gemini-2.0-flash-thinking-exp-1219": {
|
603
615
|
"description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di funzionalità di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale."
|
604
616
|
},
|
@@ -671,6 +683,9 @@
|
|
671
683
|
"glm-4v-plus": {
|
672
684
|
"description": "GLM-4V-Plus ha la capacità di comprendere contenuti video e più immagini, adatto per compiti multimodali."
|
673
685
|
},
|
686
|
+
"glm-zero-preview": {
|
687
|
+
"description": "GLM-Zero-Preview possiede potenti capacità di ragionamento complesso, eccellendo nei campi del ragionamento logico, della matematica e della programmazione."
|
688
|
+
},
|
674
689
|
"google/gemini-flash-1.5": {
|
675
690
|
"description": "Gemini 1.5 Flash offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi."
|
676
691
|
},
|
@@ -1100,12 +1115,21 @@
|
|
1100
1115
|
"moonshot-v1-128k": {
|
1101
1116
|
"description": "Moonshot V1 128K è un modello con capacità di elaborazione di contesti ultra lunghi, adatto per generare testi molto lunghi, soddisfacendo le esigenze di compiti complessi, in grado di gestire contenuti fino a 128.000 token, particolarmente adatto per applicazioni di ricerca, accademiche e generazione di documenti di grandi dimensioni."
|
1102
1117
|
},
|
1118
|
+
"moonshot-v1-128k-vision-preview": {
|
1119
|
+
"description": "Il modello visivo Kimi (inclusi moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, ecc.) è in grado di comprendere il contenuto delle immagini, inclusi testo, colori e forme degli oggetti."
|
1120
|
+
},
|
1103
1121
|
"moonshot-v1-32k": {
|
1104
1122
|
"description": "Moonshot V1 32K offre capacità di elaborazione di contesti di lunghezza media, in grado di gestire 32.768 token, particolarmente adatto per generare vari documenti lunghi e dialoghi complessi, utilizzato in creazione di contenuti, generazione di report e sistemi di dialogo."
|
1105
1123
|
},
|
1124
|
+
"moonshot-v1-32k-vision-preview": {
|
1125
|
+
"description": "Il modello visivo Kimi (inclusi moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, ecc.) è in grado di comprendere il contenuto delle immagini, inclusi testo, colori e forme degli oggetti."
|
1126
|
+
},
|
1106
1127
|
"moonshot-v1-8k": {
|
1107
1128
|
"description": "Moonshot V1 8K è progettato per generare compiti di testo brevi, con prestazioni di elaborazione efficienti, in grado di gestire 8.192 token, particolarmente adatto per dialoghi brevi, appunti e generazione rapida di contenuti."
|
1108
1129
|
},
|
1130
|
+
"moonshot-v1-8k-vision-preview": {
|
1131
|
+
"description": "Il modello visivo Kimi (inclusi moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, ecc.) è in grado di comprendere il contenuto delle immagini, inclusi testo, colori e forme degli oggetti."
|
1132
|
+
},
|
1109
1133
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1110
1134
|
"description": "Hermes 2 Pro Llama 3 8B è una versione aggiornata di Nous Hermes 2, contenente i più recenti dataset sviluppati internamente."
|
1111
1135
|
},
|
@@ -1313,6 +1337,9 @@
|
|
1313
1337
|
"step-2-16k": {
|
1314
1338
|
"description": "Supporta interazioni di contesto su larga scala, adatto per scenari di dialogo complessi."
|
1315
1339
|
},
|
1340
|
+
"taichu2_mm": {
|
1341
|
+
"description": "Integra capacità di comprensione delle immagini, trasferimento di conoscenze, attribuzione logica, ecc., e si distingue nel campo delle domande e risposte basate su testo e immagini."
|
1342
|
+
},
|
1316
1343
|
"taichu_llm": {
|
1317
1344
|
"description": "Il modello linguistico Taichu di Zīdōng ha una straordinaria capacità di comprensione del linguaggio e abilità in creazione di testi, domande di conoscenza, programmazione, calcoli matematici, ragionamento logico, analisi del sentimento e sintesi di testi. Combina in modo innovativo il pre-addestramento su grandi dati con una ricca conoscenza multi-sorgente, affinando continuamente la tecnologia degli algoritmi e assorbendo costantemente nuove conoscenze da dati testuali massivi, migliorando continuamente le prestazioni del modello. Fornisce agli utenti informazioni e servizi più convenienti e un'esperienza più intelligente."
|
1318
1345
|
},
|
@@ -17,6 +17,9 @@
|
|
17
17
|
"360gpt-turbo-responsibility-8k": {
|
18
18
|
"description": "360GPT Turbo Responsibility 8Kは意味の安全性と責任指向を強調し、コンテンツの安全性に高い要求を持つアプリケーションシーンのために設計されており、ユーザー体験の正確性と堅牢性を確保します。"
|
19
19
|
},
|
20
|
+
"360gpt2-o1": {
|
21
|
+
"description": "360gpt2-o1は、ツリーサーチを使用して思考の連鎖を構築し、反省メカニズムを導入し、強化学習で訓練されたモデルであり、自己反省と誤り訂正の能力を備えています。"
|
22
|
+
},
|
20
23
|
"360gpt2-pro": {
|
21
24
|
"description": "360GPT2 Proは360社が発表した高級自然言語処理モデルで、卓越したテキスト生成と理解能力を備え、特に生成と創作の分野で優れたパフォーマンスを発揮し、複雑な言語変換や役割演技タスクを処理できます。"
|
22
25
|
},
|
@@ -110,6 +113,9 @@
|
|
110
113
|
"LoRA/Qwen/Qwen2.5-7B-Instruct": {
|
111
114
|
"description": "Qwen2.5-7B-InstructはAlibaba Cloudが発表した最新の大規模言語モデルシリーズの一つです。この7Bモデルはコーディングや数学などの分野で顕著な能力の改善を持っています。このモデルは29以上の言語をカバーする多言語サポートも提供しており、中国語、英語などが含まれています。モデルは指示の遵守、構造化データの理解、特にJSONのような構造化出力の生成において顕著な向上を示しています。"
|
112
115
|
},
|
116
|
+
"MiniMax-Text-01": {
|
117
|
+
"description": "MiniMax-01シリーズモデルでは、大胆な革新を行いました:初めて大規模に線形注意メカニズムを実現し、従来のTransformerアーキテクチャが唯一の選択肢ではなくなりました。このモデルのパラメータ数は4560億に達し、単回のアクティベーションは459億です。モデルの総合性能は海外のトップモデルに匹敵し、世界最長の400万トークンのコンテキストを効率的に処理でき、GPT-4oの32倍、Claude-3.5-Sonnetの20倍です。"
|
118
|
+
},
|
113
119
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
114
120
|
"description": "Hermes 2 Mixtral 8x7B DPOは非常に柔軟なマルチモデル統合で、卓越した創造的体験を提供することを目的としています。"
|
115
121
|
},
|
@@ -218,6 +224,9 @@
|
|
218
224
|
"Qwen2-7B-Instruct": {
|
219
225
|
"description": "Qwen2はQwenモデルの最新シリーズで、同等の規模の最適なオープンソースモデルやそれ以上の規模のモデルを超えることができ、Qwen2 7Bは複数の評価で顕著な優位性を示し、特にコードと中国語理解において優れています。"
|
220
226
|
},
|
227
|
+
"Qwen2-VL-72B": {
|
228
|
+
"description": "Qwen2-VL-72Bは、強力な視覚言語モデルであり、画像とテキストのマルチモーダル処理をサポートし、画像の内容を正確に認識し、関連する説明や回答を生成できます。"
|
229
|
+
},
|
221
230
|
"Qwen2.5-14B-Instruct": {
|
222
231
|
"description": "Qwen2.5-14B-Instructは、140億パラメータの大規模言語モデルで、優れたパフォーマンスを発揮し、中国語と多言語シーンを最適化し、インテリジェントQ&A、コンテンツ生成などのアプリケーションをサポートします。"
|
223
232
|
},
|
@@ -230,6 +239,9 @@
|
|
230
239
|
"Qwen2.5-7B-Instruct": {
|
231
240
|
"description": "Qwen2.5-7B-Instructは、70億パラメータの大規模言語モデルで、関数呼び出しと外部システムとのシームレスなインタラクションをサポートし、柔軟性と拡張性を大幅に向上させます。中国語と多言語シーンを最適化し、インテリジェントQ&A、コンテンツ生成などのアプリケーションをサポートします。"
|
232
241
|
},
|
242
|
+
"Qwen2.5-Coder-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-Coder-14B-Instructは、大規模な事前学習に基づくプログラミング指示モデルであり、強力なコード理解と生成能力を持ち、さまざまなプログラミングタスクを効率的に処理でき、特にスマートコード作成、自動化スクリプト生成、プログラミング問題の解決に適しています。"
|
244
|
+
},
|
233
245
|
"Qwen2.5-Coder-32B-Instruct": {
|
234
246
|
"description": "Qwen2.5-Coder-32B-Instructは、コード生成、コード理解、効率的な開発シーンのために設計された大規模言語モデルで、業界をリードする32Bパラメータ規模を採用しており、多様なプログラミングニーズに応えます。"
|
235
247
|
},
|
@@ -458,9 +470,6 @@
|
|
458
470
|
"claude-3-sonnet-20240229": {
|
459
471
|
"description": "Claude 3 Sonnetは、企業のワークロードに理想的なバランスを提供し、より低価格で最大の効用を提供し、信頼性が高く、大規模な展開に適しています。"
|
460
472
|
},
|
461
|
-
"code-raccoon-v1": {
|
462
|
-
"description": "コード小浣熊は、商湯の大規模言語モデルに基づくソフトウェアインテリジェント開発アシスタントで、ソフトウェア要件分析、アーキテクチャ設計、コード作成、ソフトウェアテストなどのプロセスをカバーし、ユーザーのコード作成やプログラミング学習などのさまざまなニーズに応えます。コード小浣熊は、Python、Java、JavaScript、C++、Go、SQLなど90以上の主流プログラミング言語と、VS Code、IntelliJ IDEAなどの主流IDEをサポートしています。実際のアプリケーションでは、コード小浣熊は開発者のプログラミング効率を50%以上向上させることができます。"
|
463
|
-
},
|
464
473
|
"codegeex-4": {
|
465
474
|
"description": "CodeGeeX-4は強力なAIプログラミングアシスタントで、さまざまなプログラミング言語のインテリジェントな質問応答とコード補完をサポートし、開発効率を向上させます。"
|
466
475
|
},
|
@@ -599,6 +608,9 @@
|
|
599
608
|
"gemini-2.0-flash-exp": {
|
600
609
|
"description": "Gemini 2.0 Flash Exp は、Google の最新の実験的なマルチモーダル AI モデルで、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。"
|
601
610
|
},
|
611
|
+
"gemini-2.0-flash-thinking-exp-01-21": {
|
612
|
+
"description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルであり、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。"
|
613
|
+
},
|
602
614
|
"gemini-2.0-flash-thinking-exp-1219": {
|
603
615
|
"description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルで、次世代の機能、卓越した速度、ネイティブツールの呼び出し、そしてマルチモーダル生成を備えています。"
|
604
616
|
},
|
@@ -671,6 +683,9 @@
|
|
671
683
|
"glm-4v-plus": {
|
672
684
|
"description": "GLM-4V-Plusは動画コンテンツや複数の画像を理解する能力を持ち、マルチモーダルタスクに適しています。"
|
673
685
|
},
|
686
|
+
"glm-zero-preview": {
|
687
|
+
"description": "GLM-Zero-Previewは、強力な複雑な推論能力を備え、論理推論、数学、プログラミングなどの分野で優れたパフォーマンスを発揮します。"
|
688
|
+
},
|
674
689
|
"google/gemini-flash-1.5": {
|
675
690
|
"description": "Gemini 1.5 Flashは、最適化されたマルチモーダル処理能力を提供し、さまざまな複雑なタスクシナリオに適しています。"
|
676
691
|
},
|
@@ -1100,12 +1115,21 @@
|
|
1100
1115
|
"moonshot-v1-128k": {
|
1101
1116
|
"description": "Moonshot V1 128Kは、超長いコンテキスト処理能力を持つモデルであり、超長文の生成に適しており、複雑な生成タスクのニーズを満たし、最大128,000トークンの内容を処理でき、研究、学術、大型文書生成などのアプリケーションシーンに非常に適しています。"
|
1102
1117
|
},
|
1118
|
+
"moonshot-v1-128k-vision-preview": {
|
1119
|
+
"description": "Kimi視覚モデル(moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-previewなどを含む)は、画像の内容を理解でき、画像の文字、色、物体の形状などを含みます。"
|
1120
|
+
},
|
1103
1121
|
"moonshot-v1-32k": {
|
1104
1122
|
"description": "Moonshot V1 32Kは、中程度の長さのコンテキスト処理能力を提供し、32,768トークンを処理でき、さまざまな長文や複雑な対話の生成に特に適しており、コンテンツ作成、報告書生成、対話システムなどの分野で使用されます。"
|
1105
1123
|
},
|
1124
|
+
"moonshot-v1-32k-vision-preview": {
|
1125
|
+
"description": "Kimi視覚モデル(moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-previewなどを含む)は、画像の内容を理解でき、画像の文字、色、物体の形状などを含みます。"
|
1126
|
+
},
|
1106
1127
|
"moonshot-v1-8k": {
|
1107
1128
|
"description": "Moonshot V1 8Kは、短文生成タスクのために設計されており、高効率な処理性能を持ち、8,192トークンを処理でき、短い対話、速記、迅速なコンテンツ生成に非常に適しています。"
|
1108
1129
|
},
|
1130
|
+
"moonshot-v1-8k-vision-preview": {
|
1131
|
+
"description": "Kimi視覚モデル(moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-previewなどを含む)は、画像の内容を理解でき、画像の文字、色、物体の形状などを含みます。"
|
1132
|
+
},
|
1109
1133
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1110
1134
|
"description": "Hermes 2 Pro Llama 3 8BはNous Hermes 2のアップグレード版で、最新の内部開発データセットを含んでいます。"
|
1111
1135
|
},
|
@@ -1313,6 +1337,9 @@
|
|
1313
1337
|
"step-2-16k": {
|
1314
1338
|
"description": "大規模なコンテキストインタラクションをサポートし、複雑な対話シナリオに適しています。"
|
1315
1339
|
},
|
1340
|
+
"taichu2_mm": {
|
1341
|
+
"description": "画像理解、知識移転、論理帰納などの能力を融合し、画像とテキストの質問応答分野で優れたパフォーマンスを発揮します。"
|
1342
|
+
},
|
1316
1343
|
"taichu_llm": {
|
1317
1344
|
"description": "紫東太初言語大モデルは、強力な言語理解能力とテキスト創作、知識問答、コードプログラミング、数学計算、論理推論、感情分析、テキスト要約などの能力を備えています。革新的に大データの事前学習と多源の豊富な知識を組み合わせ、アルゴリズム技術を継続的に磨き、膨大なテキストデータから語彙、構造、文法、意味などの新しい知識を吸収し、モデルの効果を進化させています。ユーザーにより便利な情報とサービス、よりインテリジェントな体験を提供します。"
|
1318
1345
|
},
|