@lobehub/chat 1.47.17 → 1.47.18
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/modelProvider.json +1 -0
- package/locales/ar/models.json +30 -3
- package/locales/bg-BG/modelProvider.json +1 -0
- package/locales/bg-BG/models.json +30 -3
- package/locales/de-DE/modelProvider.json +1 -0
- package/locales/de-DE/models.json +30 -3
- package/locales/en-US/modelProvider.json +1 -0
- package/locales/en-US/models.json +30 -3
- package/locales/es-ES/modelProvider.json +1 -0
- package/locales/es-ES/models.json +30 -3
- package/locales/fa-IR/modelProvider.json +1 -0
- package/locales/fa-IR/models.json +30 -3
- package/locales/fr-FR/modelProvider.json +1 -0
- package/locales/fr-FR/models.json +30 -3
- package/locales/it-IT/modelProvider.json +1 -0
- package/locales/it-IT/models.json +30 -3
- package/locales/ja-JP/modelProvider.json +1 -0
- package/locales/ja-JP/models.json +30 -3
- package/locales/ko-KR/modelProvider.json +1 -0
- package/locales/ko-KR/models.json +30 -3
- package/locales/nl-NL/modelProvider.json +1 -0
- package/locales/nl-NL/models.json +30 -3
- package/locales/pl-PL/modelProvider.json +1 -0
- package/locales/pl-PL/models.json +30 -3
- package/locales/pt-BR/modelProvider.json +1 -0
- package/locales/pt-BR/models.json +30 -3
- package/locales/ru-RU/modelProvider.json +1 -0
- package/locales/ru-RU/models.json +30 -3
- package/locales/tr-TR/modelProvider.json +1 -0
- package/locales/tr-TR/models.json +30 -3
- package/locales/vi-VN/modelProvider.json +1 -0
- package/locales/vi-VN/models.json +30 -3
- package/locales/zh-CN/modelProvider.json +2 -1
- package/locales/zh-CN/models.json +32 -5
- package/locales/zh-TW/modelProvider.json +1 -0
- package/locales/zh-TW/models.json +30 -3
- package/package.json +1 -1
- package/src/app/(main)/settings/provider/(detail)/azure/page.tsx +4 -6
- package/src/app/(main)/settings/provider/(detail)/bedrock/page.tsx +5 -4
- package/src/app/(main)/settings/provider/(detail)/cloudflare/page.tsx +3 -3
- package/src/app/(main)/settings/provider/(detail)/github/page.tsx +2 -2
- package/src/app/(main)/settings/provider/(detail)/huggingface/page.tsx +2 -2
- package/src/app/(main)/settings/provider/(detail)/wenxin/page.tsx +3 -3
- package/src/app/(main)/settings/provider/features/ProviderConfig/index.tsx +17 -4
- package/src/components/FormInput/FormInput.tsx +42 -0
- package/src/components/FormInput/FormPassword.tsx +42 -0
- package/src/components/FormInput/index.ts +2 -0
- package/src/config/modelProviders/deepseek.ts +3 -0
- package/src/locales/default/modelProvider.ts +1 -0
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,31 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.47.18](https://github.com/lobehub/lobe-chat/compare/v1.47.17...v1.47.18)
|
6
|
+
|
7
|
+
<sup>Released on **2025-01-23**</sup>
|
8
|
+
|
9
|
+
#### 🐛 Bug Fixes
|
10
|
+
|
11
|
+
- **misc**: Fix debounce issue of provider config.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### What's fixed
|
19
|
+
|
20
|
+
- **misc**: Fix debounce issue of provider config, closes [#5557](https://github.com/lobehub/lobe-chat/issues/5557) ([c971530](https://github.com/lobehub/lobe-chat/commit/c971530))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
5
30
|
### [Version 1.47.17](https://github.com/lobehub/lobe-chat/compare/v1.47.16...v1.47.17)
|
6
31
|
|
7
32
|
<sup>Released on **2025-01-22**</sup>
|
package/changelog/v1.json
CHANGED
package/locales/ar/models.json
CHANGED
@@ -17,6 +17,9 @@
|
|
17
17
|
"360gpt-turbo-responsibility-8k": {
|
18
18
|
"description": "360GPT Turbo Responsibility 8K يركز على الأمان الدلالي والتوجيه المسؤول، مصمم خصيصًا لتطبيقات تتطلب مستوى عالٍ من الأمان في المحتوى، مما يضمن دقة وموثوقية تجربة المستخدم."
|
19
19
|
},
|
20
|
+
"360gpt2-o1": {
|
21
|
+
"description": "يستخدم 360gpt2-o1 البحث الشجري لبناء سلسلة التفكير، ويقدم آلية للتفكير العميق، ويستخدم التعلم المعزز للتدريب، مما يمنح النموذج القدرة على التفكير الذاتي وتصحيح الأخطاء."
|
22
|
+
},
|
20
23
|
"360gpt2-pro": {
|
21
24
|
"description": "360GPT2 Pro هو نموذج متقدم لمعالجة اللغة الطبيعية تم إطلاقه من قبل شركة 360، يتمتع بقدرات استثنائية في توليد وفهم النصوص، خاصة في مجالات التوليد والإبداع، ويستطيع التعامل مع مهام تحويل اللغة المعقدة وأداء الأدوار."
|
22
25
|
},
|
@@ -110,6 +113,9 @@
|
|
110
113
|
"LoRA/Qwen/Qwen2.5-7B-Instruct": {
|
111
114
|
"description": "Qwen2.5-7B-Instruct هو أحد أحدث نماذج اللغة الكبيرة التي أصدرتها Alibaba Cloud. يتمتع هذا النموذج بقدرات محسنة بشكل ملحوظ في مجالات الترميز والرياضيات. كما يوفر دعمًا للغات متعددة، تغطي أكثر من 29 لغة، بما في ذلك الصينية والإنجليزية. أظهر النموذج تحسينات ملحوظة في اتباع التعليمات، وفهم البيانات الهيكلية، وتوليد المخرجات الهيكلية (خاصة JSON)."
|
112
115
|
},
|
116
|
+
"MiniMax-Text-01": {
|
117
|
+
"description": "في سلسلة نماذج MiniMax-01، قمنا بإجراء ابتكارات جريئة: تم تنفيذ آلية الانتباه الخطي على نطاق واسع لأول مرة، لم يعد هيكل Transformer التقليدي هو الخيار الوحيد. يصل عدد معلمات هذا النموذج إلى 456 مليار، مع تنشيط واحد يصل إلى 45.9 مليار. الأداء الشامل للنموذج يتساوى مع النماذج الرائدة في الخارج، بينما يمكنه معالجة سياقات تصل إلى 4 ملايين توكن، وهو 32 مرة من GPT-4o و20 مرة من Claude-3.5-Sonnet."
|
118
|
+
},
|
113
119
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
114
120
|
"description": "Hermes 2 Mixtral 8x7B DPO هو دمج متعدد النماذج مرن للغاية، يهدف إلى تقديم تجربة إبداعية ممتازة."
|
115
121
|
},
|
@@ -218,6 +224,9 @@
|
|
218
224
|
"Qwen2-7B-Instruct": {
|
219
225
|
"description": "Qwen2 هو أحدث سلسلة من نموذج Qwen، قادر على التفوق على النماذج مفتوحة المصدر ذات الحجم المماثل أو حتى النماذج الأكبر حجمًا، حقق Qwen2 7B مزايا ملحوظة في عدة تقييمات، خاصة في فهم الترميز والصينية."
|
220
226
|
},
|
227
|
+
"Qwen2-VL-72B": {
|
228
|
+
"description": "Qwen2-VL-72B هو نموذج قوي للغة البصرية، يدعم المعالجة متعددة الوسائط للصورة والنص، ويستطيع التعرف بدقة على محتوى الصورة وتوليد أوصاف أو إجابات ذات صلة."
|
229
|
+
},
|
221
230
|
"Qwen2.5-14B-Instruct": {
|
222
231
|
"description": "Qwen2.5-14B-Instruct هو نموذج لغوي كبير يحتوي على 14 مليار معلمة، يتميز بأداء ممتاز، تم تحسينه لمشاهد اللغة الصينية واللغات المتعددة، ويدعم التطبيقات مثل الأسئلة الذكية وتوليد المحتوى."
|
223
232
|
},
|
@@ -230,6 +239,9 @@
|
|
230
239
|
"Qwen2.5-7B-Instruct": {
|
231
240
|
"description": "Qwen2.5-7B-Instruct هو نموذج لغوي كبير يحتوي على 7 مليارات معلمة، يدعم الاتصال الوظيفي مع الأنظمة الخارجية بسلاسة، مما يعزز المرونة وقابلية التوسع بشكل كبير. تم تحسينه لمشاهد اللغة الصينية واللغات المتعددة، ويدعم التطبيقات مثل الأسئلة الذكية وتوليد المحتوى."
|
232
241
|
},
|
242
|
+
"Qwen2.5-Coder-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-Coder-14B-Instruct هو نموذج تعليمات برمجة قائم على تدريب مسبق واسع النطاق، يتمتع بقدرة قوية على فهم وتوليد الشيفرات، مما يجعله فعالاً في معالجة مختلف مهام البرمجة، وخاصة كتابة الشيفرات الذكية، وتوليد السكربتات الآلية، وحل مشكلات البرمجة."
|
244
|
+
},
|
233
245
|
"Qwen2.5-Coder-32B-Instruct": {
|
234
246
|
"description": "Qwen2.5-Coder-32B-Instruct هو نموذج لغوي كبير مصمم خصيصًا لتوليد الشيفرات، وفهم الشيفرات، ومشاهد التطوير الفعالة، مع استخدام حجم 32B من المعلمات الرائدة في الصناعة، مما يلبي احتياجات البرمجة المتنوعة."
|
235
247
|
},
|
@@ -458,9 +470,6 @@
|
|
458
470
|
"claude-3-sonnet-20240229": {
|
459
471
|
"description": "Claude 3 Sonnet يوفر توازنًا مثاليًا بين الذكاء والسرعة لحمولات العمل المؤسسية. يقدم أقصى فائدة بسعر أقل، موثوق ومناسب للنشر على نطاق واسع."
|
460
472
|
},
|
461
|
-
"code-raccoon-v1": {
|
462
|
-
"description": "كود راكون هو مساعد ذكي لتطوير البرمجيات يعتمد على نموذج اللغة الكبير من SenseTime، يغطي مراحل تحليل متطلبات البرمجيات، وتصميم الهيكل، وكتابة الشيفرات، واختبار البرمجيات، لتلبية احتياجات المستخدمين في كتابة الشيفرات، وتعلم البرمجة، وغيرها من المتطلبات. يدعم كود راكون أكثر من 90 لغة برمجة رئيسية مثل Python وJava وJavaScript وC++ وGo وSQL، بالإضافة إلى IDEs الرئيسية مثل VS Code وIntelliJ IDEA. في التطبيقات العملية، يمكن أن يساعد كود راكون المطورين في زيادة كفاءة البرمجة بأكثر من 50%."
|
463
|
-
},
|
464
473
|
"codegeex-4": {
|
465
474
|
"description": "CodeGeeX-4 هو مساعد برمجي قوي، يدعم مجموعة متنوعة من لغات البرمجة في الإجابة الذكية وإكمال الشيفرة، مما يعزز من كفاءة التطوير."
|
466
475
|
},
|
@@ -599,6 +608,9 @@
|
|
599
608
|
"gemini-2.0-flash-exp": {
|
600
609
|
"description": "جيميناي 2.0 فلاش إكسب هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من جوجل، يتمتع بميزات الجيل القادم، وسرعة فائقة، واستدعاء أدوات أصلية، وتوليد متعدد الوسائط."
|
601
610
|
},
|
611
|
+
"gemini-2.0-flash-thinking-exp-01-21": {
|
612
|
+
"description": "Gemini 2.0 Flash Exp هو أحدث نموذج تجريبي متعدد الوسائط من Google، يتمتع بميزات الجيل التالي، وسرعة فائقة، واستدعاء أدوات أصلية، وتوليد متعدد الوسائط."
|
613
|
+
},
|
602
614
|
"gemini-2.0-flash-thinking-exp-1219": {
|
603
615
|
"description": "Gemini 2.0 Flash Exp هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط التجريبي من Google، يتميز بخصائص الجيل التالي، وسرعة فائقة، واستدعاء أدوات أصلية، وتوليد متعدد الوسائط."
|
604
616
|
},
|
@@ -671,6 +683,9 @@
|
|
671
683
|
"glm-4v-plus": {
|
672
684
|
"description": "GLM-4V-Plus يتمتع بقدرة على فهم محتوى الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط."
|
673
685
|
},
|
686
|
+
"glm-zero-preview": {
|
687
|
+
"description": "يمتلك GLM-Zero-Preview قدرة قوية على الاستدلال المعقد، ويظهر أداءً ممتازًا في مجالات الاستدلال المنطقي، والرياضيات، والبرمجة."
|
688
|
+
},
|
674
689
|
"google/gemini-flash-1.5": {
|
675
690
|
"description": "يقدم Gemini 1.5 Flash قدرات معالجة متعددة الوسائط محسّنة، مناسبة لمجموعة متنوعة من سيناريوهات المهام المعقدة."
|
676
691
|
},
|
@@ -1100,12 +1115,21 @@
|
|
1100
1115
|
"moonshot-v1-128k": {
|
1101
1116
|
"description": "Moonshot V1 128K هو نموذج يتمتع بقدرة معالجة سياقات طويلة جدًا، مناسب لتوليد نصوص طويلة جدًا، يلبي احتياجات المهام المعقدة، قادر على معالجة ما يصل إلى 128,000 توكن، مما يجعله مثاليًا للبحث، والأكاديميات، وتوليد الوثائق الكبيرة."
|
1102
1117
|
},
|
1118
|
+
"moonshot-v1-128k-vision-preview": {
|
1119
|
+
"description": "نموذج Kimi البصري (بما في ذلك moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview وغيرها) قادر على فهم محتوى الصور، بما في ذلك النصوص والألوان وأشكال الأجسام."
|
1120
|
+
},
|
1103
1121
|
"moonshot-v1-32k": {
|
1104
1122
|
"description": "Moonshot V1 32K يوفر قدرة معالجة سياقات متوسطة الطول، قادر على معالجة 32,768 توكن، مناسب بشكل خاص لتوليد مجموعة متنوعة من الوثائق الطويلة والحوار المعقد، ويستخدم في إنشاء المحتوى، وتوليد التقارير، وأنظمة الحوار."
|
1105
1123
|
},
|
1124
|
+
"moonshot-v1-32k-vision-preview": {
|
1125
|
+
"description": "نموذج Kimi البصري (بما في ذلك moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview وغيرها) قادر على فهم محتوى الصور، بما في ذلك النصوص والألوان وأشكال الأجسام."
|
1126
|
+
},
|
1106
1127
|
"moonshot-v1-8k": {
|
1107
1128
|
"description": "Moonshot V1 8K مصمم خصيصًا لتوليد مهام النصوص القصيرة، يتمتع بأداء معالجة فعال، قادر على معالجة 8,192 توكن، مما يجعله مثاليًا للحوار القصير، والتدوين السريع، وتوليد المحتوى السريع."
|
1108
1129
|
},
|
1130
|
+
"moonshot-v1-8k-vision-preview": {
|
1131
|
+
"description": "نموذج Kimi البصري (بما في ذلك moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview وغيرها) قادر على فهم محتوى الصور، بما في ذلك النصوص والألوان وأشكال الأجسام."
|
1132
|
+
},
|
1109
1133
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1110
1134
|
"description": "Hermes 2 Pro Llama 3 8B هو إصدار مطور من Nous Hermes 2، ويحتوي على أحدث مجموعات البيانات المطورة داخليًا."
|
1111
1135
|
},
|
@@ -1313,6 +1337,9 @@
|
|
1313
1337
|
"step-2-16k": {
|
1314
1338
|
"description": "يدعم تفاعلات سياق كبيرة، مناسب لمشاهد الحوار المعقدة."
|
1315
1339
|
},
|
1340
|
+
"taichu2_mm": {
|
1341
|
+
"description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويظهر أداءً بارزًا في مجال الأسئلة والأجوبة النصية والصورية."
|
1342
|
+
},
|
1316
1343
|
"taichu_llm": {
|
1317
1344
|
"description": "نموذج اللغة الكبير TaiChu يتمتع بقدرات قوية في فهم اللغة، بالإضافة إلى إنشاء النصوص، والإجابة على الأسئلة، وبرمجة الأكواد، والحسابات الرياضية، والاستدلال المنطقي، وتحليل المشاعر، وتلخيص النصوص. يجمع بشكل مبتكر بين التدريب المسبق على البيانات الضخمة والمعرفة الغنية من مصادر متعددة، من خلال تحسين تقنيات الخوارزميات باستمرار واستيعاب المعرفة الجديدة من البيانات النصية الضخمة، مما يحقق تطورًا مستمرًا في أداء النموذج. يوفر للمستخدمين معلومات وخدمات أكثر سهولة وتجربة أكثر ذكاءً."
|
1318
1345
|
},
|
@@ -17,6 +17,9 @@
|
|
17
17
|
"360gpt-turbo-responsibility-8k": {
|
18
18
|
"description": "360GPT Turbo Responsibility 8K акцентира на семантичната безопасност и отговорността, проектиран специално за приложения с високи изисквания за безопасност на съдържанието, осигурявайки точност и стабилност на потребителското изживяване."
|
19
19
|
},
|
20
|
+
"360gpt2-o1": {
|
21
|
+
"description": "360gpt2-o1 използва дървесно търсене за изграждане на вериги от мисли и въвежда механизъм за размисъл, обучен чрез подсилено учене, моделът притежава способността за саморазмисъл и корекция на грешки."
|
22
|
+
},
|
20
23
|
"360gpt2-pro": {
|
21
24
|
"description": "360GPT2 Pro е усъвършенстван модел за обработка на естествен език, пуснат от компания 360, с изключителни способности за генериране и разбиране на текст, особено в областта на генерирането и творчеството, способен да обработва сложни езикови трансформации и ролеви игри."
|
22
25
|
},
|
@@ -110,6 +113,9 @@
|
|
110
113
|
"LoRA/Qwen/Qwen2.5-7B-Instruct": {
|
111
114
|
"description": "Qwen2.5-7B-Instruct е един от най-новите големи езикови модели, публикувани от Alibaba Cloud. Този 7B модел показва значителни подобрения в областите на кодирането и математиката. Моделът предлага многоезична поддръжка, обхващаща над 29 езика, включително китайски, английски и др. Моделът показва значителни подобрения в следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON)."
|
112
115
|
},
|
116
|
+
"MiniMax-Text-01": {
|
117
|
+
"description": "В серията модели MiniMax-01 направихме смели иновации: за първи път реализирахме мащабно линейно внимание, традиционната архитектура на Transformer вече не е единственият избор. Параметрите на този модел достигат 4560 милиарда, с единична активация от 45.9 милиарда. Общата производителност на модела е на нивото на водещите модели в чужбина, като същевременно ефективно обработва глобалния контекст от 4 милиона токена, което е 32 пъти повече от GPT-4o и 20 пъти повече от Claude-3.5-Sonnet."
|
118
|
+
},
|
113
119
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
114
120
|
"description": "Hermes 2 Mixtral 8x7B DPO е високо гъвкава многомоделна комбинация, предназначена да предостави изключителен креативен опит."
|
115
121
|
},
|
@@ -218,6 +224,9 @@
|
|
218
224
|
"Qwen2-7B-Instruct": {
|
219
225
|
"description": "Qwen2 е най-новата серия на модела Qwen, способен да надмине оптималните отворени модели с равен размер или дори по-големи модели. Qwen2 7B постига значителни предимства в множество тестове, особено в разбирането на код и китайския език."
|
220
226
|
},
|
227
|
+
"Qwen2-VL-72B": {
|
228
|
+
"description": "Qwen2-VL-72B е мощен визуален езиков модел, който поддържа многомодално обработване на изображения и текст, способен точно да разпознава съдържанието на изображения и да генерира свързани описания или отговори."
|
229
|
+
},
|
221
230
|
"Qwen2.5-14B-Instruct": {
|
222
231
|
"description": "Qwen2.5-14B-Instruct е голям езиков модел с 14 милиарда параметри, с отлично представяне, оптимизиран за китайски и многоезични сценарии, поддържа интелигентни въпроси и отговори, генериране на съдържание и други приложения."
|
223
232
|
},
|
@@ -230,6 +239,9 @@
|
|
230
239
|
"Qwen2.5-7B-Instruct": {
|
231
240
|
"description": "Qwen2.5-7B-Instruct е голям езиков модел с 7 милиарда параметри, който поддържа безпроблемно взаимодействие с функции и външни системи, значително увеличавайки гъвкавостта и разширяемостта. Оптимизиран за китайски и многоезични сценарии, поддържа интелигентни въпроси и отговори, генериране на съдържание и други приложения."
|
232
241
|
},
|
242
|
+
"Qwen2.5-Coder-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-Coder-14B-Instruct е модел за програмиране, базиран на мащабно предварително обучение, с мощни способности за разбиране и генериране на код, способен ефективно да обработва различни програмни задачи, особено подходящ за интелигентно писане на код, автоматично генериране на скриптове и отговори на програмни въпроси."
|
244
|
+
},
|
233
245
|
"Qwen2.5-Coder-32B-Instruct": {
|
234
246
|
"description": "Qwen2.5-Coder-32B-Instruct е голям езиков модел, проектиран специално за генериране на код, разбиране на код и ефективни сценарии за разработка, с водеща в индустрията параметрична стойност от 32B, способен да отговори на разнообразни програмни нужди."
|
235
247
|
},
|
@@ -458,9 +470,6 @@
|
|
458
470
|
"claude-3-sonnet-20240229": {
|
459
471
|
"description": "Claude 3 Sonnet предлага идеален баланс между интелигентност и скорост за корпоративни работни натоварвания. Той предлага максимална полезност на по-ниска цена, надежден и подходящ за мащабно внедряване."
|
460
472
|
},
|
461
|
-
"code-raccoon-v1": {
|
462
|
-
"description": "Кодово енотче е софтуерен интелигентен помощник за разработка, базиран на голям езиков модел на SenseTime, обхващащ етапите на анализ на софтуерни изисквания, проектиране на архитектура, писане на код и софтуерно тестване, отговарящ на нуждите на потребителите за писане на код и обучение по програмиране. Кодово енотче поддържа над 90 основни програмни езика, включително Python, Java, JavaScript, C++, Go, SQL и основни IDE като VS Code и IntelliJ IDEA. В практическото приложение, Кодово енотче може да помогне на разработчиците да увеличат ефективността на програмирането с над 50%."
|
463
|
-
},
|
464
473
|
"codegeex-4": {
|
465
474
|
"description": "CodeGeeX-4 е мощен AI помощник за програмиране, който поддържа интелигентни въпроси и отговори и автоматично допълване на код за различни програмни езици, повишавайки ефективността на разработката."
|
466
475
|
},
|
@@ -599,6 +608,9 @@
|
|
599
608
|
"gemini-2.0-flash-exp": {
|
600
609
|
"description": "Gemini 2.0 Flash Exp е най-новият експериментален мултимодален AI модел на Google, предлагащ следващо поколение функции, изключителна скорост, нативно извикване на инструменти и мултимодално генериране."
|
601
610
|
},
|
611
|
+
"gemini-2.0-flash-thinking-exp-01-21": {
|
612
|
+
"description": "Gemini 2.0 Flash Exp е най-новият експериментален многомодален AI модел на Google, с ново поколение функции, изключителна скорост, нативно извикване на инструменти и многомодално генериране."
|
613
|
+
},
|
602
614
|
"gemini-2.0-flash-thinking-exp-1219": {
|
603
615
|
"description": "Gemini 2.0 Flash Exp е най-новият експериментален мултимодален AI модел на Google, с ново поколение функции, изключителна скорост, нативни инструменти за извикване и мултимодално генериране."
|
604
616
|
},
|
@@ -671,6 +683,9 @@
|
|
671
683
|
"glm-4v-plus": {
|
672
684
|
"description": "GLM-4V-Plus разполага с разбиране на видео съдържание и множество изображения, подходящ за мултимодални задачи."
|
673
685
|
},
|
686
|
+
"glm-zero-preview": {
|
687
|
+
"description": "GLM-Zero-Preview притежава мощни способности за сложни разсъждения, показвайки отлични резултати в логическото разсъждение, математиката и програмирането."
|
688
|
+
},
|
674
689
|
"google/gemini-flash-1.5": {
|
675
690
|
"description": "Gemini 1.5 Flash предлага оптимизирани мултимодални обработващи способности, подходящи за различни сложни задачи."
|
676
691
|
},
|
@@ -1100,12 +1115,21 @@
|
|
1100
1115
|
"moonshot-v1-128k": {
|
1101
1116
|
"description": "Moonshot V1 128K е модел с изключителна способност за обработка на дълги контексти, подходящ за генериране на много дълги текстове, отговарящи на сложни изисквания за генериране, способен да обработва до 128,000 токена, особено подходящ за научни изследвания, академични и генериране на големи документи."
|
1102
1117
|
},
|
1118
|
+
"moonshot-v1-128k-vision-preview": {
|
1119
|
+
"description": "Визуалният модел Kimi (включително moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview и др.) може да разбира съдържанието на изображения, включително текст в изображения, цветове и форми на обекти."
|
1120
|
+
},
|
1103
1121
|
"moonshot-v1-32k": {
|
1104
1122
|
"description": "Moonshot V1 32K предлага средна дължина на контекста, способен да обработва 32,768 токена, особено подходящ за генериране на различни дълги документи и сложни диалози, използван в области като създаване на съдържание, генериране на отчети и диалогови системи."
|
1105
1123
|
},
|
1124
|
+
"moonshot-v1-32k-vision-preview": {
|
1125
|
+
"description": "Визуалният модел Kimi (включително moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview и др.) може да разбира съдържанието на изображения, включително текст в изображения, цветове и форми на обекти."
|
1126
|
+
},
|
1106
1127
|
"moonshot-v1-8k": {
|
1107
1128
|
"description": "Moonshot V1 8K е проектиран за генериране на кратки текстови задачи, с ефективна производителност, способен да обработва 8,192 токена, особено подходящ за кратки диалози, бележки и бързо генериране на съдържание."
|
1108
1129
|
},
|
1130
|
+
"moonshot-v1-8k-vision-preview": {
|
1131
|
+
"description": "Визуалният модел Kimi (включително moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview и др.) може да разбира съдържанието на изображения, включително текст в изображения, цветове и форми на обекти."
|
1132
|
+
},
|
1109
1133
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1110
1134
|
"description": "Hermes 2 Pro Llama 3 8B е обновена версия на Nous Hermes 2, включваща най-новите вътрешно разработени набори от данни."
|
1111
1135
|
},
|
@@ -1313,6 +1337,9 @@
|
|
1313
1337
|
"step-2-16k": {
|
1314
1338
|
"description": "Поддържа взаимодействия с голям мащаб на контекста, подходящи за сложни диалогови сценарии."
|
1315
1339
|
},
|
1340
|
+
"taichu2_mm": {
|
1341
|
+
"description": "Сливайки способности за разбиране на изображения, прехвърляне на знания и логическо обяснение, моделът показва отлични резултати в областта на въпросите и отговорите на текст и изображения."
|
1342
|
+
},
|
1316
1343
|
"taichu_llm": {
|
1317
1344
|
"description": "Моделът на езика TaiChu е с изключителни способности за разбиране на езика, текстово генериране, отговори на знания, програмиране, математически изчисления, логическо разсъждение, анализ на емоции, резюмиране на текст и др. Иновативно комбинира предварително обучение с големи данни и разнообразни източници на знания, чрез непрекъснато усъвършенстване на алгоритмичните технологии и усвояване на нови знания от масивни текстови данни, за да осигури на потребителите по-удобна информация и услуги, както и по-интелигентно изживяване."
|
1318
1345
|
},
|
@@ -17,6 +17,9 @@
|
|
17
17
|
"360gpt-turbo-responsibility-8k": {
|
18
18
|
"description": "360GPT Turbo Responsibility 8K betont semantische Sicherheit und verantwortungsbewusste Ausrichtung, speziell für Anwendungen mit hohen Anforderungen an die Inhaltssicherheit konzipiert, um die Genauigkeit und Robustheit der Benutzererfahrung zu gewährleisten."
|
19
19
|
},
|
20
|
+
"360gpt2-o1": {
|
21
|
+
"description": "360gpt2-o1 verwendet Baumsuche zur Konstruktion von Denkketten und führt einen Reflexionsmechanismus ein, der durch verstärkendes Lernen trainiert wird. Das Modell verfügt über die Fähigkeit zur Selbstreflexion und Fehlerkorrektur."
|
22
|
+
},
|
20
23
|
"360gpt2-pro": {
|
21
24
|
"description": "360GPT2 Pro ist ein fortschrittliches Modell zur Verarbeitung natürlicher Sprache, das von der 360 Company entwickelt wurde und über außergewöhnliche Textgenerierungs- und Verständnisfähigkeiten verfügt, insbesondere im Bereich der Generierung und Kreativität, und in der Lage ist, komplexe Sprachumwandlungs- und Rollendarstellungsaufgaben zu bewältigen."
|
22
25
|
},
|
@@ -110,6 +113,9 @@
|
|
110
113
|
"LoRA/Qwen/Qwen2.5-7B-Instruct": {
|
111
114
|
"description": "Qwen2.5-7B-Instruct ist eines der neuesten großen Sprachmodelle, die von Alibaba Cloud veröffentlicht wurden. Dieses 7B-Modell hat signifikante Verbesserungen in den Bereichen Codierung und Mathematik. Das Modell bietet auch mehrsprachige Unterstützung und deckt über 29 Sprachen ab, einschließlich Chinesisch und Englisch. Es zeigt signifikante Verbesserungen in der Befolgung von Anweisungen, im Verständnis strukturierter Daten und in der Generierung strukturierter Ausgaben (insbesondere JSON)."
|
112
115
|
},
|
116
|
+
"MiniMax-Text-01": {
|
117
|
+
"description": "In der MiniMax-01-Serie haben wir mutige Innovationen vorgenommen: Erstmals wurde die lineare Aufmerksamkeitsmechanismus in großem Maßstab implementiert, sodass die traditionelle Transformer-Architektur nicht mehr die einzige Wahl ist. Dieses Modell hat eine Parameteranzahl von bis zu 456 Milliarden, wobei eine Aktivierung 45,9 Milliarden beträgt. Die Gesamtleistung des Modells kann mit den besten Modellen im Ausland mithalten und kann gleichzeitig effizient den weltweit längsten Kontext von 4 Millionen Tokens verarbeiten, was 32-mal so viel wie GPT-4o und 20-mal so viel wie Claude-3.5-Sonnet ist."
|
118
|
+
},
|
113
119
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
114
120
|
"description": "Hermes 2 Mixtral 8x7B DPO ist eine hochflexible Multi-Modell-Kombination, die darauf abzielt, außergewöhnliche kreative Erlebnisse zu bieten."
|
115
121
|
},
|
@@ -218,6 +224,9 @@
|
|
218
224
|
"Qwen2-7B-Instruct": {
|
219
225
|
"description": "Qwen2 ist die neueste Reihe des Qwen-Modells, das in der Lage ist, die besten Open-Source-Modelle ähnlicher Größe oder sogar größerer Modelle zu übertreffen. Qwen2 7B hat in mehreren Bewertungen signifikante Vorteile erzielt, insbesondere im Bereich Code und Verständnis der chinesischen Sprache."
|
220
226
|
},
|
227
|
+
"Qwen2-VL-72B": {
|
228
|
+
"description": "Qwen2-VL-72B ist ein leistungsstarkes visuelles Sprachmodell, das multimodale Verarbeitung von Bildern und Text unterstützt und in der Lage ist, Bildinhalte präzise zu erkennen und relevante Beschreibungen oder Antworten zu generieren."
|
229
|
+
},
|
221
230
|
"Qwen2.5-14B-Instruct": {
|
222
231
|
"description": "Qwen2.5-14B-Instruct ist ein großes Sprachmodell mit 14 Milliarden Parametern, das hervorragende Leistungen bietet, für chinesische und mehrsprachige Szenarien optimiert ist und Anwendungen wie intelligente Fragen und Antworten sowie Inhaltserstellung unterstützt."
|
223
232
|
},
|
@@ -230,6 +239,9 @@
|
|
230
239
|
"Qwen2.5-7B-Instruct": {
|
231
240
|
"description": "Qwen2.5-7B-Instruct ist ein großes Sprachmodell mit 7 Milliarden Parametern, das Funktionsaufrufe unterstützt und nahtlos mit externen Systemen interagiert, was die Flexibilität und Skalierbarkeit erheblich erhöht. Es ist für chinesische und mehrsprachige Szenarien optimiert und unterstützt Anwendungen wie intelligente Fragen und Antworten sowie Inhaltserstellung."
|
232
241
|
},
|
242
|
+
"Qwen2.5-Coder-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-Coder-14B-Instruct ist ein auf großflächigem Pre-Training basierendes Programmiermodell, das über starke Fähigkeiten zur Codeverstehung und -generierung verfügt und effizient verschiedene Programmieraufgaben bearbeiten kann. Es eignet sich besonders gut für intelligente Codeerstellung, automatisierte Skripterstellung und die Beantwortung von Programmierfragen."
|
244
|
+
},
|
233
245
|
"Qwen2.5-Coder-32B-Instruct": {
|
234
246
|
"description": "Qwen2.5-Coder-32B-Instruct ist ein großes Sprachmodell, das speziell für die Codegenerierung, das Verständnis von Code und effiziente Entwicklungsszenarien entwickelt wurde. Es verwendet eine branchenführende Parametergröße von 32B und kann vielfältige Programmieranforderungen erfüllen."
|
235
247
|
},
|
@@ -458,9 +470,6 @@
|
|
458
470
|
"claude-3-sonnet-20240229": {
|
459
471
|
"description": "Claude 3 Sonnet bietet eine ideale Balance zwischen Intelligenz und Geschwindigkeit für Unternehmensarbeitslasten. Es bietet maximalen Nutzen zu einem niedrigeren Preis, ist zuverlässig und für großflächige Bereitstellungen geeignet."
|
460
472
|
},
|
461
|
-
"code-raccoon-v1": {
|
462
|
-
"description": "Code-Raccoon ist ein intelligenter Softwareentwicklungsassistent, der auf dem großen Sprachmodell von SenseTime basiert und Softwareanforderungsanalyse, Architekturdesign, Codeerstellung, Softwaretests und andere Bereiche abdeckt, um die Bedürfnisse der Benutzer beim Programmieren und Lernen zu erfüllen. Code-Raccoon unterstützt über 90 gängige Programmiersprachen wie Python, Java, JavaScript, C++, Go, SQL sowie gängige IDEs wie VS Code und IntelliJ IDEA. In der praktischen Anwendung kann Code-Raccoon Entwicklern helfen, die Programmierproduktivität um über 50 % zu steigern."
|
463
|
-
},
|
464
473
|
"codegeex-4": {
|
465
474
|
"description": "CodeGeeX-4 ist ein leistungsstarker AI-Programmierassistent, der intelligente Fragen und Codevervollständigung in verschiedenen Programmiersprachen unterstützt und die Entwicklungseffizienz steigert."
|
466
475
|
},
|
@@ -599,6 +608,9 @@
|
|
599
608
|
"gemini-2.0-flash-exp": {
|
600
609
|
"description": "Gemini 2.0 Flash Exp ist Googles neuestes experimentelles multimodales KI-Modell mit Next-Gen-Funktionen, herausragender Geschwindigkeit, nativer Werkzeuganwendung und multimodaler Generierung."
|
601
610
|
},
|
611
|
+
"gemini-2.0-flash-thinking-exp-01-21": {
|
612
|
+
"description": "Gemini 2.0 Flash Exp ist Googles neuestes experimentelles multimodales KI-Modell mit der nächsten Generation von Funktionen, außergewöhnlicher Geschwindigkeit, nativer Tool-Nutzung und multimodaler Generierung."
|
613
|
+
},
|
602
614
|
"gemini-2.0-flash-thinking-exp-1219": {
|
603
615
|
"description": "Gemini 2.0 Flash Exp ist Googles neuestes experimentelles multimodales KI-Modell mit der nächsten Generation von Funktionen, außergewöhnlicher Geschwindigkeit, nativen Toolaufrufen und multimodaler Generierung."
|
604
616
|
},
|
@@ -671,6 +683,9 @@
|
|
671
683
|
"glm-4v-plus": {
|
672
684
|
"description": "GLM-4V-Plus hat die Fähigkeit, Videoinhalte und mehrere Bilder zu verstehen und eignet sich für multimodale Aufgaben."
|
673
685
|
},
|
686
|
+
"glm-zero-preview": {
|
687
|
+
"description": "GLM-Zero-Preview verfügt über starke Fähigkeiten zur komplexen Schlussfolgerung und zeigt hervorragende Leistungen in den Bereichen logisches Denken, Mathematik und Programmierung."
|
688
|
+
},
|
674
689
|
"google/gemini-flash-1.5": {
|
675
690
|
"description": "Gemini 1.5 Flash bietet optimierte multimodale Verarbeitungsfähigkeiten, die für verschiedene komplexe Aufgabenszenarien geeignet sind."
|
676
691
|
},
|
@@ -1100,12 +1115,21 @@
|
|
1100
1115
|
"moonshot-v1-128k": {
|
1101
1116
|
"description": "Moonshot V1 128K ist ein Modell mit überragenden Fähigkeiten zur Verarbeitung von langen Kontexten, das für die Generierung von sehr langen Texten geeignet ist und die Anforderungen komplexer Generierungsaufgaben erfüllt. Es kann Inhalte mit bis zu 128.000 Tokens verarbeiten und eignet sich hervorragend für Anwendungen in der Forschung, Wissenschaft und der Erstellung großer Dokumente."
|
1102
1117
|
},
|
1118
|
+
"moonshot-v1-128k-vision-preview": {
|
1119
|
+
"description": "Das Kimi-Visionsmodell (einschließlich moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview usw.) kann Bildinhalte verstehen, einschließlich Bildtext, Bildfarbe und Objektformen."
|
1120
|
+
},
|
1103
1121
|
"moonshot-v1-32k": {
|
1104
1122
|
"description": "Moonshot V1 32K bietet die Fähigkeit zur Verarbeitung von mittellangen Kontexten und kann 32.768 Tokens verarbeiten, was es besonders geeignet für die Generierung verschiedener langer Dokumente und komplexer Dialoge macht, die in den Bereichen Inhaltserstellung, Berichtsgenerierung und Dialogsysteme eingesetzt werden."
|
1105
1123
|
},
|
1124
|
+
"moonshot-v1-32k-vision-preview": {
|
1125
|
+
"description": "Das Kimi-Visionsmodell (einschließlich moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview usw.) kann Bildinhalte verstehen, einschließlich Bildtext, Bildfarbe und Objektformen."
|
1126
|
+
},
|
1106
1127
|
"moonshot-v1-8k": {
|
1107
1128
|
"description": "Moonshot V1 8K ist für die Generierung von Kurztextaufgaben konzipiert und bietet eine effiziente Verarbeitungsleistung, die 8.192 Tokens verarbeiten kann. Es eignet sich hervorragend für kurze Dialoge, Notizen und schnelle Inhaltserstellung."
|
1108
1129
|
},
|
1130
|
+
"moonshot-v1-8k-vision-preview": {
|
1131
|
+
"description": "Das Kimi-Visionsmodell (einschließlich moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview usw.) kann Bildinhalte verstehen, einschließlich Bildtext, Bildfarbe und Objektformen."
|
1132
|
+
},
|
1109
1133
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1110
1134
|
"description": "Hermes 2 Pro Llama 3 8B ist die aktualisierte Version von Nous Hermes 2 und enthält die neuesten intern entwickelten Datensätze."
|
1111
1135
|
},
|
@@ -1313,6 +1337,9 @@
|
|
1313
1337
|
"step-2-16k": {
|
1314
1338
|
"description": "Unterstützt groß angelegte Kontextinteraktionen und eignet sich für komplexe Dialogszenarien."
|
1315
1339
|
},
|
1340
|
+
"taichu2_mm": {
|
1341
|
+
"description": "Integriert Fähigkeiten zur Bildverstehung, Wissensübertragung und logischen Attribution und zeigt herausragende Leistungen im Bereich der Bild-Text-Fragen."
|
1342
|
+
},
|
1316
1343
|
"taichu_llm": {
|
1317
1344
|
"description": "Das Zīdōng Taichu Sprachmodell verfügt über außergewöhnliche Sprachverständnisfähigkeiten sowie Fähigkeiten in Textgenerierung, Wissensabfrage, Programmierung, mathematischen Berechnungen, logischem Denken, Sentimentanalyse und Textzusammenfassung. Es kombiniert innovativ große Datenvortrainings mit reichhaltigem Wissen aus mehreren Quellen, verfeinert kontinuierlich die Algorithmen und absorbiert ständig neues Wissen aus umfangreichen Textdaten in Bezug auf Vokabular, Struktur, Grammatik und Semantik, um die Leistung des Modells kontinuierlich zu verbessern. Es bietet den Nutzern bequemere Informationen und Dienstleistungen sowie ein intelligenteres Erlebnis."
|
1318
1345
|
},
|
@@ -17,6 +17,9 @@
|
|
17
17
|
"360gpt-turbo-responsibility-8k": {
|
18
18
|
"description": "360GPT Turbo Responsibility 8K emphasizes semantic safety and responsibility, designed specifically for applications with high content safety requirements, ensuring accuracy and robustness in user experience."
|
19
19
|
},
|
20
|
+
"360gpt2-o1": {
|
21
|
+
"description": "360gpt2-o1 builds a chain of thought using tree search and incorporates a reflection mechanism, trained with reinforcement learning, enabling the model to self-reflect and correct errors."
|
22
|
+
},
|
20
23
|
"360gpt2-pro": {
|
21
24
|
"description": "360GPT2 Pro is an advanced natural language processing model launched by 360, featuring exceptional text generation and understanding capabilities, particularly excelling in generation and creative tasks, capable of handling complex language transformations and role-playing tasks."
|
22
25
|
},
|
@@ -110,6 +113,9 @@
|
|
110
113
|
"LoRA/Qwen/Qwen2.5-7B-Instruct": {
|
111
114
|
"description": "Qwen2.5-7B-Instruct is one of the latest large language models released by Alibaba Cloud. This 7B model shows significant improvements in coding and mathematics. It also provides multilingual support, covering over 29 languages, including Chinese and English. The model has made notable advancements in instruction following, understanding structured data, and generating structured outputs, especially JSON."
|
112
115
|
},
|
116
|
+
"MiniMax-Text-01": {
|
117
|
+
"description": "In the MiniMax-01 series of models, we have made bold innovations: for the first time, we have implemented a linear attention mechanism on a large scale, making the traditional Transformer architecture no longer the only option. This model has a parameter count of up to 456 billion, with a single activation of 45.9 billion. Its overall performance rivals that of top overseas models while efficiently handling the world's longest context of 4 million tokens, which is 32 times that of GPT-4o and 20 times that of Claude-3.5-Sonnet."
|
118
|
+
},
|
113
119
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
114
120
|
"description": "Hermes 2 Mixtral 8x7B DPO is a highly flexible multi-model fusion designed to provide an exceptional creative experience."
|
115
121
|
},
|
@@ -218,6 +224,9 @@
|
|
218
224
|
"Qwen2-7B-Instruct": {
|
219
225
|
"description": "Qwen2 is the latest series of the Qwen model, capable of outperforming optimal open-source models of similar size and even larger models. Qwen2 7B has achieved significant advantages in multiple evaluations, especially in coding and Chinese comprehension."
|
220
226
|
},
|
227
|
+
"Qwen2-VL-72B": {
|
228
|
+
"description": "Qwen2-VL-72B is a powerful visual language model that supports multimodal processing of images and text, capable of accurately recognizing image content and generating relevant descriptions or answers."
|
229
|
+
},
|
221
230
|
"Qwen2.5-14B-Instruct": {
|
222
231
|
"description": "Qwen2.5-14B-Instruct is a large language model with 14 billion parameters, delivering excellent performance, optimized for Chinese and multilingual scenarios, and supporting applications such as intelligent Q&A and content generation."
|
223
232
|
},
|
@@ -230,6 +239,9 @@
|
|
230
239
|
"Qwen2.5-7B-Instruct": {
|
231
240
|
"description": "Qwen2.5-7B-Instruct is a large language model with 7 billion parameters, supporting function calls and seamless interaction with external systems, greatly enhancing flexibility and scalability. It is optimized for Chinese and multilingual scenarios, supporting applications such as intelligent Q&A and content generation."
|
232
241
|
},
|
242
|
+
"Qwen2.5-Coder-14B-Instruct": {
|
243
|
+
"description": "Qwen2.5-Coder-14B-Instruct is a large-scale pre-trained programming instruction model with strong code understanding and generation capabilities, efficiently handling various programming tasks, particularly suited for intelligent code writing, automated script generation, and programming problem-solving."
|
244
|
+
},
|
233
245
|
"Qwen2.5-Coder-32B-Instruct": {
|
234
246
|
"description": "Qwen2.5-Coder-32B-Instruct is a large language model specifically designed for code generation, code understanding, and efficient development scenarios, featuring an industry-leading 32 billion parameters to meet diverse programming needs."
|
235
247
|
},
|
@@ -458,9 +470,6 @@
|
|
458
470
|
"claude-3-sonnet-20240229": {
|
459
471
|
"description": "Claude 3 Sonnet provides an ideal balance of intelligence and speed for enterprise workloads. It offers maximum utility at a lower price, reliable and suitable for large-scale deployment."
|
460
472
|
},
|
461
|
-
"code-raccoon-v1": {
|
462
|
-
"description": "Code Raccoon is a software intelligent development assistant based on the SenseTime large language model, covering software requirement analysis, architecture design, code writing, software testing, and more, meeting various user needs for code writing and programming learning. Code Raccoon supports over 90 mainstream programming languages, including Python, Java, JavaScript, C++, Go, SQL, and popular IDEs like VS Code and IntelliJ IDEA. In practical applications, Code Raccoon can help developers improve programming efficiency by over 50%."
|
463
|
-
},
|
464
473
|
"codegeex-4": {
|
465
474
|
"description": "CodeGeeX-4 is a powerful AI programming assistant that supports intelligent Q&A and code completion in various programming languages, enhancing development efficiency."
|
466
475
|
},
|
@@ -599,6 +608,9 @@
|
|
599
608
|
"gemini-2.0-flash-exp": {
|
600
609
|
"description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool integration, and multimodal generation."
|
601
610
|
},
|
611
|
+
"gemini-2.0-flash-thinking-exp-01-21": {
|
612
|
+
"description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool invocation, and multimodal generation."
|
613
|
+
},
|
602
614
|
"gemini-2.0-flash-thinking-exp-1219": {
|
603
615
|
"description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool invocation, and multimodal generation."
|
604
616
|
},
|
@@ -671,6 +683,9 @@
|
|
671
683
|
"glm-4v-plus": {
|
672
684
|
"description": "GLM-4V-Plus has the ability to understand video content and multiple images, suitable for multimodal tasks."
|
673
685
|
},
|
686
|
+
"glm-zero-preview": {
|
687
|
+
"description": "GLM-Zero-Preview possesses strong complex reasoning abilities, excelling in logical reasoning, mathematics, programming, and other fields."
|
688
|
+
},
|
674
689
|
"google/gemini-flash-1.5": {
|
675
690
|
"description": "Gemini 1.5 Flash offers optimized multimodal processing capabilities, suitable for various complex task scenarios."
|
676
691
|
},
|
@@ -1100,12 +1115,21 @@
|
|
1100
1115
|
"moonshot-v1-128k": {
|
1101
1116
|
"description": "Moonshot V1 128K is a model with ultra-long context processing capabilities, suitable for generating extremely long texts, meeting the demands of complex generation tasks, capable of handling up to 128,000 tokens, making it ideal for research, academia, and large document generation."
|
1102
1117
|
},
|
1118
|
+
"moonshot-v1-128k-vision-preview": {
|
1119
|
+
"description": "The Kimi visual model (including moonshot-v1-8k-vision-preview, moonshot-v1-32k-vision-preview, moonshot-v1-128k-vision-preview, etc.) can understand image content, including text in images, colors, and shapes of objects."
|
1120
|
+
},
|
1103
1121
|
"moonshot-v1-32k": {
|
1104
1122
|
"description": "Moonshot V1 32K offers medium-length context processing capabilities, able to handle 32,768 tokens, particularly suitable for generating various long documents and complex dialogues, applicable in content creation, report generation, and dialogue systems."
|
1105
1123
|
},
|
1124
|
+
"moonshot-v1-32k-vision-preview": {
|
1125
|
+
"description": "The Kimi visual model (including moonshot-v1-8k-vision-preview, moonshot-v1-32k-vision-preview, moonshot-v1-128k-vision-preview, etc.) can understand image content, including text in images, colors, and shapes of objects."
|
1126
|
+
},
|
1106
1127
|
"moonshot-v1-8k": {
|
1107
1128
|
"description": "Moonshot V1 8K is designed for generating short text tasks, featuring efficient processing performance, capable of handling 8,192 tokens, making it ideal for brief dialogues, note-taking, and rapid content generation."
|
1108
1129
|
},
|
1130
|
+
"moonshot-v1-8k-vision-preview": {
|
1131
|
+
"description": "The Kimi visual model (including moonshot-v1-8k-vision-preview, moonshot-v1-32k-vision-preview, moonshot-v1-128k-vision-preview, etc.) can understand image content, including text in images, colors, and shapes of objects."
|
1132
|
+
},
|
1109
1133
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
1110
1134
|
"description": "Hermes 2 Pro Llama 3 8B is an upgraded version of Nous Hermes 2, featuring the latest internally developed datasets."
|
1111
1135
|
},
|
@@ -1313,6 +1337,9 @@
|
|
1313
1337
|
"step-2-16k": {
|
1314
1338
|
"description": "Supports large-scale context interactions, suitable for complex dialogue scenarios."
|
1315
1339
|
},
|
1340
|
+
"taichu2_mm": {
|
1341
|
+
"description": "Integrating capabilities in image understanding, knowledge transfer, and logical attribution, it excels in the field of image-text question answering."
|
1342
|
+
},
|
1316
1343
|
"taichu_llm": {
|
1317
1344
|
"description": "The ZD Taichu language model possesses strong language understanding capabilities and excels in text creation, knowledge Q&A, code programming, mathematical calculations, logical reasoning, sentiment analysis, and text summarization. It innovatively combines large-scale pre-training with rich knowledge from multiple sources, continuously refining algorithmic techniques and absorbing new knowledge in vocabulary, structure, grammar, and semantics from vast text data, resulting in an evolving model performance. It provides users with more convenient information and services, as well as a more intelligent experience."
|
1318
1345
|
},
|