@lobehub/chat 1.19.14 → 1.19.15
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/locales/ar/models.json +116 -48
- package/locales/ar/providers.json +4 -0
- package/locales/bg-BG/models.json +116 -48
- package/locales/bg-BG/providers.json +4 -0
- package/locales/de-DE/models.json +116 -48
- package/locales/de-DE/providers.json +4 -0
- package/locales/en-US/models.json +116 -48
- package/locales/en-US/providers.json +4 -0
- package/locales/es-ES/models.json +116 -48
- package/locales/es-ES/providers.json +4 -0
- package/locales/fr-FR/models.json +116 -48
- package/locales/fr-FR/providers.json +4 -0
- package/locales/it-IT/models.json +0 -60
- package/locales/it-IT/providers.json +4 -0
- package/locales/ja-JP/models.json +116 -48
- package/locales/ja-JP/providers.json +4 -0
- package/locales/ko-KR/models.json +116 -48
- package/locales/ko-KR/providers.json +4 -0
- package/locales/nl-NL/models.json +0 -60
- package/locales/pl-PL/models.json +0 -60
- package/locales/pt-BR/models.json +116 -48
- package/locales/pt-BR/providers.json +4 -0
- package/locales/ru-RU/models.json +116 -48
- package/locales/ru-RU/providers.json +4 -0
- package/locales/tr-TR/models.json +116 -48
- package/locales/tr-TR/providers.json +4 -0
- package/locales/vi-VN/models.json +0 -60
- package/locales/zh-CN/models.json +122 -54
- package/locales/zh-CN/providers.json +4 -0
- package/locales/zh-TW/models.json +116 -48
- package/locales/zh-TW/providers.json +4 -0
- package/package.json +1 -1
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,31 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.19.15](https://github.com/lobehub/lobe-chat/compare/v1.19.14...v1.19.15)
|
6
|
+
|
7
|
+
<sup>Released on **2024-09-20**</sup>
|
8
|
+
|
9
|
+
#### 💄 Styles
|
10
|
+
|
11
|
+
- **misc**: Improve i18n in discover.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### Styles
|
19
|
+
|
20
|
+
- **misc**: Improve i18n in discover, closes [#4049](https://github.com/lobehub/lobe-chat/issues/4049) ([8170889](https://github.com/lobehub/lobe-chat/commit/8170889))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
5
30
|
### [Version 1.19.14](https://github.com/lobehub/lobe-chat/compare/v1.19.13...v1.19.14)
|
6
31
|
|
7
32
|
<sup>Released on **2024-09-20**</sup>
|
package/locales/ar/models.json
CHANGED
@@ -2,9 +2,6 @@
|
|
2
2
|
"01-ai/Yi-1.5-34B-Chat-16K": {
|
3
3
|
"description": "Yi-1.5 34B، يقدم أداءً ممتازًا في التطبيقات الصناعية بفضل مجموعة التدريب الغنية."
|
4
4
|
},
|
5
|
-
"01-ai/Yi-1.5-6B-Chat": {
|
6
|
-
"description": "Yi-1.5 هو الإصدار المطور من سلسلة Yi، ويتميز بتدريب مسبق عالي الجودة وبيانات تعديل غنية."
|
7
|
-
},
|
8
5
|
"01-ai/Yi-1.5-9B-Chat-16K": {
|
9
6
|
"description": "Yi-1.5 9B يدعم 16K توكن، ويوفر قدرة توليد لغوية فعالة وسلسة."
|
10
7
|
},
|
@@ -47,41 +44,56 @@
|
|
47
44
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
48
45
|
"description": "Nous Hermes-2 Yi (34B) يوفر مخرجات لغوية محسنة وإمكانيات تطبيق متنوعة."
|
49
46
|
},
|
47
|
+
"Phi-3-5-mini-instruct": {
|
48
|
+
"description": "تحديث لنموذج Phi-3-mini."
|
49
|
+
},
|
50
|
+
"Phi-3-medium-128k-instruct": {
|
51
|
+
"description": "نموذج Phi-3-medium نفسه، ولكن مع حجم سياق أكبر لـ RAG أو التوجيه القليل."
|
52
|
+
},
|
53
|
+
"Phi-3-medium-4k-instruct": {
|
54
|
+
"description": "نموذج بحجم 14B، يثبت جودة أفضل من Phi-3-mini، مع التركيز على البيانات الكثيفة في التفكير عالية الجودة."
|
55
|
+
},
|
56
|
+
"Phi-3-mini-128k-instruct": {
|
57
|
+
"description": "نموذج Phi-3-mini نفسه، ولكن مع حجم سياق أكبر لـ RAG أو التوجيه القليل."
|
58
|
+
},
|
59
|
+
"Phi-3-mini-4k-instruct": {
|
60
|
+
"description": "أصغر عضو في عائلة Phi-3. مُحسّن لكل من الجودة وزمن الاستجابة المنخفض."
|
61
|
+
},
|
62
|
+
"Phi-3-small-128k-instruct": {
|
63
|
+
"description": "نموذج Phi-3-small نفسه، ولكن مع حجم سياق أكبر لـ RAG أو التوجيه القليل."
|
64
|
+
},
|
65
|
+
"Phi-3-small-8k-instruct": {
|
66
|
+
"description": "نموذج بحجم 7B، يثبت جودة أفضل من Phi-3-mini، مع التركيز على البيانات الكثيفة في التفكير عالية الجودة."
|
67
|
+
},
|
50
68
|
"Pro-128k": {
|
51
69
|
"description": "Spark Pro-128K مزود بقدرة معالجة سياق ضخمة، يمكنه التعامل مع معلومات سياق تصل إلى 128K، مما يجعله مثاليًا للمحتوى الطويل الذي يتطلب تحليلًا شاملًا ومعالجة علاقات منطقية طويلة الأمد، ويمكنه تقديم منطق سلس ودقيق ودعم متنوع للاقتباسات في التواصل النصي المعقد."
|
52
70
|
},
|
53
71
|
"Qwen/Qwen1.5-110B-Chat": {
|
54
72
|
"description": "كنموذج تجريبي لـ Qwen2، يستخدم Qwen1.5 بيانات ضخمة لتحقيق وظائف حوارية أكثر دقة."
|
55
73
|
},
|
56
|
-
"Qwen/Qwen1.5-14B-Chat": {
|
57
|
-
"description": "Qwen1.5 تم تدريبه على مجموعة بيانات ضخمة، ويتفوق في المهام اللغوية المعقدة."
|
58
|
-
},
|
59
|
-
"Qwen/Qwen1.5-32B-Chat": {
|
60
|
-
"description": "Qwen1.5 يمتلك القدرة على الإجابة على الأسئلة في مجالات متعددة وتوليد النصوص."
|
61
|
-
},
|
62
74
|
"Qwen/Qwen1.5-72B-Chat": {
|
63
75
|
"description": "Qwen 1.5 Chat (72B) يوفر استجابة سريعة وقدرة على الحوار الطبيعي، مناسب للبيئات متعددة اللغات."
|
64
76
|
},
|
65
|
-
"Qwen/
|
66
|
-
"description": "
|
77
|
+
"Qwen/Qwen2-72B-Instruct": {
|
78
|
+
"description": "Qwen2 هو نموذج لغوي عام متقدم، يدعم أنواع متعددة من التعليمات."
|
67
79
|
},
|
68
|
-
"Qwen/Qwen2
|
69
|
-
"description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية."
|
80
|
+
"Qwen/Qwen2.5-14B-Instruct": {
|
81
|
+
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية."
|
70
82
|
},
|
71
|
-
"Qwen/Qwen2-
|
72
|
-
"description": "Qwen2 هو سلسلة
|
83
|
+
"Qwen/Qwen2.5-32B-Instruct": {
|
84
|
+
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية."
|
73
85
|
},
|
74
|
-
"Qwen/Qwen2-72B-Instruct": {
|
75
|
-
"description": "Qwen2 هو
|
86
|
+
"Qwen/Qwen2.5-72B-Instruct": {
|
87
|
+
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تتمتع بقدرات أقوى في الفهم والتوليد."
|
76
88
|
},
|
77
|
-
"Qwen/Qwen2-7B-Instruct": {
|
78
|
-
"description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة،
|
89
|
+
"Qwen/Qwen2.5-7B-Instruct": {
|
90
|
+
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية."
|
79
91
|
},
|
80
|
-
"Qwen/Qwen2-
|
81
|
-
"description": "Qwen2-
|
92
|
+
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
93
|
+
"description": "Qwen2.5-Coder يركز على كتابة الشيفرة."
|
82
94
|
},
|
83
|
-
"
|
84
|
-
"description": "
|
95
|
+
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
96
|
+
"description": "Qwen2.5-Math يركز على حل المشكلات في مجال الرياضيات، ويقدم إجابات احترافية للأسئلة الصعبة."
|
85
97
|
},
|
86
98
|
"THUDM/glm-4-9b-chat": {
|
87
99
|
"description": "GLM-4 9B هو إصدار مفتوح المصدر، يوفر تجربة حوار محسنة لتطبيقات الحوار."
|
@@ -158,6 +170,15 @@
|
|
158
170
|
"accounts/yi-01-ai/models/yi-large": {
|
159
171
|
"description": "نموذج Yi-Large، يتمتع بقدرة معالجة لغوية ممتازة، يمكن استخدامه في جميع أنواع مهام توليد وفهم اللغة."
|
160
172
|
},
|
173
|
+
"ai21-jamba-1.5-large": {
|
174
|
+
"description": "نموذج متعدد اللغات بحجم 398B (94B نشط)، يقدم نافذة سياق طويلة بحجم 256K، واستدعاء وظائف، وإخراج منظم، وتوليد مستند."
|
175
|
+
},
|
176
|
+
"ai21-jamba-1.5-mini": {
|
177
|
+
"description": "نموذج متعدد اللغات بحجم 52B (12B نشط)، يقدم نافذة سياق طويلة بحجم 256K، واستدعاء وظائف، وإخراج منظم، وتوليد مستند."
|
178
|
+
},
|
179
|
+
"ai21-jamba-instruct": {
|
180
|
+
"description": "نموذج LLM يعتمد على Mamba، مصمم لتحقيق أفضل أداء وكفاءة من حيث الجودة والتكلفة."
|
181
|
+
},
|
161
182
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
162
183
|
"description": "Claude 3.5 Sonnet يرفع المعايير في الصناعة، حيث يتفوق على نماذج المنافسين وClaude 3 Opus، ويظهر أداءً ممتازًا في تقييمات واسعة، مع سرعة وتكلفة تتناسب مع نماذجنا المتوسطة."
|
163
184
|
},
|
@@ -254,6 +275,12 @@
|
|
254
275
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
255
276
|
"description": "Dolphin Mixtral 8x22B هو نموذج مصمم للامتثال للتعليمات، والحوار، والبرمجة."
|
256
277
|
},
|
278
|
+
"cohere-command-r": {
|
279
|
+
"description": "نموذج توليدي قابل للتوسع يستهدف RAG واستخدام الأدوات لتمكين الذكاء الاصطناعي على نطاق الإنتاج للمؤسسات."
|
280
|
+
},
|
281
|
+
"cohere-command-r-plus": {
|
282
|
+
"description": "نموذج RAG محسّن من الطراز الأول مصمم للتعامل مع أحمال العمل على مستوى المؤسسات."
|
283
|
+
},
|
257
284
|
"command-r": {
|
258
285
|
"description": "Command R هو نموذج LLM محسن لمهام الحوار والسياقات الطويلة، مناسب بشكل خاص للتفاعل الديناميكي وإدارة المعرفة."
|
259
286
|
},
|
@@ -263,12 +290,6 @@
|
|
263
290
|
"databricks/dbrx-instruct": {
|
264
291
|
"description": "DBRX Instruct يوفر قدرة معالجة تعليمات موثوقة، يدعم تطبيقات متعددة الصناعات."
|
265
292
|
},
|
266
|
-
"deepseek-ai/DeepSeek-Coder-V2-Instruct": {
|
267
|
-
"description": "DeepSeek Coder V2 مصمم لمهام البرمجة، يركز على توليد الأكواد بكفاءة."
|
268
|
-
},
|
269
|
-
"deepseek-ai/DeepSeek-V2-Chat": {
|
270
|
-
"description": "DeepSeek V2 يحتوي على 6.7 مليار معلمة، ويدعم معالجة النصوص بالإنجليزية والصينية."
|
271
|
-
},
|
272
293
|
"deepseek-ai/DeepSeek-V2.5": {
|
273
294
|
"description": "DeepSeek V2.5 يجمع بين الميزات الممتازة للإصدارات السابقة، ويعزز القدرات العامة والترميز."
|
274
295
|
},
|
@@ -467,6 +488,8 @@
|
|
467
488
|
"internlm/internlm2_5-7b-chat": {
|
468
489
|
"description": "InternLM2.5 يوفر حلول حوار ذكية في عدة سيناريوهات."
|
469
490
|
},
|
491
|
+
"jamba-1.5-large": {},
|
492
|
+
"jamba-1.5-mini": {},
|
470
493
|
"llama-3.1-70b-instruct": {
|
471
494
|
"description": "نموذج Llama 3.1 70B للتعليمات، يتمتع بـ 70B من المعلمات، قادر على تقديم أداء ممتاز في مهام توليد النصوص الكبيرة والتعليمات."
|
472
495
|
},
|
@@ -530,6 +553,21 @@
|
|
530
553
|
"mathstral": {
|
531
554
|
"description": "MathΣtral مصمم للبحث العلمي والاستدلال الرياضي، يوفر قدرة حسابية فعالة وتفسير النتائج."
|
532
555
|
},
|
556
|
+
"meta-llama-3-70b-instruct": {
|
557
|
+
"description": "نموذج قوي بحجم 70 مليار معلمة يتفوق في التفكير، والترميز، وتطبيقات اللغة الواسعة."
|
558
|
+
},
|
559
|
+
"meta-llama-3-8b-instruct": {
|
560
|
+
"description": "نموذج متعدد الاستخدامات بحجم 8 مليار معلمة، مُحسّن لمهام الحوار وتوليد النصوص."
|
561
|
+
},
|
562
|
+
"meta-llama-3.1-405b-instruct": {
|
563
|
+
"description": "نموذج Llama 3.1 المُعدل للتعليمات، مُحسّن لاستخدامات الحوار متعددة اللغات ويتفوق على العديد من نماذج الدردشة المفتوحة والمغلقة المتاحة في المعايير الصناعية الشائعة."
|
564
|
+
},
|
565
|
+
"meta-llama-3.1-70b-instruct": {
|
566
|
+
"description": "نموذج Llama 3.1 المُعدل للتعليمات، مُحسّن لاستخدامات الحوار متعددة اللغات ويتفوق على العديد من نماذج الدردشة المفتوحة والمغلقة المتاحة في المعايير الصناعية الشائعة."
|
567
|
+
},
|
568
|
+
"meta-llama-3.1-8b-instruct": {
|
569
|
+
"description": "نموذج Llama 3.1 المُعدل للتعليمات، مُحسّن لاستخدامات الحوار متعددة اللغات ويتفوق على العديد من نماذج الدردشة المفتوحة والمغلقة المتاحة في المعايير الصناعية الشائعة."
|
570
|
+
},
|
533
571
|
"meta-llama/Llama-2-13b-chat-hf": {
|
534
572
|
"description": "LLaMA-2 Chat (13B) يوفر قدرة ممتازة على معالجة اللغة وتجربة تفاعلية رائعة."
|
535
573
|
},
|
@@ -539,9 +577,6 @@
|
|
539
577
|
"meta-llama/Llama-3-8b-chat-hf": {
|
540
578
|
"description": "LLaMA-3 Chat (8B) يوفر دعمًا متعدد اللغات، ويغطي مجموعة واسعة من المعرفة في المجالات."
|
541
579
|
},
|
542
|
-
"meta-llama/Meta-Llama-3-70B-Instruct": {
|
543
|
-
"description": "LLaMA 3 يدعم توليد نصوص كبيرة وفهم التعليمات."
|
544
|
-
},
|
545
580
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
546
581
|
"description": "Llama 3 70B Instruct Lite مناسب للبيئات التي تتطلب أداءً عاليًا وزمن استجابة منخفض."
|
547
582
|
},
|
@@ -620,12 +655,21 @@
|
|
620
655
|
"mistral-large": {
|
621
656
|
"description": "Mixtral Large هو النموذج الرائد من Mistral، يجمع بين قدرات توليد الشيفرة، والرياضيات، والاستدلال، ويدعم نافذة سياق تصل إلى 128k."
|
622
657
|
},
|
658
|
+
"mistral-large-2407": {
|
659
|
+
"description": "Mistral Large (2407) هو نموذج لغة كبير متقدم (LLM) يتمتع بقدرات متطورة في التفكير والمعرفة والترميز."
|
660
|
+
},
|
623
661
|
"mistral-large-latest": {
|
624
662
|
"description": "Mistral Large هو النموذج الرائد، يتفوق في المهام متعددة اللغات، والاستدلال المعقد، وتوليد الشيفرة، وهو الخيار المثالي للتطبيقات الراقية."
|
625
663
|
},
|
626
664
|
"mistral-nemo": {
|
627
665
|
"description": "Mistral Nemo تم تطويره بالتعاون بين Mistral AI وNVIDIA، وهو نموذج 12B عالي الأداء."
|
628
666
|
},
|
667
|
+
"mistral-small": {
|
668
|
+
"description": "يمكن استخدام Mistral Small في أي مهمة تعتمد على اللغة تتطلب كفاءة عالية وزمن استجابة منخفض."
|
669
|
+
},
|
670
|
+
"mistral-small-latest": {
|
671
|
+
"description": "Mistral Small هو خيار فعال من حيث التكلفة وسريع وموثوق، مناسب لمهام الترجمة، والتلخيص، وتحليل المشاعر."
|
672
|
+
},
|
629
673
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
630
674
|
"description": "Mistral (7B) Instruct معروف بأدائه العالي، مناسب لمهام لغوية متعددة."
|
631
675
|
},
|
@@ -713,20 +757,29 @@
|
|
713
757
|
"phi3:14b": {
|
714
758
|
"description": "Phi-3 هو نموذج مفتوح خفيف الوزن أطلقته Microsoft، مناسب للتكامل الفعال واستدلال المعرفة على نطاق واسع."
|
715
759
|
},
|
760
|
+
"pixtral-12b-2409": {
|
761
|
+
"description": "نموذج Pixtral يظهر قدرات قوية في فهم الرسوم البيانية والصور، والإجابة على الأسئلة المتعلقة بالمستندات، والاستدلال متعدد الوسائط، واتباع التعليمات، مع القدرة على إدخال الصور بدقة طبيعية ونسبة عرض إلى ارتفاع، بالإضافة إلى معالجة عدد غير محدود من الصور في نافذة سياق طويلة تصل إلى 128K توكن."
|
762
|
+
},
|
763
|
+
"qwen-coder-turbo-latest": {
|
764
|
+
"description": "نموذج Qwen للبرمجة."
|
765
|
+
},
|
716
766
|
"qwen-long": {
|
717
767
|
"description": "نموذج Qwen العملاق للغة، يدعم سياقات نصية طويلة، بالإضافة إلى وظائف الحوار المستندة إلى الوثائق الطويلة والعديد من الوثائق."
|
718
768
|
},
|
719
|
-
"qwen-
|
720
|
-
"description": "نموذج Qwen
|
769
|
+
"qwen-math-plus-latest": {
|
770
|
+
"description": "نموذج Qwen الرياضي مصمم خصيصًا لحل المسائل الرياضية."
|
721
771
|
},
|
722
|
-
"qwen-
|
723
|
-
"description": "نموذج Qwen
|
772
|
+
"qwen-math-turbo-latest": {
|
773
|
+
"description": "نموذج Qwen الرياضي مصمم خصيصًا لحل المسائل الرياضية."
|
724
774
|
},
|
725
|
-
"qwen-
|
726
|
-
"description": "نموذج Qwen
|
775
|
+
"qwen-max-latest": {
|
776
|
+
"description": "نموذج لغة ضخم من Qwen بمستوى تريليونات، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية، وهو النموذج API وراء إصدار Qwen 2.5."
|
727
777
|
},
|
728
|
-
"qwen-
|
729
|
-
"description": "نموذج Qwen
|
778
|
+
"qwen-plus-latest": {
|
779
|
+
"description": "نسخة محسنة من نموذج لغة Qwen الضخم، تدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
|
780
|
+
},
|
781
|
+
"qwen-turbo-latest": {
|
782
|
+
"description": "نموذج لغة ضخم من Qwen، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
|
730
783
|
},
|
731
784
|
"qwen-vl-chat-v1": {
|
732
785
|
"description": "نموذج Qwen العملاق للغة البصرية يدعم طرق تفاعل مرنة، بما في ذلك الصور المتعددة، والأسئلة والأجوبة المتعددة، والإبداع."
|
@@ -746,17 +799,32 @@
|
|
746
799
|
"qwen2": {
|
747
800
|
"description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة."
|
748
801
|
},
|
749
|
-
"qwen2-
|
750
|
-
"description": "نموذج
|
802
|
+
"qwen2.5-14b-instruct": {
|
803
|
+
"description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 14B."
|
804
|
+
},
|
805
|
+
"qwen2.5-32b-instruct": {
|
806
|
+
"description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 32B."
|
807
|
+
},
|
808
|
+
"qwen2.5-72b-instruct": {
|
809
|
+
"description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 72B."
|
810
|
+
},
|
811
|
+
"qwen2.5-7b-instruct": {
|
812
|
+
"description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 7B."
|
813
|
+
},
|
814
|
+
"qwen2.5-coder-1.5b-instruct": {
|
815
|
+
"description": "نسخة مفتوحة المصدر من نموذج Qwen للبرمجة."
|
816
|
+
},
|
817
|
+
"qwen2.5-coder-7b-instruct": {
|
818
|
+
"description": "نسخة مفتوحة المصدر من نموذج Qwen للبرمجة."
|
751
819
|
},
|
752
|
-
"qwen2-
|
753
|
-
"description": "نموذج
|
820
|
+
"qwen2.5-math-1.5b-instruct": {
|
821
|
+
"description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية."
|
754
822
|
},
|
755
|
-
"qwen2-
|
756
|
-
"description": "نموذج
|
823
|
+
"qwen2.5-math-72b-instruct": {
|
824
|
+
"description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية."
|
757
825
|
},
|
758
|
-
"qwen2-math-
|
759
|
-
"description": "نموذج
|
826
|
+
"qwen2.5-math-7b-instruct": {
|
827
|
+
"description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية."
|
760
828
|
},
|
761
829
|
"qwen2:0.5b": {
|
762
830
|
"description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة."
|
@@ -1,4 +1,5 @@
|
|
1
1
|
{
|
2
|
+
"ai21": {},
|
2
3
|
"ai360": {
|
3
4
|
"description": "AI 360 هي منصة نماذج وخدمات الذكاء الاصطناعي التي أطلقتها شركة 360، تقدم مجموعة متنوعة من نماذج معالجة اللغة الطبيعية المتقدمة، بما في ذلك 360GPT2 Pro و360GPT Pro و360GPT Turbo و360GPT Turbo Responsibility 8K. تجمع هذه النماذج بين المعلمات الكبيرة والقدرات متعددة الوسائط، وتستخدم على نطاق واسع في توليد النصوص، وفهم المعاني، وأنظمة الحوار، وتوليد الشيفرات. من خلال استراتيجيات تسعير مرنة، تلبي AI 360 احتياجات المستخدمين المتنوعة، وتدعم المطورين في التكامل، مما يعزز الابتكار والتطوير في التطبيقات الذكية."
|
4
5
|
},
|
@@ -20,6 +21,9 @@
|
|
20
21
|
"fireworksai": {
|
21
22
|
"description": "Fireworks AI هي شركة رائدة في تقديم خدمات نماذج اللغة المتقدمة، تركز على استدعاء الوظائف والمعالجة متعددة الوسائط. نموذجها الأحدث Firefunction V2 مبني على Llama-3، مُحسّن لاستدعاء الوظائف، والحوار، واتباع التعليمات. يدعم نموذج اللغة البصرية FireLLaVA-13B إدخال الصور والنصوص المختلطة. تشمل النماذج البارزة الأخرى سلسلة Llama وسلسلة Mixtral، مما يوفر دعمًا فعالًا لاتباع التعليمات وتوليدها بلغات متعددة."
|
22
23
|
},
|
24
|
+
"github": {
|
25
|
+
"description": "مع نماذج GitHub، يمكن للمطورين أن يصبحوا مهندسي ذكاء اصطناعي ويبنون باستخدام نماذج الذكاء الاصطناعي الرائدة في الصناعة."
|
26
|
+
},
|
23
27
|
"google": {
|
24
28
|
"description": "سلسلة Gemini من Google هي نماذج الذكاء الاصطناعي الأكثر تقدمًا وشمولية، تم تطويرها بواسطة Google DeepMind، مصممة خصيصًا لتكون متعددة الوسائط، تدعم الفهم والمعالجة السلسة للنصوص، والشيفرات، والصور، والصوت، والفيديو. تناسب مجموعة متنوعة من البيئات، من مراكز البيانات إلى الأجهزة المحمولة، مما يعزز بشكل كبير كفاءة نماذج الذكاء الاصطناعي وانتشار استخدامها."
|
25
29
|
},
|
@@ -2,9 +2,6 @@
|
|
2
2
|
"01-ai/Yi-1.5-34B-Chat-16K": {
|
3
3
|
"description": "Yi-1.5 34B предлага отлични резултати в индустриалните приложения с богат набор от обучителни примери."
|
4
4
|
},
|
5
|
-
"01-ai/Yi-1.5-6B-Chat": {
|
6
|
-
"description": "Yi-1.5 е еволюционна версия на серията Yi, с високо качество на предварителното обучение и богати данни за фино настройване."
|
7
|
-
},
|
8
5
|
"01-ai/Yi-1.5-9B-Chat-16K": {
|
9
6
|
"description": "Yi-1.5 9B поддържа 16K токена, предоставяйки ефективни и плавни способности за генериране на език."
|
10
7
|
},
|
@@ -47,41 +44,56 @@
|
|
47
44
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
48
45
|
"description": "Nous Hermes-2 Yi (34B) предлага оптимизирани езикови изходи и разнообразни възможности за приложение."
|
49
46
|
},
|
47
|
+
"Phi-3-5-mini-instruct": {
|
48
|
+
"description": "Обновление на модела Phi-3-mini."
|
49
|
+
},
|
50
|
+
"Phi-3-medium-128k-instruct": {
|
51
|
+
"description": "Същият модел Phi-3-medium, но с по-голям размер на контекста за RAG или малко подканване."
|
52
|
+
},
|
53
|
+
"Phi-3-medium-4k-instruct": {
|
54
|
+
"description": "Модел с 14B параметри, предлагащ по-добро качество от Phi-3-mini, с акцент върху висококачествени, плътни на разсъждения данни."
|
55
|
+
},
|
56
|
+
"Phi-3-mini-128k-instruct": {
|
57
|
+
"description": "Същият модел Phi-3-mini, но с по-голям размер на контекста за RAG или малко подканване."
|
58
|
+
},
|
59
|
+
"Phi-3-mini-4k-instruct": {
|
60
|
+
"description": "Най-малкият член на семейството Phi-3. Оптимизиран както за качество, така и за ниска латентност."
|
61
|
+
},
|
62
|
+
"Phi-3-small-128k-instruct": {
|
63
|
+
"description": "Същият модел Phi-3-small, но с по-голям размер на контекста за RAG или малко подканване."
|
64
|
+
},
|
65
|
+
"Phi-3-small-8k-instruct": {
|
66
|
+
"description": "Модел с 7B параметри, предлагащ по-добро качество от Phi-3-mini, с акцент върху висококачествени, плътни на разсъждения данни."
|
67
|
+
},
|
50
68
|
"Pro-128k": {
|
51
69
|
"description": "Spark Pro-128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочни логически връзки, предоставяйки плавна и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации."
|
52
70
|
},
|
53
71
|
"Qwen/Qwen1.5-110B-Chat": {
|
54
72
|
"description": "Като тестова версия на Qwen2, Qwen1.5 използва големи данни за постигане на по-точни диалогови функции."
|
55
73
|
},
|
56
|
-
"Qwen/Qwen1.5-14B-Chat": {
|
57
|
-
"description": "Qwen1.5 е обучен с големи набори от данни и е специализиран в сложни езикови задачи."
|
58
|
-
},
|
59
|
-
"Qwen/Qwen1.5-32B-Chat": {
|
60
|
-
"description": "Qwen1.5 притежава способности за отговори на въпроси в множество области и генериране на текст."
|
61
|
-
},
|
62
74
|
"Qwen/Qwen1.5-72B-Chat": {
|
63
75
|
"description": "Qwen 1.5 Chat (72B) предлага бързи отговори и естествени диалогови способности, подходящи за многоезични среди."
|
64
76
|
},
|
65
|
-
"Qwen/
|
66
|
-
"description": "
|
77
|
+
"Qwen/Qwen2-72B-Instruct": {
|
78
|
+
"description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции."
|
67
79
|
},
|
68
|
-
"Qwen/Qwen2
|
69
|
-
"description": "Qwen2 е нова серия от големи езикови модели,
|
80
|
+
"Qwen/Qwen2.5-14B-Instruct": {
|
81
|
+
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
|
70
82
|
},
|
71
|
-
"Qwen/Qwen2-
|
72
|
-
"description": "Qwen2 е нова
|
83
|
+
"Qwen/Qwen2.5-32B-Instruct": {
|
84
|
+
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
|
73
85
|
},
|
74
|
-
"Qwen/Qwen2-72B-Instruct": {
|
75
|
-
"description": "Qwen2 е
|
86
|
+
"Qwen/Qwen2.5-72B-Instruct": {
|
87
|
+
"description": "Qwen2.5 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране."
|
76
88
|
},
|
77
|
-
"Qwen/Qwen2-7B-Instruct": {
|
78
|
-
"description": "Qwen2 е нова серия от големи езикови
|
89
|
+
"Qwen/Qwen2.5-7B-Instruct": {
|
90
|
+
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
|
79
91
|
},
|
80
|
-
"Qwen/Qwen2-
|
81
|
-
"description": "Qwen2-
|
92
|
+
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
93
|
+
"description": "Qwen2.5-Coder се фокусира върху писането на код."
|
82
94
|
},
|
83
|
-
"
|
84
|
-
"description": "
|
95
|
+
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
96
|
+
"description": "Qwen2.5-Math се фокусира върху решаването на математически проблеми, предоставяйки професионални отговори на трудни задачи."
|
85
97
|
},
|
86
98
|
"THUDM/glm-4-9b-chat": {
|
87
99
|
"description": "GLM-4 9B е отворен код версия, предоставяща оптимизирано изживяване в разговорните приложения."
|
@@ -158,6 +170,15 @@
|
|
158
170
|
"accounts/yi-01-ai/models/yi-large": {
|
159
171
|
"description": "Yi-Large модел, предлагащ изключителни способности за многоезична обработка, подходящ за различни задачи по генериране и разбиране на език."
|
160
172
|
},
|
173
|
+
"ai21-jamba-1.5-large": {
|
174
|
+
"description": "Многоезичен модел с 398B параметри (94B активни), предлагащ контекстен прозорец с дължина 256K, извикване на функции, структурирани изходи и генериране на основа."
|
175
|
+
},
|
176
|
+
"ai21-jamba-1.5-mini": {
|
177
|
+
"description": "Многоезичен модел с 52B параметри (12B активни), предлагащ контекстен прозорец с дължина 256K, извикване на функции, структурирани изходи и генериране на основа."
|
178
|
+
},
|
179
|
+
"ai21-jamba-instruct": {
|
180
|
+
"description": "Модел на базата на Mamba, проектиран за постигане на най-добри резултати, качество и ефективност на разходите."
|
181
|
+
},
|
161
182
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
162
183
|
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи на нашите модели от средно ниво."
|
163
184
|
},
|
@@ -254,6 +275,12 @@
|
|
254
275
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
255
276
|
"description": "Dolphin Mixtral 8x22B е модел, проектиран за следване на инструкции, диалози и програмиране."
|
256
277
|
},
|
278
|
+
"cohere-command-r": {
|
279
|
+
"description": "Command R е мащабируем генеративен модел, насочен към RAG и използване на инструменти, за да позволи AI на производствено ниво за предприятия."
|
280
|
+
},
|
281
|
+
"cohere-command-r-plus": {
|
282
|
+
"description": "Command R+ е модел, оптимизиран за RAG, проектиран да се справя с натоварвания на ниво предприятие."
|
283
|
+
},
|
257
284
|
"command-r": {
|
258
285
|
"description": "Command R е LLM, оптимизиран за диалогови и дълги контекстуални задачи, особено подходящ за динамично взаимодействие и управление на знания."
|
259
286
|
},
|
@@ -263,12 +290,6 @@
|
|
263
290
|
"databricks/dbrx-instruct": {
|
264
291
|
"description": "DBRX Instruct предлага висока надеждност в обработката на инструкции, поддържаща приложения в множество индустрии."
|
265
292
|
},
|
266
|
-
"deepseek-ai/DeepSeek-Coder-V2-Instruct": {
|
267
|
-
"description": "DeepSeek Coder V2 е проектиран за кодови задачи, с фокус върху ефективното генериране на код."
|
268
|
-
},
|
269
|
-
"deepseek-ai/DeepSeek-V2-Chat": {
|
270
|
-
"description": "DeepSeek V2 разполага с 6.7 милиарда параметри и поддържа обработка на текст на английски и китайски."
|
271
|
-
},
|
272
293
|
"deepseek-ai/DeepSeek-V2.5": {
|
273
294
|
"description": "DeepSeek V2.5 обединява отличителните характеристики на предишните версии, подобрявайки общите и кодиращите способности."
|
274
295
|
},
|
@@ -467,6 +488,8 @@
|
|
467
488
|
"internlm/internlm2_5-7b-chat": {
|
468
489
|
"description": "InternLM2.5 предлага интелигентни решения за диалог в множество сценарии."
|
469
490
|
},
|
491
|
+
"jamba-1.5-large": {},
|
492
|
+
"jamba-1.5-mini": {},
|
470
493
|
"llama-3.1-70b-instruct": {
|
471
494
|
"description": "Llama 3.1 70B Instruct модел, с 70B параметри, способен да предоставя изключителна производителност в задачи за генериране на текст и инструкции."
|
472
495
|
},
|
@@ -530,6 +553,21 @@
|
|
530
553
|
"mathstral": {
|
531
554
|
"description": "MathΣtral е проектиран за научни изследвания и математически разсъждения, предоставяйки ефективни изчислителни способности и интерпретация на резултати."
|
532
555
|
},
|
556
|
+
"meta-llama-3-70b-instruct": {
|
557
|
+
"description": "Мощен модел с 70 милиарда параметри, отличаващ се в разсъждения, кодиране и широки езикови приложения."
|
558
|
+
},
|
559
|
+
"meta-llama-3-8b-instruct": {
|
560
|
+
"description": "Универсален модел с 8 милиарда параметри, оптимизиран за диалогови и текстови генериращи задачи."
|
561
|
+
},
|
562
|
+
"meta-llama-3.1-405b-instruct": {
|
563
|
+
"description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти."
|
564
|
+
},
|
565
|
+
"meta-llama-3.1-70b-instruct": {
|
566
|
+
"description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти."
|
567
|
+
},
|
568
|
+
"meta-llama-3.1-8b-instruct": {
|
569
|
+
"description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти."
|
570
|
+
},
|
533
571
|
"meta-llama/Llama-2-13b-chat-hf": {
|
534
572
|
"description": "LLaMA-2 Chat (13B) предлага отлични способности за обработка на език и изключителен интерактивен опит."
|
535
573
|
},
|
@@ -539,9 +577,6 @@
|
|
539
577
|
"meta-llama/Llama-3-8b-chat-hf": {
|
540
578
|
"description": "LLaMA-3 Chat (8B) предлага многоезична поддръжка, обхващаща богати области на знание."
|
541
579
|
},
|
542
|
-
"meta-llama/Meta-Llama-3-70B-Instruct": {
|
543
|
-
"description": "LLaMA 3 поддържа генериране на големи обеми текст и анализ на инструкции."
|
544
|
-
},
|
545
580
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
546
581
|
"description": "Llama 3 70B Instruct Lite е подходящ за среди, изискващи висока производителност и ниска латентност."
|
547
582
|
},
|
@@ -620,12 +655,21 @@
|
|
620
655
|
"mistral-large": {
|
621
656
|
"description": "Mixtral Large е флагманският модел на Mistral, комбиниращ способности за генериране на код, математика и разсъждение, поддържащ контекстен прозорец от 128k."
|
622
657
|
},
|
658
|
+
"mistral-large-2407": {
|
659
|
+
"description": "Mistral Large (2407) е напреднал модел на езика (LLM) с най-съвременни способности за разсъждение, знание и кодиране."
|
660
|
+
},
|
623
661
|
"mistral-large-latest": {
|
624
662
|
"description": "Mistral Large е флагманският модел, специализиран в многоезични задачи, сложни разсъждения и генериране на код, идеален за висококачествени приложения."
|
625
663
|
},
|
626
664
|
"mistral-nemo": {
|
627
665
|
"description": "Mistral Nemo е 12B модел, разработен в сътрудничество между Mistral AI и NVIDIA, предлагащ ефективна производителност."
|
628
666
|
},
|
667
|
+
"mistral-small": {
|
668
|
+
"description": "Mistral Small може да се използва за всяка езикова задача, която изисква висока ефективност и ниска латентност."
|
669
|
+
},
|
670
|
+
"mistral-small-latest": {
|
671
|
+
"description": "Mistral Small е икономически ефективен, бърз и надежден вариант, подходящ за случаи на употреба като превод, резюме и анализ на настроението."
|
672
|
+
},
|
629
673
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
630
674
|
"description": "Mistral (7B) Instruct е известен с високата си производителност, подходящ за множество езикови задачи."
|
631
675
|
},
|
@@ -713,20 +757,29 @@
|
|
713
757
|
"phi3:14b": {
|
714
758
|
"description": "Phi-3 е лек отворен модел, представен от Microsoft, подходящ за ефективна интеграция и мащабно знание разсъждение."
|
715
759
|
},
|
760
|
+
"pixtral-12b-2409": {
|
761
|
+
"description": "Моделът Pixtral демонстрира силни способности в задачи като разбиране на графики и изображения, отговори на документи, многомодално разсъждение и следване на инструкции, способен да приема изображения с естествено разрешение и съотношение на страните, както и да обработва произволен брой изображения в контекстен прозорец с дължина до 128K токена."
|
762
|
+
},
|
763
|
+
"qwen-coder-turbo-latest": {
|
764
|
+
"description": "Моделът на кода Qwen."
|
765
|
+
},
|
716
766
|
"qwen-long": {
|
717
767
|
"description": "Qwen е мащабен езиков модел, който поддържа дълги текстови контексти и диалогови функции, базирани на дълги документи и множество документи."
|
718
768
|
},
|
719
|
-
"qwen-
|
720
|
-
"description": "
|
769
|
+
"qwen-math-plus-latest": {
|
770
|
+
"description": "Математическият модел Qwen е специално проектиран за решаване на математически задачи."
|
721
771
|
},
|
722
|
-
"qwen-
|
723
|
-
"description": "
|
772
|
+
"qwen-math-turbo-latest": {
|
773
|
+
"description": "Математическият модел Qwen е специално проектиран за решаване на математически задачи."
|
724
774
|
},
|
725
|
-
"qwen-
|
726
|
-
"description": "Qwen е
|
775
|
+
"qwen-max-latest": {
|
776
|
+
"description": "Qwen Max е езиков модел с мащаб от стотици милиарди параметри, който поддържа вход на различни езици, включително китайски и английски. В момента е основният API модел зад версията на продукта Qwen 2.5."
|
727
777
|
},
|
728
|
-
"qwen-
|
729
|
-
"description": "Qwen е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
|
778
|
+
"qwen-plus-latest": {
|
779
|
+
"description": "Разширената версия на Qwen Turbo е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
|
780
|
+
},
|
781
|
+
"qwen-turbo-latest": {
|
782
|
+
"description": "Моделът на езика Qwen Turbo е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
|
730
783
|
},
|
731
784
|
"qwen-vl-chat-v1": {
|
732
785
|
"description": "Qwen VL поддържа гъвкави интерактивни методи, включително множество изображения, многократни въпроси и отговори, творчество и др."
|
@@ -746,17 +799,32 @@
|
|
746
799
|
"qwen2": {
|
747
800
|
"description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
|
748
801
|
},
|
749
|
-
"qwen2-
|
750
|
-
"description": "
|
802
|
+
"qwen2.5-14b-instruct": {
|
803
|
+
"description": "Модел с мащаб 14B, отворен за обществеността от Qwen 2.5."
|
804
|
+
},
|
805
|
+
"qwen2.5-32b-instruct": {
|
806
|
+
"description": "Модел с мащаб 32B, отворен за обществеността от Qwen 2.5."
|
807
|
+
},
|
808
|
+
"qwen2.5-72b-instruct": {
|
809
|
+
"description": "Модел с мащаб 72B, отворен за обществеността от Qwen 2.5."
|
810
|
+
},
|
811
|
+
"qwen2.5-7b-instruct": {
|
812
|
+
"description": "Модел с мащаб 7B, отворен за обществеността от Qwen 2.5."
|
813
|
+
},
|
814
|
+
"qwen2.5-coder-1.5b-instruct": {
|
815
|
+
"description": "Отворената версия на модела на кода Qwen."
|
816
|
+
},
|
817
|
+
"qwen2.5-coder-7b-instruct": {
|
818
|
+
"description": "Отворената версия на модела на кода Qwen."
|
751
819
|
},
|
752
|
-
"qwen2-
|
753
|
-
"description": "
|
820
|
+
"qwen2.5-math-1.5b-instruct": {
|
821
|
+
"description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи."
|
754
822
|
},
|
755
|
-
"qwen2-
|
756
|
-
"description": "
|
823
|
+
"qwen2.5-math-72b-instruct": {
|
824
|
+
"description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи."
|
757
825
|
},
|
758
|
-
"qwen2-math-
|
759
|
-
"description": "
|
826
|
+
"qwen2.5-math-7b-instruct": {
|
827
|
+
"description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи."
|
760
828
|
},
|
761
829
|
"qwen2:0.5b": {
|
762
830
|
"description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
|