@lobehub/chat 1.19.13 → 1.19.15
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/locales/ar/models.json +116 -48
- package/locales/ar/providers.json +4 -0
- package/locales/bg-BG/models.json +116 -48
- package/locales/bg-BG/providers.json +4 -0
- package/locales/de-DE/models.json +116 -48
- package/locales/de-DE/providers.json +4 -0
- package/locales/en-US/models.json +116 -48
- package/locales/en-US/providers.json +4 -0
- package/locales/es-ES/models.json +116 -48
- package/locales/es-ES/providers.json +4 -0
- package/locales/fr-FR/models.json +116 -48
- package/locales/fr-FR/providers.json +4 -0
- package/locales/it-IT/models.json +0 -60
- package/locales/it-IT/providers.json +4 -0
- package/locales/ja-JP/models.json +116 -48
- package/locales/ja-JP/providers.json +4 -0
- package/locales/ko-KR/models.json +116 -48
- package/locales/ko-KR/providers.json +4 -0
- package/locales/nl-NL/models.json +0 -60
- package/locales/pl-PL/models.json +0 -60
- package/locales/pt-BR/models.json +116 -48
- package/locales/pt-BR/providers.json +4 -0
- package/locales/ru-RU/models.json +116 -48
- package/locales/ru-RU/providers.json +4 -0
- package/locales/tr-TR/models.json +116 -48
- package/locales/tr-TR/providers.json +4 -0
- package/locales/vi-VN/models.json +0 -60
- package/locales/zh-CN/models.json +122 -54
- package/locales/zh-CN/providers.json +4 -0
- package/locales/zh-TW/models.json +116 -48
- package/locales/zh-TW/providers.json +4 -0
- package/package.json +2 -1
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,56 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.19.15](https://github.com/lobehub/lobe-chat/compare/v1.19.14...v1.19.15)
|
6
|
+
|
7
|
+
<sup>Released on **2024-09-20**</sup>
|
8
|
+
|
9
|
+
#### 💄 Styles
|
10
|
+
|
11
|
+
- **misc**: Improve i18n in discover.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### Styles
|
19
|
+
|
20
|
+
- **misc**: Improve i18n in discover, closes [#4049](https://github.com/lobehub/lobe-chat/issues/4049) ([8170889](https://github.com/lobehub/lobe-chat/commit/8170889))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
30
|
+
### [Version 1.19.14](https://github.com/lobehub/lobe-chat/compare/v1.19.13...v1.19.14)
|
31
|
+
|
32
|
+
<sup>Released on **2024-09-20**</sup>
|
33
|
+
|
34
|
+
#### 🐛 Bug Fixes
|
35
|
+
|
36
|
+
- **misc**: Pin `shiki@1.17.7` to fix code highlight.
|
37
|
+
|
38
|
+
<br/>
|
39
|
+
|
40
|
+
<details>
|
41
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
42
|
+
|
43
|
+
#### What's fixed
|
44
|
+
|
45
|
+
- **misc**: Pin `shiki@1.17.7` to fix code highlight, closes [#4047](https://github.com/lobehub/lobe-chat/issues/4047) ([d12bf4c](https://github.com/lobehub/lobe-chat/commit/d12bf4c))
|
46
|
+
|
47
|
+
</details>
|
48
|
+
|
49
|
+
<div align="right">
|
50
|
+
|
51
|
+
[](#readme-top)
|
52
|
+
|
53
|
+
</div>
|
54
|
+
|
5
55
|
### [Version 1.19.13](https://github.com/lobehub/lobe-chat/compare/v1.19.12...v1.19.13)
|
6
56
|
|
7
57
|
<sup>Released on **2024-09-20**</sup>
|
package/locales/ar/models.json
CHANGED
@@ -2,9 +2,6 @@
|
|
2
2
|
"01-ai/Yi-1.5-34B-Chat-16K": {
|
3
3
|
"description": "Yi-1.5 34B، يقدم أداءً ممتازًا في التطبيقات الصناعية بفضل مجموعة التدريب الغنية."
|
4
4
|
},
|
5
|
-
"01-ai/Yi-1.5-6B-Chat": {
|
6
|
-
"description": "Yi-1.5 هو الإصدار المطور من سلسلة Yi، ويتميز بتدريب مسبق عالي الجودة وبيانات تعديل غنية."
|
7
|
-
},
|
8
5
|
"01-ai/Yi-1.5-9B-Chat-16K": {
|
9
6
|
"description": "Yi-1.5 9B يدعم 16K توكن، ويوفر قدرة توليد لغوية فعالة وسلسة."
|
10
7
|
},
|
@@ -47,41 +44,56 @@
|
|
47
44
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
48
45
|
"description": "Nous Hermes-2 Yi (34B) يوفر مخرجات لغوية محسنة وإمكانيات تطبيق متنوعة."
|
49
46
|
},
|
47
|
+
"Phi-3-5-mini-instruct": {
|
48
|
+
"description": "تحديث لنموذج Phi-3-mini."
|
49
|
+
},
|
50
|
+
"Phi-3-medium-128k-instruct": {
|
51
|
+
"description": "نموذج Phi-3-medium نفسه، ولكن مع حجم سياق أكبر لـ RAG أو التوجيه القليل."
|
52
|
+
},
|
53
|
+
"Phi-3-medium-4k-instruct": {
|
54
|
+
"description": "نموذج بحجم 14B، يثبت جودة أفضل من Phi-3-mini، مع التركيز على البيانات الكثيفة في التفكير عالية الجودة."
|
55
|
+
},
|
56
|
+
"Phi-3-mini-128k-instruct": {
|
57
|
+
"description": "نموذج Phi-3-mini نفسه، ولكن مع حجم سياق أكبر لـ RAG أو التوجيه القليل."
|
58
|
+
},
|
59
|
+
"Phi-3-mini-4k-instruct": {
|
60
|
+
"description": "أصغر عضو في عائلة Phi-3. مُحسّن لكل من الجودة وزمن الاستجابة المنخفض."
|
61
|
+
},
|
62
|
+
"Phi-3-small-128k-instruct": {
|
63
|
+
"description": "نموذج Phi-3-small نفسه، ولكن مع حجم سياق أكبر لـ RAG أو التوجيه القليل."
|
64
|
+
},
|
65
|
+
"Phi-3-small-8k-instruct": {
|
66
|
+
"description": "نموذج بحجم 7B، يثبت جودة أفضل من Phi-3-mini، مع التركيز على البيانات الكثيفة في التفكير عالية الجودة."
|
67
|
+
},
|
50
68
|
"Pro-128k": {
|
51
69
|
"description": "Spark Pro-128K مزود بقدرة معالجة سياق ضخمة، يمكنه التعامل مع معلومات سياق تصل إلى 128K، مما يجعله مثاليًا للمحتوى الطويل الذي يتطلب تحليلًا شاملًا ومعالجة علاقات منطقية طويلة الأمد، ويمكنه تقديم منطق سلس ودقيق ودعم متنوع للاقتباسات في التواصل النصي المعقد."
|
52
70
|
},
|
53
71
|
"Qwen/Qwen1.5-110B-Chat": {
|
54
72
|
"description": "كنموذج تجريبي لـ Qwen2، يستخدم Qwen1.5 بيانات ضخمة لتحقيق وظائف حوارية أكثر دقة."
|
55
73
|
},
|
56
|
-
"Qwen/Qwen1.5-14B-Chat": {
|
57
|
-
"description": "Qwen1.5 تم تدريبه على مجموعة بيانات ضخمة، ويتفوق في المهام اللغوية المعقدة."
|
58
|
-
},
|
59
|
-
"Qwen/Qwen1.5-32B-Chat": {
|
60
|
-
"description": "Qwen1.5 يمتلك القدرة على الإجابة على الأسئلة في مجالات متعددة وتوليد النصوص."
|
61
|
-
},
|
62
74
|
"Qwen/Qwen1.5-72B-Chat": {
|
63
75
|
"description": "Qwen 1.5 Chat (72B) يوفر استجابة سريعة وقدرة على الحوار الطبيعي، مناسب للبيئات متعددة اللغات."
|
64
76
|
},
|
65
|
-
"Qwen/
|
66
|
-
"description": "
|
77
|
+
"Qwen/Qwen2-72B-Instruct": {
|
78
|
+
"description": "Qwen2 هو نموذج لغوي عام متقدم، يدعم أنواع متعددة من التعليمات."
|
67
79
|
},
|
68
|
-
"Qwen/Qwen2
|
69
|
-
"description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية."
|
80
|
+
"Qwen/Qwen2.5-14B-Instruct": {
|
81
|
+
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية."
|
70
82
|
},
|
71
|
-
"Qwen/Qwen2-
|
72
|
-
"description": "Qwen2 هو سلسلة
|
83
|
+
"Qwen/Qwen2.5-32B-Instruct": {
|
84
|
+
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية."
|
73
85
|
},
|
74
|
-
"Qwen/Qwen2-72B-Instruct": {
|
75
|
-
"description": "Qwen2 هو
|
86
|
+
"Qwen/Qwen2.5-72B-Instruct": {
|
87
|
+
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تتمتع بقدرات أقوى في الفهم والتوليد."
|
76
88
|
},
|
77
|
-
"Qwen/Qwen2-7B-Instruct": {
|
78
|
-
"description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة،
|
89
|
+
"Qwen/Qwen2.5-7B-Instruct": {
|
90
|
+
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية."
|
79
91
|
},
|
80
|
-
"Qwen/Qwen2-
|
81
|
-
"description": "Qwen2-
|
92
|
+
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
93
|
+
"description": "Qwen2.5-Coder يركز على كتابة الشيفرة."
|
82
94
|
},
|
83
|
-
"
|
84
|
-
"description": "
|
95
|
+
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
96
|
+
"description": "Qwen2.5-Math يركز على حل المشكلات في مجال الرياضيات، ويقدم إجابات احترافية للأسئلة الصعبة."
|
85
97
|
},
|
86
98
|
"THUDM/glm-4-9b-chat": {
|
87
99
|
"description": "GLM-4 9B هو إصدار مفتوح المصدر، يوفر تجربة حوار محسنة لتطبيقات الحوار."
|
@@ -158,6 +170,15 @@
|
|
158
170
|
"accounts/yi-01-ai/models/yi-large": {
|
159
171
|
"description": "نموذج Yi-Large، يتمتع بقدرة معالجة لغوية ممتازة، يمكن استخدامه في جميع أنواع مهام توليد وفهم اللغة."
|
160
172
|
},
|
173
|
+
"ai21-jamba-1.5-large": {
|
174
|
+
"description": "نموذج متعدد اللغات بحجم 398B (94B نشط)، يقدم نافذة سياق طويلة بحجم 256K، واستدعاء وظائف، وإخراج منظم، وتوليد مستند."
|
175
|
+
},
|
176
|
+
"ai21-jamba-1.5-mini": {
|
177
|
+
"description": "نموذج متعدد اللغات بحجم 52B (12B نشط)، يقدم نافذة سياق طويلة بحجم 256K، واستدعاء وظائف، وإخراج منظم، وتوليد مستند."
|
178
|
+
},
|
179
|
+
"ai21-jamba-instruct": {
|
180
|
+
"description": "نموذج LLM يعتمد على Mamba، مصمم لتحقيق أفضل أداء وكفاءة من حيث الجودة والتكلفة."
|
181
|
+
},
|
161
182
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
162
183
|
"description": "Claude 3.5 Sonnet يرفع المعايير في الصناعة، حيث يتفوق على نماذج المنافسين وClaude 3 Opus، ويظهر أداءً ممتازًا في تقييمات واسعة، مع سرعة وتكلفة تتناسب مع نماذجنا المتوسطة."
|
163
184
|
},
|
@@ -254,6 +275,12 @@
|
|
254
275
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
255
276
|
"description": "Dolphin Mixtral 8x22B هو نموذج مصمم للامتثال للتعليمات، والحوار، والبرمجة."
|
256
277
|
},
|
278
|
+
"cohere-command-r": {
|
279
|
+
"description": "نموذج توليدي قابل للتوسع يستهدف RAG واستخدام الأدوات لتمكين الذكاء الاصطناعي على نطاق الإنتاج للمؤسسات."
|
280
|
+
},
|
281
|
+
"cohere-command-r-plus": {
|
282
|
+
"description": "نموذج RAG محسّن من الطراز الأول مصمم للتعامل مع أحمال العمل على مستوى المؤسسات."
|
283
|
+
},
|
257
284
|
"command-r": {
|
258
285
|
"description": "Command R هو نموذج LLM محسن لمهام الحوار والسياقات الطويلة، مناسب بشكل خاص للتفاعل الديناميكي وإدارة المعرفة."
|
259
286
|
},
|
@@ -263,12 +290,6 @@
|
|
263
290
|
"databricks/dbrx-instruct": {
|
264
291
|
"description": "DBRX Instruct يوفر قدرة معالجة تعليمات موثوقة، يدعم تطبيقات متعددة الصناعات."
|
265
292
|
},
|
266
|
-
"deepseek-ai/DeepSeek-Coder-V2-Instruct": {
|
267
|
-
"description": "DeepSeek Coder V2 مصمم لمهام البرمجة، يركز على توليد الأكواد بكفاءة."
|
268
|
-
},
|
269
|
-
"deepseek-ai/DeepSeek-V2-Chat": {
|
270
|
-
"description": "DeepSeek V2 يحتوي على 6.7 مليار معلمة، ويدعم معالجة النصوص بالإنجليزية والصينية."
|
271
|
-
},
|
272
293
|
"deepseek-ai/DeepSeek-V2.5": {
|
273
294
|
"description": "DeepSeek V2.5 يجمع بين الميزات الممتازة للإصدارات السابقة، ويعزز القدرات العامة والترميز."
|
274
295
|
},
|
@@ -467,6 +488,8 @@
|
|
467
488
|
"internlm/internlm2_5-7b-chat": {
|
468
489
|
"description": "InternLM2.5 يوفر حلول حوار ذكية في عدة سيناريوهات."
|
469
490
|
},
|
491
|
+
"jamba-1.5-large": {},
|
492
|
+
"jamba-1.5-mini": {},
|
470
493
|
"llama-3.1-70b-instruct": {
|
471
494
|
"description": "نموذج Llama 3.1 70B للتعليمات، يتمتع بـ 70B من المعلمات، قادر على تقديم أداء ممتاز في مهام توليد النصوص الكبيرة والتعليمات."
|
472
495
|
},
|
@@ -530,6 +553,21 @@
|
|
530
553
|
"mathstral": {
|
531
554
|
"description": "MathΣtral مصمم للبحث العلمي والاستدلال الرياضي، يوفر قدرة حسابية فعالة وتفسير النتائج."
|
532
555
|
},
|
556
|
+
"meta-llama-3-70b-instruct": {
|
557
|
+
"description": "نموذج قوي بحجم 70 مليار معلمة يتفوق في التفكير، والترميز، وتطبيقات اللغة الواسعة."
|
558
|
+
},
|
559
|
+
"meta-llama-3-8b-instruct": {
|
560
|
+
"description": "نموذج متعدد الاستخدامات بحجم 8 مليار معلمة، مُحسّن لمهام الحوار وتوليد النصوص."
|
561
|
+
},
|
562
|
+
"meta-llama-3.1-405b-instruct": {
|
563
|
+
"description": "نموذج Llama 3.1 المُعدل للتعليمات، مُحسّن لاستخدامات الحوار متعددة اللغات ويتفوق على العديد من نماذج الدردشة المفتوحة والمغلقة المتاحة في المعايير الصناعية الشائعة."
|
564
|
+
},
|
565
|
+
"meta-llama-3.1-70b-instruct": {
|
566
|
+
"description": "نموذج Llama 3.1 المُعدل للتعليمات، مُحسّن لاستخدامات الحوار متعددة اللغات ويتفوق على العديد من نماذج الدردشة المفتوحة والمغلقة المتاحة في المعايير الصناعية الشائعة."
|
567
|
+
},
|
568
|
+
"meta-llama-3.1-8b-instruct": {
|
569
|
+
"description": "نموذج Llama 3.1 المُعدل للتعليمات، مُحسّن لاستخدامات الحوار متعددة اللغات ويتفوق على العديد من نماذج الدردشة المفتوحة والمغلقة المتاحة في المعايير الصناعية الشائعة."
|
570
|
+
},
|
533
571
|
"meta-llama/Llama-2-13b-chat-hf": {
|
534
572
|
"description": "LLaMA-2 Chat (13B) يوفر قدرة ممتازة على معالجة اللغة وتجربة تفاعلية رائعة."
|
535
573
|
},
|
@@ -539,9 +577,6 @@
|
|
539
577
|
"meta-llama/Llama-3-8b-chat-hf": {
|
540
578
|
"description": "LLaMA-3 Chat (8B) يوفر دعمًا متعدد اللغات، ويغطي مجموعة واسعة من المعرفة في المجالات."
|
541
579
|
},
|
542
|
-
"meta-llama/Meta-Llama-3-70B-Instruct": {
|
543
|
-
"description": "LLaMA 3 يدعم توليد نصوص كبيرة وفهم التعليمات."
|
544
|
-
},
|
545
580
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
546
581
|
"description": "Llama 3 70B Instruct Lite مناسب للبيئات التي تتطلب أداءً عاليًا وزمن استجابة منخفض."
|
547
582
|
},
|
@@ -620,12 +655,21 @@
|
|
620
655
|
"mistral-large": {
|
621
656
|
"description": "Mixtral Large هو النموذج الرائد من Mistral، يجمع بين قدرات توليد الشيفرة، والرياضيات، والاستدلال، ويدعم نافذة سياق تصل إلى 128k."
|
622
657
|
},
|
658
|
+
"mistral-large-2407": {
|
659
|
+
"description": "Mistral Large (2407) هو نموذج لغة كبير متقدم (LLM) يتمتع بقدرات متطورة في التفكير والمعرفة والترميز."
|
660
|
+
},
|
623
661
|
"mistral-large-latest": {
|
624
662
|
"description": "Mistral Large هو النموذج الرائد، يتفوق في المهام متعددة اللغات، والاستدلال المعقد، وتوليد الشيفرة، وهو الخيار المثالي للتطبيقات الراقية."
|
625
663
|
},
|
626
664
|
"mistral-nemo": {
|
627
665
|
"description": "Mistral Nemo تم تطويره بالتعاون بين Mistral AI وNVIDIA، وهو نموذج 12B عالي الأداء."
|
628
666
|
},
|
667
|
+
"mistral-small": {
|
668
|
+
"description": "يمكن استخدام Mistral Small في أي مهمة تعتمد على اللغة تتطلب كفاءة عالية وزمن استجابة منخفض."
|
669
|
+
},
|
670
|
+
"mistral-small-latest": {
|
671
|
+
"description": "Mistral Small هو خيار فعال من حيث التكلفة وسريع وموثوق، مناسب لمهام الترجمة، والتلخيص، وتحليل المشاعر."
|
672
|
+
},
|
629
673
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
630
674
|
"description": "Mistral (7B) Instruct معروف بأدائه العالي، مناسب لمهام لغوية متعددة."
|
631
675
|
},
|
@@ -713,20 +757,29 @@
|
|
713
757
|
"phi3:14b": {
|
714
758
|
"description": "Phi-3 هو نموذج مفتوح خفيف الوزن أطلقته Microsoft، مناسب للتكامل الفعال واستدلال المعرفة على نطاق واسع."
|
715
759
|
},
|
760
|
+
"pixtral-12b-2409": {
|
761
|
+
"description": "نموذج Pixtral يظهر قدرات قوية في فهم الرسوم البيانية والصور، والإجابة على الأسئلة المتعلقة بالمستندات، والاستدلال متعدد الوسائط، واتباع التعليمات، مع القدرة على إدخال الصور بدقة طبيعية ونسبة عرض إلى ارتفاع، بالإضافة إلى معالجة عدد غير محدود من الصور في نافذة سياق طويلة تصل إلى 128K توكن."
|
762
|
+
},
|
763
|
+
"qwen-coder-turbo-latest": {
|
764
|
+
"description": "نموذج Qwen للبرمجة."
|
765
|
+
},
|
716
766
|
"qwen-long": {
|
717
767
|
"description": "نموذج Qwen العملاق للغة، يدعم سياقات نصية طويلة، بالإضافة إلى وظائف الحوار المستندة إلى الوثائق الطويلة والعديد من الوثائق."
|
718
768
|
},
|
719
|
-
"qwen-
|
720
|
-
"description": "نموذج Qwen
|
769
|
+
"qwen-math-plus-latest": {
|
770
|
+
"description": "نموذج Qwen الرياضي مصمم خصيصًا لحل المسائل الرياضية."
|
721
771
|
},
|
722
|
-
"qwen-
|
723
|
-
"description": "نموذج Qwen
|
772
|
+
"qwen-math-turbo-latest": {
|
773
|
+
"description": "نموذج Qwen الرياضي مصمم خصيصًا لحل المسائل الرياضية."
|
724
774
|
},
|
725
|
-
"qwen-
|
726
|
-
"description": "نموذج Qwen
|
775
|
+
"qwen-max-latest": {
|
776
|
+
"description": "نموذج لغة ضخم من Qwen بمستوى تريليونات، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية، وهو النموذج API وراء إصدار Qwen 2.5."
|
727
777
|
},
|
728
|
-
"qwen-
|
729
|
-
"description": "نموذج Qwen
|
778
|
+
"qwen-plus-latest": {
|
779
|
+
"description": "نسخة محسنة من نموذج لغة Qwen الضخم، تدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
|
780
|
+
},
|
781
|
+
"qwen-turbo-latest": {
|
782
|
+
"description": "نموذج لغة ضخم من Qwen، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
|
730
783
|
},
|
731
784
|
"qwen-vl-chat-v1": {
|
732
785
|
"description": "نموذج Qwen العملاق للغة البصرية يدعم طرق تفاعل مرنة، بما في ذلك الصور المتعددة، والأسئلة والأجوبة المتعددة، والإبداع."
|
@@ -746,17 +799,32 @@
|
|
746
799
|
"qwen2": {
|
747
800
|
"description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة."
|
748
801
|
},
|
749
|
-
"qwen2-
|
750
|
-
"description": "نموذج
|
802
|
+
"qwen2.5-14b-instruct": {
|
803
|
+
"description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 14B."
|
804
|
+
},
|
805
|
+
"qwen2.5-32b-instruct": {
|
806
|
+
"description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 32B."
|
807
|
+
},
|
808
|
+
"qwen2.5-72b-instruct": {
|
809
|
+
"description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 72B."
|
810
|
+
},
|
811
|
+
"qwen2.5-7b-instruct": {
|
812
|
+
"description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 7B."
|
813
|
+
},
|
814
|
+
"qwen2.5-coder-1.5b-instruct": {
|
815
|
+
"description": "نسخة مفتوحة المصدر من نموذج Qwen للبرمجة."
|
816
|
+
},
|
817
|
+
"qwen2.5-coder-7b-instruct": {
|
818
|
+
"description": "نسخة مفتوحة المصدر من نموذج Qwen للبرمجة."
|
751
819
|
},
|
752
|
-
"qwen2-
|
753
|
-
"description": "نموذج
|
820
|
+
"qwen2.5-math-1.5b-instruct": {
|
821
|
+
"description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية."
|
754
822
|
},
|
755
|
-
"qwen2-
|
756
|
-
"description": "نموذج
|
823
|
+
"qwen2.5-math-72b-instruct": {
|
824
|
+
"description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية."
|
757
825
|
},
|
758
|
-
"qwen2-math-
|
759
|
-
"description": "نموذج
|
826
|
+
"qwen2.5-math-7b-instruct": {
|
827
|
+
"description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية."
|
760
828
|
},
|
761
829
|
"qwen2:0.5b": {
|
762
830
|
"description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة."
|
@@ -1,4 +1,5 @@
|
|
1
1
|
{
|
2
|
+
"ai21": {},
|
2
3
|
"ai360": {
|
3
4
|
"description": "AI 360 هي منصة نماذج وخدمات الذكاء الاصطناعي التي أطلقتها شركة 360، تقدم مجموعة متنوعة من نماذج معالجة اللغة الطبيعية المتقدمة، بما في ذلك 360GPT2 Pro و360GPT Pro و360GPT Turbo و360GPT Turbo Responsibility 8K. تجمع هذه النماذج بين المعلمات الكبيرة والقدرات متعددة الوسائط، وتستخدم على نطاق واسع في توليد النصوص، وفهم المعاني، وأنظمة الحوار، وتوليد الشيفرات. من خلال استراتيجيات تسعير مرنة، تلبي AI 360 احتياجات المستخدمين المتنوعة، وتدعم المطورين في التكامل، مما يعزز الابتكار والتطوير في التطبيقات الذكية."
|
4
5
|
},
|
@@ -20,6 +21,9 @@
|
|
20
21
|
"fireworksai": {
|
21
22
|
"description": "Fireworks AI هي شركة رائدة في تقديم خدمات نماذج اللغة المتقدمة، تركز على استدعاء الوظائف والمعالجة متعددة الوسائط. نموذجها الأحدث Firefunction V2 مبني على Llama-3، مُحسّن لاستدعاء الوظائف، والحوار، واتباع التعليمات. يدعم نموذج اللغة البصرية FireLLaVA-13B إدخال الصور والنصوص المختلطة. تشمل النماذج البارزة الأخرى سلسلة Llama وسلسلة Mixtral، مما يوفر دعمًا فعالًا لاتباع التعليمات وتوليدها بلغات متعددة."
|
22
23
|
},
|
24
|
+
"github": {
|
25
|
+
"description": "مع نماذج GitHub، يمكن للمطورين أن يصبحوا مهندسي ذكاء اصطناعي ويبنون باستخدام نماذج الذكاء الاصطناعي الرائدة في الصناعة."
|
26
|
+
},
|
23
27
|
"google": {
|
24
28
|
"description": "سلسلة Gemini من Google هي نماذج الذكاء الاصطناعي الأكثر تقدمًا وشمولية، تم تطويرها بواسطة Google DeepMind، مصممة خصيصًا لتكون متعددة الوسائط، تدعم الفهم والمعالجة السلسة للنصوص، والشيفرات، والصور، والصوت، والفيديو. تناسب مجموعة متنوعة من البيئات، من مراكز البيانات إلى الأجهزة المحمولة، مما يعزز بشكل كبير كفاءة نماذج الذكاء الاصطناعي وانتشار استخدامها."
|
25
29
|
},
|