@lobehub/chat 1.22.14 → 1.22.16
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/README.md +8 -8
- package/README.zh-CN.md +8 -8
- package/locales/ar/models.json +86 -17
- package/locales/bg-BG/models.json +85 -16
- package/locales/de-DE/models.json +86 -17
- package/locales/en-US/models.json +86 -17
- package/locales/es-ES/models.json +86 -17
- package/locales/fr-FR/models.json +86 -17
- package/locales/it-IT/models.json +86 -17
- package/locales/ja-JP/models.json +86 -17
- package/locales/ko-KR/models.json +86 -17
- package/locales/nl-NL/models.json +86 -17
- package/locales/pl-PL/models.json +86 -17
- package/locales/pt-BR/models.json +86 -17
- package/locales/ru-RU/models.json +86 -17
- package/locales/tr-TR/models.json +86 -17
- package/locales/vi-VN/models.json +86 -17
- package/locales/zh-CN/models.json +108 -39
- package/locales/zh-CN/providers.json +2 -2
- package/locales/zh-TW/models.json +86 -17
- package/package.json +1 -1
- package/src/components/server/MobileNavLayout.tsx +2 -1
- package/src/features/Setting/SettingContainer.tsx +17 -6
- package/src/libs/next-auth/sso-providers/azure-ad.ts +2 -1
- package/src/utils/format.test.ts +66 -2
- package/src/utils/format.ts +35 -10
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,56 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.22.16](https://github.com/lobehub/lobe-chat/compare/v1.22.15...v1.22.16)
|
6
|
+
|
7
|
+
<sup>Released on **2024-10-21**</sup>
|
8
|
+
|
9
|
+
#### 🐛 Bug Fixes
|
10
|
+
|
11
|
+
- **misc**: Fix azure-ad.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### What's fixed
|
19
|
+
|
20
|
+
- **misc**: Fix azure-ad, closes [#4438](https://github.com/lobehub/lobe-chat/issues/4438) ([8077317](https://github.com/lobehub/lobe-chat/commit/8077317))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
30
|
+
### [Version 1.22.15](https://github.com/lobehub/lobe-chat/compare/v1.22.14...v1.22.15)
|
31
|
+
|
32
|
+
<sup>Released on **2024-10-21**</sup>
|
33
|
+
|
34
|
+
#### ♻ Code Refactoring
|
35
|
+
|
36
|
+
- **misc**: Update format utils and shared layout.
|
37
|
+
|
38
|
+
<br/>
|
39
|
+
|
40
|
+
<details>
|
41
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
42
|
+
|
43
|
+
#### Code refactoring
|
44
|
+
|
45
|
+
- **misc**: Update format utils and shared layout, closes [#4431](https://github.com/lobehub/lobe-chat/issues/4431) ([56ed073](https://github.com/lobehub/lobe-chat/commit/56ed073))
|
46
|
+
|
47
|
+
</details>
|
48
|
+
|
49
|
+
<div align="right">
|
50
|
+
|
51
|
+
[](#readme-top)
|
52
|
+
|
53
|
+
</div>
|
54
|
+
|
5
55
|
### [Version 1.22.14](https://github.com/lobehub/lobe-chat/compare/v1.22.13...v1.22.14)
|
6
56
|
|
7
57
|
<sup>Released on **2024-10-20**</sup>
|
package/README.md
CHANGED
@@ -285,14 +285,14 @@ Our marketplace is not just a showcase platform but also a collaborative space.
|
|
285
285
|
|
286
286
|
<!-- AGENT LIST -->
|
287
287
|
|
288
|
-
| Recent Submits
|
289
|
-
|
|
290
|
-
| [
|
291
|
-
| [
|
292
|
-
| [
|
293
|
-
| [
|
294
|
-
|
295
|
-
> 📊 Total agents: [<kbd>**
|
288
|
+
| Recent Submits | Description |
|
289
|
+
| ------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
|
290
|
+
| [Algorithm Answer Mentor](https://chat-preview.lobehub.com/market?agent=leetcode-tutor)<br/><sup>By **[Stark-X](https://github.com/Stark-X)** on **2024-10-21**</sup> | Specializes in LeetCode algorithm solutions and user guidance<br/>`algorithm` `problem-solving` `programming` `education` |
|
291
|
+
| [Psychologist](https://chat-preview.lobehub.com/market?agent=psychological-counselor)<br/><sup>By **[JIANGTUNAN](https://github.com/JIANGTUNAN)** on **2024-10-21**</sup> | An experienced psychologist, warmly and patiently listening to your story.<br/>`psychological-counseling` `consultation` `sharing` `friendly` `doctor` `counselor` |
|
292
|
+
| [Boxing Training Master](https://chat-preview.lobehub.com/market?agent=boxing-master)<br/><sup>By **[Luyi-2333](https://github.com/Luyi-2333)** on **2024-10-15**</sup> | Expert in boxing training guidance and personalized plan development<br/>`boxing-training` `personalized-plans` `fitness-guidance` `progress-evaluation` `technique-improvement` `health-and-nutrition` |
|
293
|
+
| [Coconut](https://chat-preview.lobehub.com/market?agent=deep-thinker-ai)<br/><sup>By **[hia1234](https://github.com/hia1234)** on **2024-10-15**</sup> | A chatbot that undergoes several reviews of its responses, checking whether there is a basis for its statements and actively requesting feedback while engaging in repeated interactions.<br/>`programming` `general` |
|
294
|
+
|
295
|
+
> 📊 Total agents: [<kbd>**420**</kbd> ](https://github.com/lobehub/lobe-chat-agents)
|
296
296
|
|
297
297
|
<!-- AGENT LIST -->
|
298
298
|
|
package/README.zh-CN.md
CHANGED
@@ -274,14 +274,14 @@ LobeChat 的插件生态系统是其核心功能的重要扩展,它极大地
|
|
274
274
|
|
275
275
|
<!-- AGENT LIST -->
|
276
276
|
|
277
|
-
| 最近新增
|
278
|
-
|
|
279
|
-
| [
|
280
|
-
| [
|
281
|
-
| [
|
282
|
-
| [
|
283
|
-
|
284
|
-
> 📊 Total agents: [<kbd>**
|
277
|
+
| 最近新增 | 助手说明 |
|
278
|
+
| ----------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------------------- |
|
279
|
+
| [算法解答导师](https://chat-preview.lobehub.com/market?agent=leetcode-tutor)<br/><sup>By **[Stark-X](https://github.com/Stark-X)** on **2024-10-21**</sup> | 擅长 LeetCode 算法解答与用户指导<br/>`算法` `解题` `编程` `教育` |
|
280
|
+
| [心理咨询师](https://chat-preview.lobehub.com/market?agent=psychological-counselor)<br/><sup>By **[JIANGTUNAN](https://github.com/JIANGTUNAN)** on **2024-10-21**</sup> | 一个资深心理医生,温暖和耐心的倾听你的故事。<br/>`心理咨询` `咨询` `倾述` `友好` `医生` `咨询师` |
|
281
|
+
| [拳击训练大师](https://chat-preview.lobehub.com/market?agent=boxing-master)<br/><sup>By **[Luyi-2333](https://github.com/Luyi-2333)** on **2024-10-15**</sup> | 擅长拳击训练指导与个性化计划制定<br/>`拳击训练` `个性化计划` `健身指导` `进度评估` `技术提升` `健康与营养` |
|
282
|
+
| [椰子](https://chat-preview.lobehub.com/market?agent=deep-thinker-ai)<br/><sup>By **[hia1234](https://github.com/hia1234)** on **2024-10-15**</sup> | 在自己的回答中进行多次审查,确保聊天机器人所说的话有依据,并积极请求反馈,反复进行互动<br/>`编程` `一般` |
|
283
|
+
|
284
|
+
> 📊 Total agents: [<kbd>**420**</kbd> ](https://github.com/lobehub/lobe-chat-agents)
|
285
285
|
|
286
286
|
<!-- AGENT LIST -->
|
287
287
|
|
package/locales/ar/models.json
CHANGED
@@ -47,8 +47,8 @@
|
|
47
47
|
"ERNIE-4.0-8K-Preview": {
|
48
48
|
"description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي شهد ترقية شاملة في القدرات مقارنةً بـERNIE 3.5، ويستخدم على نطاق واسع في مجالات متعددة لمهام معقدة؛ يدعم الاتصال التلقائي بإضافات بحث بايدو لضمان تحديث معلومات الإجابة."
|
49
49
|
},
|
50
|
-
"ERNIE-4.0-Turbo-8K": {
|
51
|
-
"description": "نموذج اللغة الكبير الرائد الذي طورته بايدو،
|
50
|
+
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
|
+
"description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي يظهر أداءً ممتازًا في مجالات متعددة، مما يجعله مناسبًا لمجموعة واسعة من المهام المعقدة؛ يدعم الاتصال التلقائي بمكونات البحث من بايدو، مما يضمن تحديث معلومات الأسئلة والأجوبة. مقارنة بـ ERNIE 4.0، يظهر أداءً أفضل."
|
52
52
|
},
|
53
53
|
"ERNIE-4.0-Turbo-8K-Preview": {
|
54
54
|
"description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يتميز بأداء شامل ممتاز، ويستخدم على نطاق واسع في مجالات متعددة لمهام معقدة؛ يدعم الاتصال التلقائي بإضافات بحث بايدو لضمان تحديث معلومات الإجابة. مقارنةً بـERNIE 4.0، يتمتع بأداء أفضل."
|
@@ -80,8 +80,11 @@
|
|
80
80
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
81
81
|
"description": "Nous Hermes-2 Yi (34B) يوفر مخرجات لغوية محسنة وإمكانيات تطبيق متنوعة."
|
82
82
|
},
|
83
|
-
"
|
84
|
-
"description": "
|
83
|
+
"OpenGVLab/InternVL2-26B": {
|
84
|
+
"description": "أظهر InternVL2 أداءً رائعًا في مجموعة متنوعة من مهام اللغة البصرية، بما في ذلك فهم الوثائق والرسوم البيانية، وفهم النصوص في المشاهد، وOCR، وحل المشكلات العلمية والرياضية."
|
85
|
+
},
|
86
|
+
"OpenGVLab/InternVL2-Llama3-76B": {
|
87
|
+
"description": "أظهر InternVL2 أداءً رائعًا في مجموعة متنوعة من مهام اللغة البصرية، بما في ذلك فهم الوثائق والرسوم البيانية، وفهم النصوص في المشاهد، وOCR، وحل المشكلات العلمية والرياضية."
|
85
88
|
},
|
86
89
|
"Phi-3-medium-128k-instruct": {
|
87
90
|
"description": "نموذج Phi-3-medium نفسه، ولكن مع حجم سياق أكبر لـ RAG أو التوجيه القليل."
|
@@ -101,9 +104,21 @@
|
|
101
104
|
"Phi-3-small-8k-instruct": {
|
102
105
|
"description": "نموذج بحجم 7B، يثبت جودة أفضل من Phi-3-mini، مع التركيز على البيانات الكثيفة في التفكير عالية الجودة."
|
103
106
|
},
|
107
|
+
"Phi-3.5-mini-instruct": {
|
108
|
+
"description": "النسخة المحدثة من نموذج Phi-3-mini."
|
109
|
+
},
|
110
|
+
"Phi-3.5-vision-instrust": {
|
111
|
+
"description": "النسخة المحدثة من نموذج Phi-3-vision."
|
112
|
+
},
|
104
113
|
"Pro-128k": {
|
105
114
|
"description": "Spark Pro-128K مزود بقدرة معالجة سياق ضخمة، يمكنه التعامل مع معلومات سياق تصل إلى 128K، مما يجعله مثاليًا للمحتوى الطويل الذي يتطلب تحليلًا شاملًا ومعالجة علاقات منطقية طويلة الأمد، ويمكنه تقديم منطق سلس ودقيق ودعم متنوع للاقتباسات في التواصل النصي المعقد."
|
106
115
|
},
|
116
|
+
"Pro/OpenGVLab/InternVL2-8B": {
|
117
|
+
"description": "أظهر InternVL2 أداءً رائعًا في مجموعة متنوعة من مهام اللغة البصرية، بما في ذلك فهم الوثائق والرسوم البيانية، وفهم النصوص في المشاهد، وOCR، وحل المشكلات العلمية والرياضية."
|
118
|
+
},
|
119
|
+
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
120
|
+
"description": "Qwen2-VL هو النسخة الأحدث من نموذج Qwen-VL، وقد حقق أداءً متقدمًا في اختبارات الفهم البصري."
|
121
|
+
},
|
107
122
|
"Qwen/Qwen1.5-110B-Chat": {
|
108
123
|
"description": "كنموذج تجريبي لـ Qwen2، يستخدم Qwen1.5 بيانات ضخمة لتحقيق وظائف حوارية أكثر دقة."
|
109
124
|
},
|
@@ -113,18 +128,27 @@
|
|
113
128
|
"Qwen/Qwen2-72B-Instruct": {
|
114
129
|
"description": "Qwen2 هو نموذج لغوي عام متقدم، يدعم أنواع متعددة من التعليمات."
|
115
130
|
},
|
131
|
+
"Qwen/Qwen2-VL-72B-Instruct": {
|
132
|
+
"description": "Qwen2-VL هو النسخة الأحدث من نموذج Qwen-VL، وقد حقق أداءً متقدمًا في اختبارات الفهم البصري."
|
133
|
+
},
|
116
134
|
"Qwen/Qwen2.5-14B-Instruct": {
|
117
135
|
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية."
|
118
136
|
},
|
119
137
|
"Qwen/Qwen2.5-32B-Instruct": {
|
120
138
|
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية."
|
121
139
|
},
|
122
|
-
"Qwen/Qwen2.5-72B-Instruct": {
|
123
|
-
"description": "Qwen2.5
|
140
|
+
"Qwen/Qwen2.5-72B-Instruct-128K": {
|
141
|
+
"description": "Qwen2.5 هي سلسلة جديدة من نماذج اللغة الكبيرة، تتمتع بقدرة أكبر على الفهم والتوليد."
|
142
|
+
},
|
143
|
+
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
|
144
|
+
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، مصممة لتحسين معالجة المهام التوجيهية."
|
124
145
|
},
|
125
146
|
"Qwen/Qwen2.5-7B-Instruct": {
|
126
147
|
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية."
|
127
148
|
},
|
149
|
+
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
150
|
+
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، مصممة لتحسين معالجة المهام التوجيهية."
|
151
|
+
},
|
128
152
|
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
129
153
|
"description": "Qwen2.5-Coder يركز على كتابة الشيفرة."
|
130
154
|
},
|
@@ -158,9 +182,6 @@
|
|
158
182
|
"accounts/fireworks/models/firellava-13b": {
|
159
183
|
"description": "fireworks-ai/FireLLaVA-13b هو نموذج لغوي بصري، يمكنه استقبال المدخلات من الصور والنصوص، تم تدريبه على بيانات عالية الجودة، مناسب للمهام متعددة الوسائط."
|
160
184
|
},
|
161
|
-
"accounts/fireworks/models/gemma2-9b-it": {
|
162
|
-
"description": "نموذج Gemma 2 9B للتعليمات، يعتمد على تقنيات Google السابقة، مناسب لمهام توليد النصوص مثل الإجابة على الأسئلة، والتلخيص، والاستدلال."
|
163
|
-
},
|
164
185
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
165
186
|
"description": "نموذج Llama 3 70B للتعليمات، مصمم للحوار متعدد اللغات وفهم اللغة الطبيعية، أداءه يتفوق على معظم النماذج المنافسة."
|
166
187
|
},
|
@@ -182,6 +203,18 @@
|
|
182
203
|
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
|
183
204
|
"description": "نموذج Llama 3.1 8B للتعليمات، تم تحسينه للحوار متعدد اللغات، قادر على تجاوز معظم النماذج المفتوحة والمغلقة في المعايير الصناعية الشائعة."
|
184
205
|
},
|
206
|
+
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
207
|
+
"description": "نموذج استدلال الصور المعدل من Meta ذو 11B معلمات. تم تحسين هذا النموذج للتعرف البصري، واستدلال الصور، ووصف الصور، والإجابة عن الأسئلة العامة المتعلقة بالصور. يستطيع النموذج فهم البيانات البصرية مثل الرسوم البيانية والرسوم، ويسد الفجوة بين الرؤية واللغة من خلال توليد أوصاف نصية لجزئيات الصور."
|
208
|
+
},
|
209
|
+
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
210
|
+
"description": "نموذج التوجيه Llama 3.2 1B هو نموذج متعدد اللغات خفيف الوزن قدمته Meta. يهدف هذا النموذج إلى زيادة الكفاءة، مع تحسينات ملحوظة في التأخير والتكلفة مقارنة بالنماذج الأكبر. تشمل حالات الاستخدام النموذجية لهذا النموذج الاسترجاع والتلخيص."
|
211
|
+
},
|
212
|
+
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
213
|
+
"description": "نموذج التوجيه Llama 3.2 3B هو نموذج متعدد اللغات خفيف الوزن قدمته Meta. يهدف هذا النموذج إلى زيادة الكفاءة، مع تحسينات ملحوظة في التأخير والتكلفة مقارنة بالنماذج الأكبر. تشمل حالات الاستخدام النموذجية لهذا النموذج الاستفسارات وإعادة كتابة الملاحظات والمساعدة في الكتابة."
|
214
|
+
},
|
215
|
+
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
216
|
+
"description": "نموذج استدلال الصور المعدل من Meta ذو 90B معلمات. تم تحسين هذا النموذج للتعرف البصري، واستدلال الصور، ووصف الصور، والإجابة عن الأسئلة العامة المتعلقة بالصور. يستطيع النموذج فهم البيانات البصرية مثل الرسوم البيانية والرسوم، ويسد الفجوة بين الرؤية واللغة من خلال توليد أوصاف نصية لجزئيات الصور."
|
217
|
+
},
|
185
218
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
186
219
|
"description": "نموذج Mixtral MoE 8x22B للتعليمات، مع معلمات ضخمة وهيكل خبير متعدد، يدعم معالجة فعالة لمهام معقدة."
|
187
220
|
},
|
@@ -197,6 +230,9 @@
|
|
197
230
|
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
|
198
231
|
"description": "نموذج Phi 3 Vision للتعليمات، نموذج متعدد الوسائط خفيف الوزن، قادر على معالجة معلومات بصرية ونصية معقدة، يتمتع بقدرة استدلال قوية."
|
199
232
|
},
|
233
|
+
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
234
|
+
"description": "Qwen2.5 هي سلسلة من نماذج اللغة التي طورتها مجموعة Qwen من علي بابا، تحتوي فقط على شريحة فك شفرات. توفر هذه النماذج أحجامًا مختلفة، بما في ذلك 0.5B، 1.5B، 3B، 7B، 14B، 32B و72B، وتأتي بنسخ أساسية (base) ونماذج توجيهية (instruct)."
|
235
|
+
},
|
200
236
|
"accounts/fireworks/models/starcoder-16b": {
|
201
237
|
"description": "نموذج StarCoder 15.5B، يدعم مهام البرمجة المتقدمة، مع تعزيز القدرة على التعامل مع لغات متعددة، مناسب لتوليد وفهم الشيفرات المعقدة."
|
202
238
|
},
|
@@ -212,9 +248,6 @@
|
|
212
248
|
"ai21-jamba-1.5-mini": {
|
213
249
|
"description": "نموذج متعدد اللغات بحجم 52B (12B نشط)، يقدم نافذة سياق طويلة بحجم 256K، واستدعاء وظائف، وإخراج منظم، وتوليد مستند."
|
214
250
|
},
|
215
|
-
"ai21-jamba-instruct": {
|
216
|
-
"description": "نموذج LLM يعتمد على Mamba، مصمم لتحقيق أفضل أداء وكفاءة من حيث الجودة والتكلفة."
|
217
|
-
},
|
218
251
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
219
252
|
"description": "Claude 3.5 Sonnet يرفع المعايير في الصناعة، حيث يتفوق على نماذج المنافسين وClaude 3 Opus، ويظهر أداءً ممتازًا في تقييمات واسعة، مع سرعة وتكلفة تتناسب مع نماذجنا المتوسطة."
|
220
253
|
},
|
@@ -592,9 +625,15 @@
|
|
592
625
|
"llama-3.1-sonar-small-128k-online": {
|
593
626
|
"description": "نموذج Llama 3.1 Sonar Small Online، يتمتع بـ 8B من المعلمات، يدعم طول سياق حوالي 127,000 علامة، مصمم للدردشة عبر الإنترنت، قادر على معالجة تفاعلات نصية متنوعة بكفاءة."
|
594
627
|
},
|
628
|
+
"llama-3.2-11b-vision-instruct": {
|
629
|
+
"description": "قدرة استدلال الصور التي تبرز في الصور عالية الدقة، مناسبة لتطبيقات الفهم البصري."
|
630
|
+
},
|
595
631
|
"llama-3.2-11b-vision-preview": {
|
596
632
|
"description": "Llama 3.2 مصمم للتعامل مع المهام التي تجمع بين البيانات البصرية والنصية. يظهر أداءً ممتازًا في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري."
|
597
633
|
},
|
634
|
+
"llama-3.2-90b-vision-instruct": {
|
635
|
+
"description": "قدرة استدلال الصور المتقدمة المناسبة لتطبيقات الوكلاء في الفهم البصري."
|
636
|
+
},
|
598
637
|
"llama-3.2-90b-vision-preview": {
|
599
638
|
"description": "Llama 3.2 مصمم للتعامل مع المهام التي تجمع بين البيانات البصرية والنصية. يظهر أداءً ممتازًا في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري."
|
600
639
|
},
|
@@ -652,8 +691,8 @@
|
|
652
691
|
"meta-llama/Llama-2-13b-chat-hf": {
|
653
692
|
"description": "LLaMA-2 Chat (13B) يوفر قدرة ممتازة على معالجة اللغة وتجربة تفاعلية رائعة."
|
654
693
|
},
|
655
|
-
"meta-llama/Llama-2-
|
656
|
-
"description": "
|
694
|
+
"meta-llama/Llama-2-70b-hf": {
|
695
|
+
"description": "يوفر LLaMA-2 قدرة معالجة لغوية ممتازة وتجربة تفاعلية رائعة."
|
657
696
|
},
|
658
697
|
"meta-llama/Llama-3-70b-chat-hf": {
|
659
698
|
"description": "LLaMA-3 Chat (70B) هو نموذج دردشة قوي، يدعم احتياجات الحوار المعقدة."
|
@@ -661,6 +700,18 @@
|
|
661
700
|
"meta-llama/Llama-3-8b-chat-hf": {
|
662
701
|
"description": "LLaMA-3 Chat (8B) يوفر دعمًا متعدد اللغات، ويغطي مجموعة واسعة من المعرفة في المجالات."
|
663
702
|
},
|
703
|
+
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
|
704
|
+
"description": "تم تصميم LLaMA 3.2 لمعالجة المهام التي تجمع بين البيانات البصرية والنصية. إنه يبرز في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة واستدلال الرؤية."
|
705
|
+
},
|
706
|
+
"meta-llama/Llama-3.2-3B-Instruct-Turbo": {
|
707
|
+
"description": "تم تصميم LLaMA 3.2 لمعالجة المهام التي تجمع بين البيانات البصرية والنصية. إنه يبرز في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة واستدلال الرؤية."
|
708
|
+
},
|
709
|
+
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
|
710
|
+
"description": "تم تصميم LLaMA 3.2 لمعالجة المهام التي تجمع بين البيانات البصرية والنصية. إنه يبرز في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة واستدلال الرؤية."
|
711
|
+
},
|
712
|
+
"meta-llama/Llama-Vision-Free": {
|
713
|
+
"description": "تم تصميم LLaMA 3.2 لمعالجة المهام التي تجمع بين البيانات البصرية والنصية. إنه يبرز في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة واستدلال الرؤية."
|
714
|
+
},
|
664
715
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
665
716
|
"description": "Llama 3 70B Instruct Lite مناسب للبيئات التي تتطلب أداءً عاليًا وزمن استجابة منخفض."
|
666
717
|
},
|
@@ -739,15 +790,18 @@
|
|
739
790
|
"minicpm-v": {
|
740
791
|
"description": "MiniCPM-V هو نموذج متعدد الوسائط من الجيل الجديد تم إطلاقه بواسطة OpenBMB، ويتميز بقدرات استثنائية في التعرف على النصوص وفهم الوسائط المتعددة، ويدعم مجموعة واسعة من سيناريوهات الاستخدام."
|
741
792
|
},
|
793
|
+
"ministral-3b-latest": {
|
794
|
+
"description": "Ministral 3B هو نموذج حافة عالمي المستوى من Mistral."
|
795
|
+
},
|
796
|
+
"ministral-8b-latest": {
|
797
|
+
"description": "Ministral 8B هو نموذج حافة ذات قيمة ممتازة من Mistral."
|
798
|
+
},
|
742
799
|
"mistral": {
|
743
800
|
"description": "Mistral هو نموذج 7B أطلقته Mistral AI، مناسب لاحتياجات معالجة اللغة المتغيرة."
|
744
801
|
},
|
745
802
|
"mistral-large": {
|
746
803
|
"description": "Mixtral Large هو النموذج الرائد من Mistral، يجمع بين قدرات توليد الشيفرة، والرياضيات، والاستدلال، ويدعم نافذة سياق تصل إلى 128k."
|
747
804
|
},
|
748
|
-
"mistral-large-2407": {
|
749
|
-
"description": "Mistral Large (2407) هو نموذج لغة كبير متقدم (LLM) يتمتع بقدرات متطورة في التفكير والمعرفة والترميز."
|
750
|
-
},
|
751
805
|
"mistral-large-latest": {
|
752
806
|
"description": "Mistral Large هو النموذج الرائد، يتفوق في المهام متعددة اللغات، والاستدلال المعقد، وتوليد الشيفرة، وهو الخيار المثالي للتطبيقات الراقية."
|
753
807
|
},
|
@@ -769,12 +823,18 @@
|
|
769
823
|
"mistralai/Mistral-7B-Instruct-v0.3": {
|
770
824
|
"description": "Mistral (7B) Instruct v0.3 يوفر قدرة حسابية فعالة وفهم اللغة الطبيعية، مناسب لمجموعة واسعة من التطبيقات."
|
771
825
|
},
|
826
|
+
"mistralai/Mistral-7B-v0.1": {
|
827
|
+
"description": "Mistral 7B هو نموذج مضغوط ولكنه عالي الأداء، متفوق في المعالجة الجماعية والمهام البسيطة مثل التصنيف وتوليد النصوص، مع قدرة استدلال جيدة."
|
828
|
+
},
|
772
829
|
"mistralai/Mixtral-8x22B-Instruct-v0.1": {
|
773
830
|
"description": "Mixtral-8x22B Instruct (141B) هو نموذج لغوي كبير للغاية، يدعم احتياجات معالجة عالية جدًا."
|
774
831
|
},
|
775
832
|
"mistralai/Mixtral-8x7B-Instruct-v0.1": {
|
776
833
|
"description": "Mixtral 8x7B هو نموذج خبير مختلط مدرب مسبقًا، يستخدم لمهام النص العامة."
|
777
834
|
},
|
835
|
+
"mistralai/Mixtral-8x7B-v0.1": {
|
836
|
+
"description": "Mixtral 8x7B هو نموذج خبير متفرق، يستفيد من معلمات متعددة لزيادة سرعة الاستدلال، مناسب لمعالجة المهام متعددة اللغات وتوليد الأكواد."
|
837
|
+
},
|
778
838
|
"mistralai/mistral-7b-instruct": {
|
779
839
|
"description": "Mistral 7B Instruct هو نموذج صناعي عالي الأداء يجمع بين تحسين السرعة ودعم السياقات الطويلة."
|
780
840
|
},
|
@@ -802,6 +862,9 @@
|
|
802
862
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
803
863
|
"description": "Hermes 2 Pro Llama 3 8B هو إصدار مطور من Nous Hermes 2، ويحتوي على أحدث مجموعات البيانات المطورة داخليًا."
|
804
864
|
},
|
865
|
+
"nvidia/Llama-3.1-Nemotron-70B-Instruct": {
|
866
|
+
"description": "Llama 3.1 Nemotron 70B هو نموذج لغوي كبير مُخصص من NVIDIA، يهدف إلى تحسين استجابة LLM لمساعدة استفسارات المستخدمين."
|
867
|
+
},
|
805
868
|
"o1-mini": {
|
806
869
|
"description": "o1-mini هو نموذج استدلال سريع وفعال من حيث التكلفة مصمم لتطبيقات البرمجة والرياضيات والعلوم. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
|
807
870
|
},
|
@@ -988,6 +1051,12 @@
|
|
988
1051
|
"yi-large-turbo": {
|
989
1052
|
"description": "عالية الكفاءة، أداء ممتاز. يتم ضبطها بدقة عالية لتحقيق توازن بين الأداء وسرعة الاستدلال والتكلفة."
|
990
1053
|
},
|
1054
|
+
"yi-lightning": {
|
1055
|
+
"description": "نموذج جديد عالي الأداء، يضمن إنتاج جودة عالية مع زيادة كبيرة في سرعة الاستدلال."
|
1056
|
+
},
|
1057
|
+
"yi-lightning-lite": {
|
1058
|
+
"description": "نسخة خفيفة الوزن، يُوصى باستخدام yi-lightning."
|
1059
|
+
},
|
991
1060
|
"yi-medium": {
|
992
1061
|
"description": "نموذج متوسط الحجم تم تحسينه، يتمتع بقدرات متوازنة، وكفاءة عالية في التكلفة. تم تحسين قدرة اتباع التعليمات بشكل عميق."
|
993
1062
|
},
|
@@ -47,8 +47,8 @@
|
|
47
47
|
"ERNIE-4.0-8K-Preview": {
|
48
48
|
"description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, е напълно обновен в сравнение с ERNIE 3.5 и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори."
|
49
49
|
},
|
50
|
-
"ERNIE-4.0-Turbo-8K": {
|
51
|
-
"description": "
|
50
|
+
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
|
+
"description": "Патентованият флагмански модул на Baidu, изключително мащабен езиков модел, показващ отлични резултати и широко приложение в сложни сценарии. Поддържа автоматично свързване с плъгини на Baidu Search, гарантирайки актуалността на информацията. В сравнение с ERNIE 4.0, той представя по-добри резултати."
|
52
52
|
},
|
53
53
|
"ERNIE-4.0-Turbo-8K-Preview": {
|
54
54
|
"description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, показва отлични резултати и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори. В сравнение с ERNIE 4.0, представянето му е по-добро."
|
@@ -80,8 +80,11 @@
|
|
80
80
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
81
81
|
"description": "Nous Hermes-2 Yi (34B) предлага оптимизирани езикови изходи и разнообразни възможности за приложение."
|
82
82
|
},
|
83
|
-
"
|
84
|
-
"description": "
|
83
|
+
"OpenGVLab/InternVL2-26B": {
|
84
|
+
"description": "InternVL2 демонстрира изключителни резултати в различни визуално-языкови задачи, включително разбиране на документи и графики, разбиране на текст в сцени, OCR, решаване на научни и математически проблеми."
|
85
|
+
},
|
86
|
+
"OpenGVLab/InternVL2-Llama3-76B": {
|
87
|
+
"description": "InternVL2 демонстрира изключителни резултати в различни визуално-языкови задачи, включително разбиране на документи и графики, разбиране на текст в сцени, OCR, решаване на научни и математически проблеми."
|
85
88
|
},
|
86
89
|
"Phi-3-medium-128k-instruct": {
|
87
90
|
"description": "Същият модел Phi-3-medium, но с по-голям размер на контекста за RAG или малко подканване."
|
@@ -101,9 +104,21 @@
|
|
101
104
|
"Phi-3-small-8k-instruct": {
|
102
105
|
"description": "Модел с 7B параметри, предлагащ по-добро качество от Phi-3-mini, с акцент върху висококачествени, плътни на разсъждения данни."
|
103
106
|
},
|
107
|
+
"Phi-3.5-mini-instruct": {
|
108
|
+
"description": "Актуализирана версия на модела Phi-3-mini."
|
109
|
+
},
|
110
|
+
"Phi-3.5-vision-instrust": {
|
111
|
+
"description": "Актуализирана версия на модела Phi-3-vision."
|
112
|
+
},
|
104
113
|
"Pro-128k": {
|
105
114
|
"description": "Spark Pro-128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочни логически връзки, предоставяйки плавна и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации."
|
106
115
|
},
|
116
|
+
"Pro/OpenGVLab/InternVL2-8B": {
|
117
|
+
"description": "InternVL2 демонстрира изключителни резултати в различни визуално-языкови задачи, включително разбиране на документи и графики, разбиране на текст в сцени, OCR, решаване на научни и математически проблеми."
|
118
|
+
},
|
119
|
+
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
120
|
+
"description": "Qwen2-VL е най-новата итерация на модела Qwen-VL, който е постигнал водещи резултати в тестовете за визуално разбиране."
|
121
|
+
},
|
107
122
|
"Qwen/Qwen1.5-110B-Chat": {
|
108
123
|
"description": "Като тестова версия на Qwen2, Qwen1.5 използва големи данни за постигане на по-точни диалогови функции."
|
109
124
|
},
|
@@ -113,18 +128,27 @@
|
|
113
128
|
"Qwen/Qwen2-72B-Instruct": {
|
114
129
|
"description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции."
|
115
130
|
},
|
131
|
+
"Qwen/Qwen2-VL-72B-Instruct": {
|
132
|
+
"description": "Qwen2-VL е най-новата итерация на модела Qwen-VL, който е постигнал водещи резултати в тестовете за визуално разбиране."
|
133
|
+
},
|
116
134
|
"Qwen/Qwen2.5-14B-Instruct": {
|
117
135
|
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
|
118
136
|
},
|
119
137
|
"Qwen/Qwen2.5-32B-Instruct": {
|
120
138
|
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
|
121
139
|
},
|
122
|
-
"Qwen/Qwen2.5-72B-Instruct": {
|
140
|
+
"Qwen/Qwen2.5-72B-Instruct-128K": {
|
123
141
|
"description": "Qwen2.5 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране."
|
124
142
|
},
|
143
|
+
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
|
144
|
+
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкти."
|
145
|
+
},
|
125
146
|
"Qwen/Qwen2.5-7B-Instruct": {
|
126
147
|
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
|
127
148
|
},
|
149
|
+
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
150
|
+
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкти."
|
151
|
+
},
|
128
152
|
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
129
153
|
"description": "Qwen2.5-Coder се фокусира върху писането на код."
|
130
154
|
},
|
@@ -158,9 +182,6 @@
|
|
158
182
|
"accounts/fireworks/models/firellava-13b": {
|
159
183
|
"description": "fireworks-ai/FireLLaVA-13b е визуален езиков модел, който може да приема изображения и текстови входове, обучен с висококачествени данни, подходящ за мултимодални задачи."
|
160
184
|
},
|
161
|
-
"accounts/fireworks/models/gemma2-9b-it": {
|
162
|
-
"description": "Gemma 2 9B модел за инструкции, базиран на предишната технология на Google, подходящ за отговори на въпроси, обобщения и разсъждения в множество текстови генериращи задачи."
|
163
|
-
},
|
164
185
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
165
186
|
"description": "Llama 3 70B модел за инструкции, специално оптимизиран за многоезични диалози и разбиране на естествен език, с производителност, превъзхождаща повечето конкурентни модели."
|
166
187
|
},
|
@@ -182,6 +203,18 @@
|
|
182
203
|
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
|
183
204
|
"description": "Llama 3.1 8B модел за инструкции, оптимизиран за многоезични диалози, способен да надмине повечето отворени и затворени модели на общи индустриални стандарти."
|
184
205
|
},
|
206
|
+
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
207
|
+
"description": "Моделът за разсъждение по изображения с 11B параметри на Meta е оптимизиран за визуално разпознаване, разсъждение по изображения, описание на изображения и отговаряне на общи въпроси относно изображения. Моделът може да разбира визуални данни, като графики и таблици, и свързва визуалните данни с текстовите описания на детайлите на изображенията."
|
208
|
+
},
|
209
|
+
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
210
|
+
"description": "Моделът Llama 3.2 1B е лека многоезична разработка от Meta. Този модел е проектиран да подобри ефективността, предоставяйки значителни подобрения в забавянето и разходите в сравнение с по-големи модели. Примерни случаи на ползване включват извличане и обобщение."
|
211
|
+
},
|
212
|
+
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
213
|
+
"description": "Моделът Llama 3.2 3B е лека многоезична разработка от Meta. Този модел е проектиран да подобри ефективността, предоставяйки значителни подобрения в забавянето и разходите в сравнение с по-големи модели. Примерни случаи на ползване включват заявки, пренаписване на подканвания и подпомагане на писането."
|
214
|
+
},
|
215
|
+
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
216
|
+
"description": "Моделът за разсъждение по изображения с 90B параметри на Meta е оптимизиран за визуално разпознаване, разсъждение по изображения, описание на изображения и отговаряне на общи въпроси относно изображения. Моделът може да разбира визуални данни, като графики и таблици, и свързва визуалните данни с текстовите описания на детайлите на изображенията."
|
217
|
+
},
|
185
218
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
186
219
|
"description": "Mixtral MoE 8x22B модел за инструкции, с голям брой параметри и архитектура с множество експерти, осигуряваща всестранна поддръжка за ефективна обработка на сложни задачи."
|
187
220
|
},
|
@@ -197,6 +230,9 @@
|
|
197
230
|
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
|
198
231
|
"description": "Phi 3 Vision модел за инструкции, лек мултимодален модел, способен да обработва сложна визуална и текстова информация, с високи способности за разсъждение."
|
199
232
|
},
|
233
|
+
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
234
|
+
"description": "Qwen2.5 е серия от езикови модели, разработени от екипа на Alibaba Cloud Qwen, които съдържат само декодери. Тези модели предлагат различни размери, включително 0.5B, 1.5B, 3B, 7B, 14B, 32B и 72B, и разполагат с базови (base) и инструкти (instruct) варианти."
|
235
|
+
},
|
200
236
|
"accounts/fireworks/models/starcoder-16b": {
|
201
237
|
"description": "StarCoder 15.5B модел, поддържащ напреднали програмни задачи, с подобрени многоезични способности, подходящ за сложна генерация и разбиране на код."
|
202
238
|
},
|
@@ -212,9 +248,6 @@
|
|
212
248
|
"ai21-jamba-1.5-mini": {
|
213
249
|
"description": "Многоезичен модел с 52B параметри (12B активни), предлагащ контекстен прозорец с дължина 256K, извикване на функции, структурирани изходи и генериране на основа."
|
214
250
|
},
|
215
|
-
"ai21-jamba-instruct": {
|
216
|
-
"description": "Модел на базата на Mamba, проектиран за постигане на най-добри резултати, качество и ефективност на разходите."
|
217
|
-
},
|
218
251
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
219
252
|
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи на нашите модели от средно ниво."
|
220
253
|
},
|
@@ -592,9 +625,15 @@
|
|
592
625
|
"llama-3.1-sonar-small-128k-online": {
|
593
626
|
"description": "Llama 3.1 Sonar Small Online модел, с 8B параметри, поддържащ контекстова дължина от около 127,000 маркера, проектиран за онлайн чат, способен да обработва ефективно различни текстови взаимодействия."
|
594
627
|
},
|
628
|
+
"llama-3.2-11b-vision-instruct": {
|
629
|
+
"description": "Изключителни способности за визуално разсъждение върху изображения с висока разделителна способност, подходящи за приложения за визуално разбиране."
|
630
|
+
},
|
595
631
|
"llama-3.2-11b-vision-preview": {
|
596
632
|
"description": "Llama 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
|
597
633
|
},
|
634
|
+
"llama-3.2-90b-vision-instruct": {
|
635
|
+
"description": "Разширени способности за визуално разсъждение, подходящи за приложения на визуални агенти."
|
636
|
+
},
|
598
637
|
"llama-3.2-90b-vision-preview": {
|
599
638
|
"description": "Llama 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
|
600
639
|
},
|
@@ -652,8 +691,8 @@
|
|
652
691
|
"meta-llama/Llama-2-13b-chat-hf": {
|
653
692
|
"description": "LLaMA-2 Chat (13B) предлага отлични способности за обработка на език и изключителен интерактивен опит."
|
654
693
|
},
|
655
|
-
"meta-llama/Llama-2-
|
656
|
-
"description": "
|
694
|
+
"meta-llama/Llama-2-70b-hf": {
|
695
|
+
"description": "LLaMA-2 предлага отлични способности за обработка на език и невероятно потребителско изживяване."
|
657
696
|
},
|
658
697
|
"meta-llama/Llama-3-70b-chat-hf": {
|
659
698
|
"description": "LLaMA-3 Chat (70B) е мощен чат модел, поддържащ сложни изисквания за диалог."
|
@@ -661,6 +700,18 @@
|
|
661
700
|
"meta-llama/Llama-3-8b-chat-hf": {
|
662
701
|
"description": "LLaMA-3 Chat (8B) предлага многоезична поддръжка, обхващаща богати области на знание."
|
663
702
|
},
|
703
|
+
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
|
704
|
+
"description": "LLaMA 3.2 е проектирана да обработва задачи, комбиниращи визуални и текстови данни. Тя демонстрира отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на езици и визуалното разсъждение."
|
705
|
+
},
|
706
|
+
"meta-llama/Llama-3.2-3B-Instruct-Turbo": {
|
707
|
+
"description": "LLaMA 3.2 е проектирана да обработва задачи, комбиниращи визуални и текстови данни. Тя демонстрира отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на езици и визуалното разсъждение."
|
708
|
+
},
|
709
|
+
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
|
710
|
+
"description": "LLaMA 3.2 е проектирана да обработва задачи, комбиниращи визуални и текстови данни. Тя демонстрира отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на езици и визуалното разсъждение."
|
711
|
+
},
|
712
|
+
"meta-llama/Llama-Vision-Free": {
|
713
|
+
"description": "LLaMA 3.2 е проектирана да обработва задачи, комбиниращи визуални и текстови данни. Тя демонстрира отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на езици и визуалното разсъждение."
|
714
|
+
},
|
664
715
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
665
716
|
"description": "Llama 3 70B Instruct Lite е подходящ за среди, изискващи висока производителност и ниска латентност."
|
666
717
|
},
|
@@ -739,15 +790,18 @@
|
|
739
790
|
"minicpm-v": {
|
740
791
|
"description": "MiniCPM-V е новото поколение мултимодален голям модел, представен от OpenBMB, който притежава изключителни способности за OCR разпознаване и мултимодално разбиране, поддържащ широк спектър от приложения."
|
741
792
|
},
|
793
|
+
"ministral-3b-latest": {
|
794
|
+
"description": "Ministral 3B е световен лидер сред моделите на Mistral."
|
795
|
+
},
|
796
|
+
"ministral-8b-latest": {
|
797
|
+
"description": "Ministral 8B е модел на Mistral с отлична цена-качество."
|
798
|
+
},
|
742
799
|
"mistral": {
|
743
800
|
"description": "Mistral е 7B модел, представен от Mistral AI, подходящ за променливи нужди в обработката на език."
|
744
801
|
},
|
745
802
|
"mistral-large": {
|
746
803
|
"description": "Mixtral Large е флагманският модел на Mistral, комбиниращ способности за генериране на код, математика и разсъждение, поддържащ контекстен прозорец от 128k."
|
747
804
|
},
|
748
|
-
"mistral-large-2407": {
|
749
|
-
"description": "Mistral Large (2407) е напреднал модел на езика (LLM) с най-съвременни способности за разсъждение, знание и кодиране."
|
750
|
-
},
|
751
805
|
"mistral-large-latest": {
|
752
806
|
"description": "Mistral Large е флагманският модел, специализиран в многоезични задачи, сложни разсъждения и генериране на код, идеален за висококачествени приложения."
|
753
807
|
},
|
@@ -769,12 +823,18 @@
|
|
769
823
|
"mistralai/Mistral-7B-Instruct-v0.3": {
|
770
824
|
"description": "Mistral (7B) Instruct v0.3 предлага ефективна изчислителна мощ и разбиране на естествения език, подходяща за широк спектър от приложения."
|
771
825
|
},
|
826
|
+
"mistralai/Mistral-7B-v0.1": {
|
827
|
+
"description": "Mistral 7B е компактен, но високопроизводителен модел, специализиран в обработка на партиди и основни задачи, като класификация и генериране на текст с добри способности за разсъждение."
|
828
|
+
},
|
772
829
|
"mistralai/Mixtral-8x22B-Instruct-v0.1": {
|
773
830
|
"description": "Mixtral-8x22B Instruct (141B) е супер голям езиков модел, поддържащ изключително високи изисквания за обработка."
|
774
831
|
},
|
775
832
|
"mistralai/Mixtral-8x7B-Instruct-v0.1": {
|
776
833
|
"description": "Mixtral 8x7B е предварително обучен модел на разредени смесени експерти, предназначен за универсални текстови задачи."
|
777
834
|
},
|
835
|
+
"mistralai/Mixtral-8x7B-v0.1": {
|
836
|
+
"description": "Mixtral 8x7B е модел с рядък експерт, който използва множество параметри, за да подобри скоростта на разсъждение, подходящ за обработка на многоезични и генериращи код задачи."
|
837
|
+
},
|
778
838
|
"mistralai/mistral-7b-instruct": {
|
779
839
|
"description": "Mistral 7B Instruct е високопроизводителен индустриален стандартен модел, оптимизиран за бързина и поддръжка на дълги контексти."
|
780
840
|
},
|
@@ -802,6 +862,9 @@
|
|
802
862
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
803
863
|
"description": "Hermes 2 Pro Llama 3 8B е обновена версия на Nous Hermes 2, включваща най-новите вътрешно разработени набори от данни."
|
804
864
|
},
|
865
|
+
"nvidia/Llama-3.1-Nemotron-70B-Instruct": {
|
866
|
+
"description": "Llama 3.1 Nemotron 70B е голям езиков модел, персонализиран от NVIDIA с цел подобряване на отговорите на потребителските запитвания."
|
867
|
+
},
|
805
868
|
"o1-mini": {
|
806
869
|
"description": "o1-mini е бърз и икономичен модел за изводи, проектиран за приложения в програмирането, математиката и науката. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
|
807
870
|
},
|
@@ -988,6 +1051,12 @@
|
|
988
1051
|
"yi-large-turbo": {
|
989
1052
|
"description": "Изключителна производителност на висока цена. Балансирано прецизно настройване на производителността и скоростта на разсъжденията."
|
990
1053
|
},
|
1054
|
+
"yi-lightning": {
|
1055
|
+
"description": "Най-новият високо производителен модел, който гарантира висококачествени изходи, докато значително ускорява времето за разсъждение."
|
1056
|
+
},
|
1057
|
+
"yi-lightning-lite": {
|
1058
|
+
"description": "Лека версия, препоръчително е да се използва yi-lightning."
|
1059
|
+
},
|
991
1060
|
"yi-medium": {
|
992
1061
|
"description": "Модел с среден размер, обновен и прецизно настроен, с балансирани способности и висока цена на производителност."
|
993
1062
|
},
|