@lobehub/chat 1.24.2 → 1.25.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/locales/ar/chat.json +2 -1
- package/locales/ar/models.json +12 -9
- package/locales/bg-BG/chat.json +2 -1
- package/locales/bg-BG/models.json +12 -9
- package/locales/de-DE/chat.json +2 -1
- package/locales/de-DE/models.json +12 -9
- package/locales/en-US/chat.json +2 -1
- package/locales/en-US/models.json +12 -9
- package/locales/es-ES/chat.json +2 -1
- package/locales/es-ES/models.json +12 -9
- package/locales/fr-FR/chat.json +2 -1
- package/locales/fr-FR/models.json +12 -9
- package/locales/it-IT/chat.json +2 -1
- package/locales/it-IT/models.json +12 -9
- package/locales/ja-JP/chat.json +2 -1
- package/locales/ja-JP/models.json +12 -9
- package/locales/ko-KR/chat.json +2 -1
- package/locales/ko-KR/models.json +12 -9
- package/locales/nl-NL/chat.json +2 -1
- package/locales/nl-NL/models.json +12 -9
- package/locales/pl-PL/chat.json +2 -1
- package/locales/pl-PL/models.json +12 -9
- package/locales/pt-BR/chat.json +2 -1
- package/locales/pt-BR/models.json +12 -9
- package/locales/ru-RU/chat.json +2 -1
- package/locales/ru-RU/models.json +12 -9
- package/locales/tr-TR/chat.json +2 -1
- package/locales/tr-TR/models.json +12 -9
- package/locales/vi-VN/chat.json +2 -1
- package/locales/vi-VN/models.json +12 -9
- package/locales/zh-CN/chat.json +2 -1
- package/locales/zh-CN/models.json +12 -9
- package/locales/zh-TW/chat.json +2 -1
- package/locales/zh-TW/models.json +12 -9
- package/package.json +1 -1
- package/src/app/(main)/@nav/_layout/Desktop/index.tsx +12 -6
- package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ZenModeToast/Toast.tsx +87 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ZenModeToast/index.tsx +16 -0
- package/src/app/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/index.tsx +18 -7
- package/src/app/(main)/chat/(workspace)/_layout/Desktop/HotKeys.tsx +10 -6
- package/src/app/(main)/chat/(workspace)/_layout/Desktop/TopicPanel.tsx +4 -4
- package/src/app/(main)/chat/_layout/Desktop/index.tsx +1 -1
- package/src/const/hotkeys.ts +7 -1
- package/src/locales/default/chat.ts +1 -0
- package/src/store/global/action.test.ts +162 -0
- package/src/store/global/action.ts +7 -0
- package/src/store/global/initialState.ts +2 -0
- package/src/store/global/selectors.ts +6 -2
- package/src/store/user/slices/modelList/action.ts +4 -17
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,56 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.25.1](https://github.com/lobehub/lobe-chat/compare/v1.25.0...v1.25.1)
|
6
|
+
|
7
|
+
<sup>Released on **2024-10-26**</sup>
|
8
|
+
|
9
|
+
#### 🐛 Bug Fixes
|
10
|
+
|
11
|
+
- **misc**: Fix `modelList` merge.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### What's fixed
|
19
|
+
|
20
|
+
- **misc**: Fix `modelList` merge, closes [#4491](https://github.com/lobehub/lobe-chat/issues/4491) ([ea422d8](https://github.com/lobehub/lobe-chat/commit/ea422d8))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
30
|
+
## [Version 1.25.0](https://github.com/lobehub/lobe-chat/compare/v1.24.2...v1.25.0)
|
31
|
+
|
32
|
+
<sup>Released on **2024-10-26**</sup>
|
33
|
+
|
34
|
+
#### ✨ Features
|
35
|
+
|
36
|
+
- **misc**: Support ZEN mode.
|
37
|
+
|
38
|
+
<br/>
|
39
|
+
|
40
|
+
<details>
|
41
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
42
|
+
|
43
|
+
#### What's improved
|
44
|
+
|
45
|
+
- **misc**: Support ZEN mode, closes [#4496](https://github.com/lobehub/lobe-chat/issues/4496) ([1a5c7ae](https://github.com/lobehub/lobe-chat/commit/1a5c7ae))
|
46
|
+
|
47
|
+
</details>
|
48
|
+
|
49
|
+
<div align="right">
|
50
|
+
|
51
|
+
[](#readme-top)
|
52
|
+
|
53
|
+
</div>
|
54
|
+
|
5
55
|
### [Version 1.24.2](https://github.com/lobehub/lobe-chat/compare/v1.24.1...v1.24.2)
|
6
56
|
|
7
57
|
<sup>Released on **2024-10-26**</sup>
|
package/locales/ar/chat.json
CHANGED
package/locales/ar/models.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B) هو نموذج مبتكر، مناسب لتطبيقات متعددة المجالات والمهام المعقدة."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32K مزود بقدرة معالجة سياقية كبيرة، وفهم أقوى للسياق وقدرة على الاستدلال المنطقي، يدعم إدخال نصوص تصل إلى 32K توكن، مناسب لقراءة الوثائق الطويلة، وأسئلة وأجوبة المعرفة الخاصة، وغيرها من السيناريوهات."
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO هو دمج متعدد النماذج مرن للغاية، يهدف إلى تقديم تجربة إبداعية ممتازة."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "النسخة المحدثة من نموذج Phi-3-vision."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K مزود بقدرة معالجة سياق ضخمة، يمكنه التعامل مع معلومات سياق تصل إلى 128K، مما يجعله مثاليًا للمحتوى الطويل الذي يتطلب تحليلًا شاملًا ومعالجة علاقات منطقية طويلة الأمد، ويمكنه تقديم منطق سلس ودقيق ودعم متنوع للاقتباسات في التواصل النصي المعقد."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "أظهر InternVL2 أداءً رائعًا في مجموعة متنوعة من مهام اللغة البصرية، بما في ذلك فهم الوثائق والرسوم البيانية، وفهم النصوص في المشاهد، وOCR، وحل المشكلات العلمية والرياضية."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnet يرفع المعايير في الصناعة، حيث يتفوق على نماذج المنافسين وClaude 3 Opus، ويظهر أداءً ممتازًا في تقييمات واسعة، مع سرعة وتكلفة تتناسب مع نماذجنا المتوسطة."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "لقد رفع كلود 3.5 سونيت معايير الصناعة، حيث تفوق أداؤه على نماذج المنافسين ونموذج كلود 3 أوبس، وأظهر أداءً ممتازًا في تقييمات واسعة، مع الحفاظ على سرعة وتكلفة نماذجنا المتوسطة."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، يوفر سرعة استجابة شبه فورية. يمكنه بسرعة الإجابة على الاستفسارات والطلبات البسيطة. سيتمكن العملاء من بناء تجربة ذكاء اصطناعي سلسة تحاكي التفاعل البشري. يمكن لـ Claude 3 Haiku معالجة الصور وإرجاع إخراج نصي، مع نافذة سياقية تبلغ 200K."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2 هو نموذج فعال أطلقته Google، يغطي مجموعة متنوعة من سيناريوهات التطبيقات من التطبيقات الصغيرة إلى معالجة البيانات المعقدة."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite هو نموذج لغوي كبير خفيف الوزن، يتمتع بتأخير منخفض للغاية وقدرة معالجة فعالة، ومفتوح بالكامل، ويدعم وظيفة البحث عبر الإنترنت في الوقت الحقيقي. تجعل خاصية الاستجابة السريعة منه مثاليًا لتطبيقات الاستدلال على الأجهزة ذات القدرة الحاسوبية المنخفضة وتعديل النماذج، مما يوفر للمستخدمين قيمة ممتازة وتجربة ذكية، خاصة في مجالات الإجابة على الأسئلة، وتوليد المحتوى، وسيناريوهات البحث."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro هو نموذج لغوي كبير عالي الأداء تم تحسينه للحقول المهنية، يركز على الرياضيات، والبرمجة، والطب، والتعليم، ويدعم البحث عبر الإنترنت بالإضافة إلى المكونات الإضافية المدمجة مثل الطقس والتاريخ. يظهر النموذج المحسن أداءً ممتازًا وكفاءة في الإجابة على الأسئلة المعقدة، وفهم اللغة، وإنشاء نصوص عالية المستوى، مما يجعله الخيار المثالي لتطبيقات الاستخدام المهني."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "سبارك لايت هو نموذج لغوي كبير خفيف الوزن، يتميز بتأخير منخفض للغاية وكفاءة عالية في المعالجة، وهو مجاني تمامًا ومفتوح، ويدعم وظيفة البحث عبر الإنترنت في الوقت الحقيقي. تجعل خصائص استجابته السريعة منه مثاليًا لتطبيقات الاستدلال على الأجهزة ذات القدرة الحاسوبية المنخفضة وضبط النماذج، مما يوفر للمستخدمين قيمة ممتازة من حيث التكلفة وتجربة ذكية، خاصة في مجالات الأسئلة والأجوبة المعرفية، وتوليد المحتوى، وسيناريوهات البحث."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "نموذج Llama 3.1 70B للتعليمات، يتمتع بـ 70B من المعلمات، قادر على تقديم أداء ممتاز في مهام توليد النصوص الكبيرة والتعليمات."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral مصمم للبحث العلمي والاستدلال الرياضي، يوفر قدرة حسابية فعالة وتفسير النتائج."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "سبارك ماكس 32K مزود بقدرة معالجة سياق كبيرة، مع فهم أقوى للسياق وقدرة على الاستدلال المنطقي، يدعم إدخال نصوص تصل إلى 32K توكن، مما يجعله مناسبًا لقراءة الوثائق الطويلة، والأسئلة والأجوبة المعرفية الخاصة، وغيرها من السيناريوهات."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "نموذج قوي بحجم 70 مليار معلمة يتفوق في التفكير، والترميز، وتطبيقات اللغة الواسعة."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "نموذج Pixtral يظهر قدرات قوية في فهم الرسوم البيانية والصور، والإجابة على الأسئلة المتعلقة بالمستندات، والاستدلال متعدد الوسائط، واتباع التعليمات، مع القدرة على إدخال الصور بدقة طبيعية ونسبة عرض إلى ارتفاع، بالإضافة إلى معالجة عدد غير محدود من الصور في نافذة سياق طويلة تصل إلى 128K توكن."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "سبارك برو 128K مزود بقدرة معالجة سياق كبيرة جدًا، قادر على معالجة ما يصل إلى 128K من معلومات السياق، مما يجعله مناسبًا بشكل خاص للتحليل الشامل ومعالجة الروابط المنطقية طويلة الأمد في المحتوى الطويل، ويمكنه تقديم منطق سلس ومتسق ودعم متنوع للاقتباسات في الاتصالات النصية المعقدة."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "نموذج Qwen للبرمجة."
|
945
948
|
},
|
package/locales/bg-BG/chat.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B) е иновативен модел, подходящ за приложения в множество области и сложни задачи."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32K е конфигуриран с голяма способност за обработка на контекст, по-силно разбиране на контекста и логическо разсъждение, поддържа текстов вход от 32K токена, подходящ за четене на дълги документи, частни въпроси и отговори и други сценарии."
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO е високо гъвкава многомоделна комбинация, предназначена да предостави изключителен креативен опит."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "Актуализирана версия на модела Phi-3-vision."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочни логически връзки, предоставяйки плавна и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2 демонстрира изключителни резултати в различни визуално-языкови задачи, включително разбиране на документи и графики, разбиране на текст в сцени, OCR, решаване на научни и математически проблеми."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи на нашите модели от средно ниво."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надминаваща конкурентните модели и Claude 3 Opus, показвайки отлични резултати в широки оценки, като същевременно предлага скорост и разходи, характерни за нашите модели от среден клас."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 Haiku е най-бързият и компактен модел на Anthropic, предлагащ почти мигновена скорост на отговор. Той може бързо да отговаря на прости запитвания и заявки. Клиентите ще могат да изградят безпроблемно AI изживяване, имитиращо човешко взаимодействие. Claude 3 Haiku може да обработва изображения и да връща текстови изходи, с контекстуален прозорец от 200K."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки до сложни обработки на данни."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite е лек голям езиков модел с изключително ниска латентност и висока ефективност, напълно безплатен и отворен, поддържащ функция за търсене в реално време. Неговата бърза реакция го прави отличен за приложения с ниска изчислителна мощ и фино настройване на модела, предоставяйки на потребителите отлична цена-качество и интелигентно изживяване, особено в области като отговори на знания, генериране на съдържание и търсене."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro е високопроизводителен голям езиков модел, оптимизиран за професионални области, фокусирайки се върху математика, програмиране, медицина, образование и др., и поддържа свързано търсене и вградени плъгини за времето, датата и др. Оптимизираният модел показва отлични резултати и висока производителност в сложни отговори на знания, разбиране на езика и високо ниво на текстово генериране, което го прави идеален избор за професионални приложения."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Lite е лек модел на голям език, с изключително ниска латентност и ефективна обработка, напълно безплатен и отворен, поддържащ функции за онлайн търсене в реално време. Неговите бързи отговори го правят отличен за приложения на нискомощни устройства и фина настройка на модели, предоставяйки на потребителите отлична рентабилност и интелигентно изживяване, особено в контекста на въпроси и отговори, генериране на съдържание и търсене."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "Llama 3.1 70B Instruct модел, с 70B параметри, способен да предоставя изключителна производителност в задачи за генериране на текст и инструкции."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral е проектиран за научни изследвания и математически разсъждения, предоставяйки ефективни изчислителни способности и интерпретация на резултати."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32K е конфигуриран с голяма способност за обработка на контекст, с по-силно разбиране на контекста и логическо разсъждение, поддържащ текстови входове до 32K токена, подходящ за четене на дълги документи, частни въпроси и отговори и други сценарии."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "Мощен модел с 70 милиарда параметри, отличаващ се в разсъждения, кодиране и широки езикови приложения."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "Моделът Pixtral демонстрира силни способности в задачи като разбиране на графики и изображения, отговори на документи, многомодално разсъждение и следване на инструкции, способен да приема изображения с естествено разрешение и съотношение на страните, както и да обработва произволен брой изображения в контекстен прозорец с дължина до 128K токена."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочна логическа свързаност, предоставяйки гладка и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "Моделът на кода Qwen."
|
945
948
|
},
|
package/locales/de-DE/chat.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B) ist ein innovatives Modell, das sich für Anwendungen in mehreren Bereichen und komplexe Aufgaben eignet."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32K ist mit einer hohen Kontextverarbeitungsfähigkeit ausgestattet, die ein besseres Verständnis des Kontexts und eine stärkere logische Schlussfolgerung ermöglicht. Es unterstützt Texteingaben von bis zu 32K Tokens und eignet sich für Szenarien wie das Lesen langer Dokumente und private Wissensabfragen."
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO ist eine hochflexible Multi-Modell-Kombination, die darauf abzielt, außergewöhnliche kreative Erlebnisse zu bieten."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "Aktualisierte Version des Phi-3-vision-Modells."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K ist mit einer extrem großen Kontextverarbeitungsfähigkeit ausgestattet, die bis zu 128K Kontextinformationen verarbeiten kann, besonders geeignet für lange Texte, die eine umfassende Analyse und langfristige logische Verknüpfung erfordern, und bietet in komplexen Textkommunikationen flüssige und konsistente Logik sowie vielfältige Zitationsunterstützung."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2 zeigt herausragende Leistungen in verschiedenen visuellen Sprachaufgaben, einschließlich Dokumenten- und Diagrammverständnis, Szenentexterkennung, OCR, wissenschaftlicher und mathematischer Problemlösung."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnet hebt den Branchenstandard an, übertrifft die Konkurrenzmodelle und Claude 3 Opus und zeigt in umfassenden Bewertungen hervorragende Leistungen, während es die Geschwindigkeit und Kosten unserer mittleren Modelle beibehält."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet setzt neue Maßstäbe in der Branche, übertrifft die Modelle der Konkurrenz und Claude 3 Opus, und zeigt in umfassenden Bewertungen hervorragende Leistungen, während es die Geschwindigkeit und Kosten unserer mittelgroßen Modelle beibehält."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic und bietet nahezu sofortige Reaktionsgeschwindigkeiten. Es kann schnell einfache Anfragen und Anforderungen beantworten. Kunden werden in der Lage sein, nahtlose AI-Erlebnisse zu schaffen, die menschliche Interaktionen nachahmen. Claude 3 Haiku kann Bilder verarbeiten und Textausgaben zurückgeben, mit einem Kontextfenster von 200K."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2 ist ein effizientes Modell von Google, das eine Vielzahl von Anwendungsszenarien von kleinen Anwendungen bis hin zu komplexen Datenverarbeitungen abdeckt."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite ist ein leichtgewichtiges großes Sprachmodell mit extrem niedriger Latenz und hoher Verarbeitungsfähigkeit, das vollständig kostenlos und offen ist und eine Echtzeitsuchfunktion unterstützt. Seine schnelle Reaktionsfähigkeit macht es in der Inferenzanwendung und Modellanpassung auf Geräten mit geringer Rechenleistung besonders effektiv und bietet den Nutzern ein hervorragendes Kosten-Nutzen-Verhältnis und intelligente Erfahrungen, insbesondere in den Bereichen Wissensabfrage, Inhaltserstellung und Suchszenarien."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro ist ein hochleistungsfähiges großes Sprachmodell, das für professionelle Bereiche optimiert ist und sich auf Mathematik, Programmierung, Medizin, Bildung und andere Bereiche konzentriert, und unterstützt die Online-Suche sowie integrierte Plugins für Wetter, Datum usw. Das optimierte Modell zeigt hervorragende Leistungen und hohe Effizienz in komplexen Wissensabfragen, Sprachverständnis und hochrangiger Textgenerierung und ist die ideale Wahl für professionelle Anwendungsszenarien."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Lite ist ein leichtgewichtiges großes Sprachmodell mit extrem niedriger Latenz und effizienter Verarbeitung, das vollständig kostenlos und offen ist und Echtzeitsuchfunktionen unterstützt. Seine schnelle Reaktionsfähigkeit macht es besonders geeignet für Inferenzanwendungen und Modellanpassungen auf Geräten mit geringer Rechenleistung und bietet den Nutzern ein hervorragendes Kosten-Nutzen-Verhältnis sowie ein intelligentes Erlebnis, insbesondere in den Bereichen Wissensabfragen, Inhaltserstellung und Suchszenarien."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "Das Llama 3.1 70B Instruct-Modell hat 70B Parameter und bietet herausragende Leistungen bei der Generierung großer Texte und Anweisungsaufgaben."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral ist für wissenschaftliche Forschung und mathematische Schlussfolgerungen konzipiert und bietet effektive Rechenfähigkeiten und Ergebnisinterpretationen."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32K bietet eine große Kontextverarbeitungsfähigkeit mit verbesserter Kontextverständnis und logischer Schlussfolgerungsfähigkeit und unterstützt Texteingaben von bis zu 32K Tokens, was es ideal für das Lesen langer Dokumente und private Wissensabfragen macht."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "Ein leistungsstarkes Modell mit 70 Milliarden Parametern, das in den Bereichen Schlussfolgerungen, Programmierung und breiten Sprachanwendungen herausragt."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "Das Pixtral-Modell zeigt starke Fähigkeiten in Aufgaben wie Diagramm- und Bildverständnis, Dokumentenfragen, multimodale Schlussfolgerungen und Befolgung von Anweisungen. Es kann Bilder in natürlicher Auflösung und Seitenverhältnis aufnehmen und in einem langen Kontextfenster von bis zu 128K Tokens beliebig viele Bilder verarbeiten."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128K verfügt über eine außergewöhnliche Kontextverarbeitungsfähigkeit und kann bis zu 128K Kontextinformationen verarbeiten, was es besonders geeignet für die Analyse langer Texte und die Verarbeitung langfristiger logischer Zusammenhänge macht. Es bietet in komplexen Textkommunikationen flüssige und konsistente Logik sowie vielfältige Unterstützung für Zitate."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "Das Tongyi Qianwen Code-Modell."
|
945
948
|
},
|
package/locales/en-US/chat.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B) is an innovative model suitable for multi-domain applications and complex tasks."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32K is equipped with enhanced context processing capabilities, stronger context understanding, and logical reasoning abilities, supporting text input of up to 32K tokens, suitable for scenarios such as long document reading and private knowledge Q&A."
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO is a highly flexible multi-model fusion designed to provide an exceptional creative experience."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "An updated version of the Phi-3-vision model."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K is configured with ultra-large context processing capabilities, able to handle up to 128K of contextual information, particularly suitable for long texts requiring comprehensive analysis and long-term logical connections, providing smooth and consistent logic and diverse citation support in complex text communication."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2 demonstrates exceptional performance across various visual language tasks, including document and chart understanding, scene text understanding, OCR, and solving scientific and mathematical problems."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnet raises the industry standard, outperforming competitor models and Claude 3 Opus, excelling in a wide range of evaluations while maintaining the speed and cost of our mid-tier models."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet raises the industry standard, outperforming competing models and Claude 3 Opus, excelling in extensive evaluations while maintaining the speed and cost of our mid-tier models."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 Haiku is Anthropic's fastest and most compact model, providing near-instantaneous response times. It can quickly answer simple queries and requests. Customers will be able to build seamless AI experiences that mimic human interaction. Claude 3 Haiku can process images and return text output, with a context window of 200K."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2 is an efficient model launched by Google, covering a variety of application scenarios from small applications to complex data processing."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite is a lightweight large language model with extremely low latency and efficient processing capabilities, completely free and open, supporting real-time online search functionality. Its fast response characteristics make it excel in inference applications and model fine-tuning on low-power devices, providing users with excellent cost-effectiveness and intelligent experiences, particularly in knowledge Q&A, content generation, and search scenarios."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro is a high-performance large language model optimized for professional fields, focusing on mathematics, programming, healthcare, education, and more, supporting online search and built-in plugins for weather, dates, etc. Its optimized model demonstrates excellent performance and efficiency in complex knowledge Q&A, language understanding, and high-level text creation, making it an ideal choice for professional application scenarios."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Lite is a lightweight large language model with extremely low latency and efficient processing capabilities, completely free and open, supporting real-time online search functionality. Its quick response feature makes it excel in inference applications and model fine-tuning on low-power devices, providing users with excellent cost-effectiveness and intelligent experiences, particularly in knowledge Q&A, content generation, and search scenarios."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "Llama 3.1 70B Instruct model, featuring 70B parameters, delivers outstanding performance in large text generation and instruction tasks."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral is designed for scientific research and mathematical reasoning, providing effective computational capabilities and result interpretation."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32K is configured with large context processing capabilities, enhanced contextual understanding, and logical reasoning abilities, supporting text input of 32K tokens, suitable for long document reading, private knowledge Q&A, and other scenarios."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "A powerful 70-billion parameter model excelling in reasoning, coding, and broad language applications."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "The Pixtral model demonstrates strong capabilities in tasks such as chart and image understanding, document question answering, multimodal reasoning, and instruction following. It can ingest images at natural resolutions and aspect ratios and handle an arbitrary number of images within a long context window of up to 128K tokens."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128K is equipped with an extra-large context processing capability, able to handle up to 128K of contextual information, making it particularly suitable for long-form content that requires comprehensive analysis and long-term logical connections, providing smooth and consistent logic and diverse citation support in complex text communication."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "The Tongyi Qianwen Coder model."
|
945
948
|
},
|
package/locales/es-ES/chat.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B) es un modelo innovador, adecuado para aplicaciones en múltiples campos y tareas complejas."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32K está equipado con una gran capacidad de procesamiento de contexto, una comprensión de contexto más fuerte y habilidades de razonamiento lógico, soporta entradas de texto de 32K tokens, adecuado para la lectura de documentos largos, preguntas y respuestas de conocimiento privado y otros escenarios."
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO es una fusión de múltiples modelos altamente flexible, diseñada para ofrecer una experiencia creativa excepcional."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "Versión actualizada del modelo Phi-3-vision."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K está configurado con una capacidad de procesamiento de contexto extremadamente grande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para contenido largo que requiere análisis completo y manejo de relaciones lógicas a largo plazo, proporcionando una lógica fluida y consistente y un soporte diverso de citas en comunicaciones de texto complejas."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2 ha demostrado un rendimiento sobresaliente en diversas tareas de lenguaje visual, incluidas la comprensión de documentos y gráficos, comprensión de texto en escenas, OCR, resolución de problemas científicos y matemáticos."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a modelos competidores y a Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y costo de nuestros modelos de nivel medio."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet ha elevado los estándares de la industria, superando el rendimiento de modelos competidores y de Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y el costo de nuestros modelos de nivel medio."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, ofreciendo una velocidad de respuesta casi instantánea. Puede responder rápidamente a consultas y solicitudes simples. Los clientes podrán construir experiencias de IA sin costuras que imiten la interacción humana. Claude 3 Haiku puede manejar imágenes y devolver salidas de texto, con una ventana de contexto de 200K."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2 es un modelo eficiente lanzado por Google, que abarca una variedad de escenarios de aplicación desde aplicaciones pequeñas hasta procesamiento de datos complejos."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite es un modelo de lenguaje grande y ligero, con una latencia extremadamente baja y una capacidad de procesamiento eficiente, completamente gratuito y abierto, que soporta funciones de búsqueda en línea en tiempo real. Su característica de respuesta rápida lo hace destacar en aplicaciones de inferencia y ajuste de modelos en dispositivos de baja potencia, brindando a los usuarios una excelente relación costo-beneficio y una experiencia inteligente, especialmente en escenarios de preguntas y respuestas, generación de contenido y búsqueda."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro es un modelo de lenguaje grande de alto rendimiento optimizado para campos profesionales, enfocado en matemáticas, programación, medicina, educación y más, y soporta búsqueda en línea y plugins integrados como clima y fecha. Su modelo optimizado muestra un rendimiento excepcional y eficiente en preguntas y respuestas complejas, comprensión del lenguaje y creación de textos de alto nivel, siendo la opción ideal para escenarios de aplicación profesional."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Lite es un modelo de lenguaje grande y ligero, con una latencia extremadamente baja y una capacidad de procesamiento eficiente, completamente gratuito y de código abierto, que admite funciones de búsqueda en línea en tiempo real. Su característica de respuesta rápida lo hace destacar en aplicaciones de inferencia y ajuste de modelos en dispositivos de baja potencia, brindando a los usuarios una excelente relación costo-beneficio y experiencia inteligente, especialmente en escenarios de preguntas y respuestas, generación de contenido y búsqueda."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "El modelo Llama 3.1 70B Instruct, con 70B de parámetros, puede ofrecer un rendimiento excepcional en tareas de generación de texto y de instrucciones a gran escala."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral está diseñado para la investigación científica y el razonamiento matemático, proporcionando capacidades de cálculo efectivas y explicación de resultados."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32K está equipado con una capacidad de procesamiento de contexto grande, con una comprensión contextual más fuerte y habilidades de razonamiento lógico, soportando entradas de texto de 32K tokens, adecuado para la lectura de documentos largos, preguntas y respuestas de conocimiento privado y otros escenarios."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "Un poderoso modelo de 70 mil millones de parámetros que sobresale en razonamiento, codificación y amplias aplicaciones de lenguaje."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "El modelo Pixtral muestra una fuerte capacidad en tareas como comprensión de gráficos e imágenes, preguntas y respuestas de documentos, razonamiento multimodal y seguimiento de instrucciones, capaz de ingerir imágenes en resolución y proporción natural, y manejar una cantidad arbitraria de imágenes en una ventana de contexto larga de hasta 128K tokens."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128K está equipado con una capacidad de procesamiento de contexto extragrande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para el análisis completo y el manejo de relaciones lógicas a largo plazo en contenido extenso, proporcionando una lógica fluida y coherente y un soporte diverso de citas en comunicaciones de texto complejas."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "El modelo de código Tongyi Qwen."
|
945
948
|
},
|
package/locales/fr-FR/chat.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B) est un modèle innovant, adapté à des applications dans plusieurs domaines et à des tâches complexes."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32K est équipé d'une grande capacité de traitement de contexte, offrant une meilleure compréhension du contexte et des capacités de raisonnement logique, prenant en charge des entrées textuelles de 32K tokens, adapté à la lecture de longs documents, aux questions-réponses sur des connaissances privées et à d'autres scénarios."
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO est une fusion de modèles hautement flexible, visant à offrir une expérience créative exceptionnelle."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "Version améliorée du modèle Phi-3-vision."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K est configuré avec une capacité de traitement de contexte exceptionnel, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un support varié pour les références dans des communications textuelles complexes."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2 a démontré des performances exceptionnelles sur diverses tâches de langage visuel, y compris la compréhension de documents et de graphiques, la compréhension de texte de scène, l'OCR, ainsi que la résolution de problèmes scientifiques et mathématiques."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet a élevé les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, tout en affichant d'excellentes performances dans une large gamme d'évaluations, tout en conservant la vitesse et le coût de nos modèles de niveau intermédiaire."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, offrant une vitesse de réponse quasi instantanée. Il peut répondre rapidement à des requêtes et demandes simples. Les clients pourront construire une expérience AI transparente imitant l'interaction humaine. Claude 3 Haiku peut traiter des images et retourner des sorties textuelles, avec une fenêtre contextuelle de 200K."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, supportant une fonction de recherche en temps réel. Sa rapidité de réponse le rend exceptionnel dans les applications d'inférence sur des appareils à faible puissance de calcul et dans l'ajustement des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro est un modèle de langage de haute performance optimisé pour des domaines professionnels, se concentrant sur les mathématiques, la programmation, la médecine, l'éducation, etc., et supportant la recherche en ligne ainsi que des plugins intégrés pour la météo, la date, etc. Son modèle optimisé affiche d'excellentes performances et une efficacité dans des tâches complexes de questions-réponses, de compréhension linguistique et de création de textes de haut niveau, en faisant un choix idéal pour des applications professionnelles."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, prenant en charge la recherche en temps réel. Sa capacité de réponse rapide le rend exceptionnel pour les applications d'inférence sur des appareils à faible puissance de calcul et pour le réglage des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "Le modèle Llama 3.1 70B Instruct, avec 70B de paramètres, offre des performances exceptionnelles dans la génération de texte et les tâches d'instructions."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral est conçu pour la recherche scientifique et le raisonnement mathématique, offrant des capacités de calcul efficaces et des interprétations de résultats."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32K est équipé d'une grande capacité de traitement de contexte, avec une compréhension contextuelle et des capacités de raisonnement logique renforcées, prenant en charge des entrées textuelles de 32K tokens, adapté à la lecture de documents longs, aux questions-réponses privées et à d'autres scénarios."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "Un puissant modèle de 70 milliards de paramètres excelling dans le raisonnement, le codage et les applications linguistiques larges."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "Le modèle Pixtral montre de puissantes capacités dans des tâches telles que la compréhension des graphiques et des images, le questionnement de documents, le raisonnement multimodal et le respect des instructions, capable d'ingérer des images à résolution naturelle et à rapport d'aspect, tout en traitant un nombre quelconque d'images dans une fenêtre de contexte longue allant jusqu'à 128K tokens."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128K est doté d'une capacité de traitement de contexte très étendue, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un soutien varié pour les références dans des communications textuelles complexes."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "Le modèle de code Tongyi Qwen."
|
945
948
|
},
|