@lobehub/chat 1.136.0 → 1.136.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +42 -0
- package/Dockerfile.database +1 -1
- package/changelog/v1.json +14 -0
- package/locales/ar/models.json +22 -10
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/models.json +22 -10
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/models.json +22 -10
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/models.json +22 -10
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/models.json +22 -10
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/models.json +22 -10
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/models.json +22 -10
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/models.json +22 -10
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/models.json +22 -10
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/models.json +22 -10
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/models.json +22 -10
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/models.json +22 -10
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/models.json +22 -10
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/models.json +22 -10
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/models.json +22 -10
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/models.json +22 -10
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/models.json +22 -10
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/models.json +22 -10
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/packages/const/src/index.ts +1 -0
- package/packages/utils/src/toolCall.ts +1 -2
- package/packages/web-crawler/package.json +1 -0
- package/packages/web-crawler/src/crawImpl/naive.ts +2 -1
package/CHANGELOG.md
CHANGED
|
@@ -2,6 +2,48 @@
|
|
|
2
2
|
|
|
3
3
|
# Changelog
|
|
4
4
|
|
|
5
|
+
### [Version 1.136.2](https://github.com/lobehub/lobe-chat/compare/v1.136.1...v1.136.2)
|
|
6
|
+
|
|
7
|
+
<sup>Released on **2025-10-10**</sup>
|
|
8
|
+
|
|
9
|
+
#### 💄 Styles
|
|
10
|
+
|
|
11
|
+
- **misc**: Update i18n.
|
|
12
|
+
|
|
13
|
+
<br/>
|
|
14
|
+
|
|
15
|
+
<details>
|
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
17
|
+
|
|
18
|
+
#### Styles
|
|
19
|
+
|
|
20
|
+
- **misc**: Update i18n, closes [#9625](https://github.com/lobehub/lobe-chat/issues/9625) ([70d356d](https://github.com/lobehub/lobe-chat/commit/70d356d))
|
|
21
|
+
|
|
22
|
+
</details>
|
|
23
|
+
|
|
24
|
+
<div align="right">
|
|
25
|
+
|
|
26
|
+
[](#readme-top)
|
|
27
|
+
|
|
28
|
+
</div>
|
|
29
|
+
|
|
30
|
+
### [Version 1.136.1](https://github.com/lobehub/lobe-chat/compare/v1.136.0...v1.136.1)
|
|
31
|
+
|
|
32
|
+
<sup>Released on **2025-10-09**</sup>
|
|
33
|
+
|
|
34
|
+
<br/>
|
|
35
|
+
|
|
36
|
+
<details>
|
|
37
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
38
|
+
|
|
39
|
+
</details>
|
|
40
|
+
|
|
41
|
+
<div align="right">
|
|
42
|
+
|
|
43
|
+
[](#readme-top)
|
|
44
|
+
|
|
45
|
+
</div>
|
|
46
|
+
|
|
5
47
|
## [Version 1.136.0](https://github.com/lobehub/lobe-chat/compare/v1.135.6...v1.136.0)
|
|
6
48
|
|
|
7
49
|
<sup>Released on **2025-10-09**</sup>
|
package/Dockerfile.database
CHANGED
|
@@ -301,7 +301,7 @@ ENV \
|
|
|
301
301
|
# BFL
|
|
302
302
|
BFL_API_KEY="" BFL_MODEL_LIST="" \
|
|
303
303
|
# Vercel AI Gateway
|
|
304
|
-
VERCELAIGATEWAY_API_KEY="" VERCELAIGATEWAY_MODEL_LIST=""
|
|
304
|
+
VERCELAIGATEWAY_API_KEY="" VERCELAIGATEWAY_MODEL_LIST="" \
|
|
305
305
|
# Cerebras
|
|
306
306
|
CEREBRAS_API_KEY="" CEREBRAS_MODEL_LIST=""
|
|
307
307
|
|
package/changelog/v1.json
CHANGED
package/locales/ar/models.json
CHANGED
|
@@ -1532,6 +1532,9 @@
|
|
|
1532
1532
|
"glm-zero-preview": {
|
|
1533
1533
|
"description": "يمتلك GLM-Zero-Preview قدرة قوية على الاستدلال المعقد، ويظهر أداءً ممتازًا في مجالات الاستدلال المنطقي، والرياضيات، والبرمجة."
|
|
1534
1534
|
},
|
|
1535
|
+
"glm4.6:355b": {
|
|
1536
|
+
"description": "نموذج GLM-4.6 (355B) الرائد الأحدث من Zhipu يتفوق بشكل شامل على الجيل السابق في الترميز المتقدم، ومعالجة النصوص الطويلة، والاستدلال، وقدرات الوكلاء الذكيين، لا سيما في مجال البرمجة حيث يتماشى مع Claude Sonnet 4، ليصبح من أفضل نماذج الترميز في الصين."
|
|
1537
|
+
},
|
|
1535
1538
|
"google/gemini-2.0-flash": {
|
|
1536
1539
|
"description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي وتحسينات تشمل سرعة فائقة، استخدام أدوات مدمجة، توليد متعدد الوسائط، ونافذة سياق تصل إلى مليون رمز."
|
|
1537
1540
|
},
|
|
@@ -1757,9 +1760,6 @@
|
|
|
1757
1760
|
"gpt-realtime": {
|
|
1758
1761
|
"description": "نموذج عام في الوقت الحقيقي يدعم الإدخال والإخراج النصي والصوتي، ويدعم أيضًا إدخال الصور."
|
|
1759
1762
|
},
|
|
1760
|
-
"grok-2-1212": {
|
|
1761
|
-
"description": "لقد تم تحسين هذا النموذج في الدقة، والامتثال للتعليمات، والقدرة على التعامل مع لغات متعددة."
|
|
1762
|
-
},
|
|
1763
1763
|
"grok-2-image-1212": {
|
|
1764
1764
|
"description": "نموذج توليد الصور الأحدث لدينا قادر على توليد صور حيوية وواقعية بناءً على الأوامر النصية. يبرع في مجالات التسويق، وسائل التواصل الاجتماعي، والترفيه."
|
|
1765
1765
|
},
|
|
@@ -1769,15 +1769,9 @@
|
|
|
1769
1769
|
"grok-3": {
|
|
1770
1770
|
"description": "نموذج رائد، بارع في استخراج البيانات، البرمجة، وتلخيص النصوص لتطبيقات المؤسسات، يمتلك معرفة عميقة في مجالات المالية، الطب، القانون، والعلوم."
|
|
1771
1771
|
},
|
|
1772
|
-
"grok-3-fast": {
|
|
1773
|
-
"description": "نموذج رائد، بارع في استخراج البيانات، البرمجة، وتلخيص النصوص لتطبيقات المؤسسات، يمتلك معرفة عميقة في مجالات المالية، الطب، القانون، والعلوم."
|
|
1774
|
-
},
|
|
1775
1772
|
"grok-3-mini": {
|
|
1776
1773
|
"description": "نموذج خفيف الوزن، يفكر قبل المحادثة. سريع وذكي، مناسب للمهام المنطقية التي لا تتطلب معرفة متخصصة عميقة، ويستطيع تتبع مسار التفكير الأصلي."
|
|
1777
1774
|
},
|
|
1778
|
-
"grok-3-mini-fast": {
|
|
1779
|
-
"description": "نموذج خفيف الوزن، يفكر قبل المحادثة. سريع وذكي، مناسب للمهام المنطقية التي لا تتطلب معرفة متخصصة عميقة، ويستطيع تتبع مسار التفكير الأصلي."
|
|
1780
|
-
},
|
|
1781
1775
|
"grok-4": {
|
|
1782
1776
|
"description": "نموذجنا الرائد الأحدث والأقوى، يتميز بأداء ممتاز في معالجة اللغة الطبيعية، الحسابات الرياضية، والاستدلال — إنه لاعب شامل مثالي."
|
|
1783
1777
|
},
|
|
@@ -1860,7 +1854,7 @@
|
|
|
1860
1854
|
"description": "أحدث نموذج تفكير عميق متعدد الوسائط t1-vision من Hunyuan، يدعم سلسلة التفكير الأصلية متعددة الوسائط، مع تحسين شامل مقارنة بالإصدار الافتراضي السابق."
|
|
1861
1855
|
},
|
|
1862
1856
|
"hunyuan-t1-vision-20250916": {
|
|
1863
|
-
"description": "
|
|
1857
|
+
"description": "أحدث إصدار من نموذج Hunyuan t1-vision للتفكير البصري العميق، يقدم تحسينات شاملة مقارنة بالإصدار السابق في مهام الأسئلة والأجوبة العامة على الصور والنصوص، التحديد البصري، التعرف البصري على الحروف (OCR)، الرسوم البيانية، حل المسائل المصورة، والإبداع البصري، مع تحسين ملحوظ في دعم اللغة الإنجليزية واللغات الأقل استخدامًا."
|
|
1864
1858
|
},
|
|
1865
1859
|
"hunyuan-turbo": {
|
|
1866
1860
|
"description": "نسخة المعاينة من الجيل الجديد من نموذج اللغة الكبير، يستخدم هيكل نموذج الخبراء المختلط (MoE) الجديد، مما يوفر كفاءة استدلال أسرع وأداء أقوى مقارنة بـ hunyuan-pro."
|
|
@@ -2021,6 +2015,9 @@
|
|
|
2021
2015
|
"llama-3.2-vision-instruct": {
|
|
2022
2016
|
"description": "تم تحسين نموذج Llama 3.2-Vision المعدل للتعليمات للتعرف البصري، والاستدلال على الصور، ووصف الصور، والإجابة على الأسئلة العامة المتعلقة بالصور."
|
|
2023
2017
|
},
|
|
2018
|
+
"llama-3.3-70b": {
|
|
2019
|
+
"description": "Llama 3.3 70B: نموذج Llama متوسط إلى كبير الحجم، يوازن بين قدرات الاستدلال والكفاءة الإنتاجية."
|
|
2020
|
+
},
|
|
2024
2021
|
"llama-3.3-70b-instruct": {
|
|
2025
2022
|
"description": "Llama 3.3 هو النموذج الأكثر تقدمًا في سلسلة Llama، وهو نموذج لغوي مفتوح المصدر متعدد اللغات، يوفر تجربة أداء تنافس نموذج 405B بتكلفة منخفضة للغاية. يعتمد على هيكل Transformer، وتم تحسين فائدته وأمانه من خلال التعديل الدقيق تحت الإشراف (SFT) والتعلم المعزز من خلال التغذية الراجعة البشرية (RLHF). تم تحسين نسخة التعديل الخاصة به لتكون مثالية للحوار متعدد اللغات، حيث يتفوق في العديد من المعايير الصناعية على العديد من نماذج الدردشة المفتوحة والمغلقة. تاريخ انتهاء المعرفة هو ديسمبر 2023."
|
|
2026
2023
|
},
|
|
@@ -2030,6 +2027,12 @@
|
|
|
2030
2027
|
"llama-3.3-instruct": {
|
|
2031
2028
|
"description": "تم تحسين نموذج Llama 3.3 المعدل للتعليمات خصيصًا لسيناريوهات المحادثة، حيث تفوق على العديد من نماذج الدردشة مفتوحة المصدر الحالية في اختبارات المعايير الصناعية الشائعة."
|
|
2032
2029
|
},
|
|
2030
|
+
"llama-4-maverick-17b-128e-instruct": {
|
|
2031
|
+
"description": "Llama 4 Maverick: نموذج عالي الأداء من سلسلة Llama، مناسب لمهام الاستدلال المتقدم، حل المشكلات المعقدة، وتنفيذ التعليمات."
|
|
2032
|
+
},
|
|
2033
|
+
"llama-4-scout-17b-16e-instruct": {
|
|
2034
|
+
"description": "Llama 4 Scout: نموذج عالي الأداء من سلسلة Llama، مثالي للسيناريوهات التي تتطلب إنتاجية عالية وزمن استجابة منخفض."
|
|
2035
|
+
},
|
|
2033
2036
|
"llama3-70b-8192": {
|
|
2034
2037
|
"description": "Meta Llama 3 70B يوفر قدرة معالجة معقدة لا مثيل لها، مصمم خصيصًا للمشاريع ذات المتطلبات العالية."
|
|
2035
2038
|
},
|
|
@@ -2045,6 +2048,9 @@
|
|
|
2045
2048
|
"llama3.1": {
|
|
2046
2049
|
"description": "Llama 3.1 هو النموذج الرائد الذي أطلقته Meta، يدعم ما يصل إلى 405B من المعلمات، ويمكن تطبيقه في مجالات الحوار المعقد، والترجمة متعددة اللغات، وتحليل البيانات."
|
|
2047
2050
|
},
|
|
2051
|
+
"llama3.1-8b": {
|
|
2052
|
+
"description": "Llama 3.1 8B: إصدار خفيف ومنخفض التأخير من Llama، مناسب للاستدلال التفاعلي الخفيف عبر الإنترنت."
|
|
2053
|
+
},
|
|
2048
2054
|
"llama3.1:405b": {
|
|
2049
2055
|
"description": "Llama 3.1 هو النموذج الرائد الذي أطلقته Meta، يدعم ما يصل إلى 405B من المعلمات، ويمكن تطبيقه في مجالات الحوار المعقد، والترجمة متعددة اللغات، وتحليل البيانات."
|
|
2050
2056
|
},
|
|
@@ -2642,6 +2648,12 @@
|
|
|
2642
2648
|
"qvq-plus": {
|
|
2643
2649
|
"description": "نموذج استدلال بصري يدعم الإدخال البصري وإخراج سلسلة التفكير. النسخة بلس التي تلت نموذج qvq-max، تتميز بسرعة استدلال أعلى وتوازن أفضل بين الأداء والتكلفة مقارنة بنموذج qvq-max."
|
|
2644
2650
|
},
|
|
2651
|
+
"qwen-3-32b": {
|
|
2652
|
+
"description": "Qwen 3 32B: نموذج من سلسلة Qwen يتميز بأداء ممتاز في المهام متعددة اللغات والبرمجة، مناسب للاستخدام الإنتاجي متوسط النطاق."
|
|
2653
|
+
},
|
|
2654
|
+
"qwen-3-coder-480b": {
|
|
2655
|
+
"description": "Qwen 3 Coder 480B: نموذج طويل السياق مخصص لتوليد الشيفرات والمهام البرمجية المعقدة."
|
|
2656
|
+
},
|
|
2645
2657
|
"qwen-coder-plus": {
|
|
2646
2658
|
"description": "نموذج Tongyi Qianwen للبرمجة."
|
|
2647
2659
|
},
|
|
@@ -32,6 +32,9 @@
|
|
|
32
32
|
"bfl": {
|
|
33
33
|
"description": "مختبر أبحاث رائد في مقدمة الذكاء الاصطناعي، يبني البنية التحتية البصرية للمستقبل."
|
|
34
34
|
},
|
|
35
|
+
"cerebras": {
|
|
36
|
+
"description": "Cerebras هو نظام استدلال ذكاء اصطناعي يعتمد على نظام CS-3 المخصص، ويهدف إلى تقديم أسرع خدمات النماذج اللغوية الكبيرة (LLM) في العالم مع استجابة فورية وقدرة معالجة عالية. تم تصميمه خصيصًا للقضاء على التأخير وتسريع سير العمل المعقد للذكاء الاصطناعي مثل توليد الشيفرات في الوقت الحقيقي والمهام التفاعلية."
|
|
37
|
+
},
|
|
35
38
|
"cloudflare": {
|
|
36
39
|
"description": "تشغيل نماذج التعلم الآلي المدفوعة بوحدات معالجة الرسوميات بدون خادم على شبكة Cloudflare العالمية."
|
|
37
40
|
},
|
|
@@ -1532,6 +1532,9 @@
|
|
|
1532
1532
|
"glm-zero-preview": {
|
|
1533
1533
|
"description": "GLM-Zero-Preview притежава мощни способности за сложни разсъждения, показвайки отлични резултати в логическото разсъждение, математиката и програмирането."
|
|
1534
1534
|
},
|
|
1535
|
+
"glm4.6:355b": {
|
|
1536
|
+
"description": "Най-новият флагмански модел на Zhipu — GLM-4.6 (355B) — значително надминава предшествениците си в напреднало програмиране, обработка на дълги текстове, логическо разсъждение и способности на интелигентни агенти. Особено в програмирането се изравнява с Claude Sonnet 4, превръщайки се в водещ модел за кодиране в Китай."
|
|
1537
|
+
},
|
|
1535
1538
|
"google/gemini-2.0-flash": {
|
|
1536
1539
|
"description": "Gemini 2.0 Flash предлага следващо поколение функции и подобрения, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена."
|
|
1537
1540
|
},
|
|
@@ -1757,9 +1760,6 @@
|
|
|
1757
1760
|
"gpt-realtime": {
|
|
1758
1761
|
"description": "Универсален модел в реално време, поддържащ текстов и аудио вход и изход, както и вход на изображения."
|
|
1759
1762
|
},
|
|
1760
|
-
"grok-2-1212": {
|
|
1761
|
-
"description": "Този модел е подобрен по отношение на точност, спазване на инструкции и многоезични способности."
|
|
1762
|
-
},
|
|
1763
1763
|
"grok-2-image-1212": {
|
|
1764
1764
|
"description": "Нашият най-нов модел за генериране на изображения може да създава живи и реалистични изображения въз основа на текстови подсказки. Той се представя отлично в маркетинг, социални медии и развлекателни области."
|
|
1765
1765
|
},
|
|
@@ -1769,15 +1769,9 @@
|
|
|
1769
1769
|
"grok-3": {
|
|
1770
1770
|
"description": "Флагмански модел, експертен в извличане на данни, програмиране и обобщаване на текст за корпоративни приложения, с дълбоки знания в областите финанси, медицина, право и наука."
|
|
1771
1771
|
},
|
|
1772
|
-
"grok-3-fast": {
|
|
1773
|
-
"description": "Флагмански модел, експертен в извличане на данни, програмиране и обобщаване на текст за корпоративни приложения, с дълбоки знания в областите финанси, медицина, право и наука."
|
|
1774
|
-
},
|
|
1775
1772
|
"grok-3-mini": {
|
|
1776
1773
|
"description": "Лек модел, който мисли преди разговор. Работи бързо и интелигентно, подходящ за логически задачи без нужда от дълбоки специализирани знания и позволява проследяване на оригиналния мисловен процес."
|
|
1777
1774
|
},
|
|
1778
|
-
"grok-3-mini-fast": {
|
|
1779
|
-
"description": "Лек модел, който мисли преди разговор. Работи бързо и интелигентно, подходящ за логически задачи без нужда от дълбоки специализирани знания и позволява проследяване на оригиналния мисловен процес."
|
|
1780
|
-
},
|
|
1781
1775
|
"grok-4": {
|
|
1782
1776
|
"description": "Нашият най-нов и най-мощен флагмански модел, който се отличава с изключителни резултати в обработката на естествен език, математическите изчисления и разсъжденията — перфектен универсален играч."
|
|
1783
1777
|
},
|
|
@@ -1860,7 +1854,7 @@
|
|
|
1860
1854
|
"description": "Най-новият мултимодален дълбок мислещ модел t1-vision на Hunyuan, който поддържа оригинални мултимодални вериги на мисълта и предлага цялостно подобрение спрямо предишната версия по подразбиране."
|
|
1861
1855
|
},
|
|
1862
1856
|
"hunyuan-t1-vision-20250916": {
|
|
1863
|
-
"description": "
|
|
1857
|
+
"description": "Най-новият модел за визуално дълбоко мислене Hunyuan t1-vision предлага цялостни подобрения спрямо предишната версия в задачи като общи въпроси и отговори по изображения, визуално локализиране, OCR, графики, решаване на задачи по снимка и творческо писане по изображение. Значително е подобрена и поддръжката на английски и по-малко разпространени езици."
|
|
1864
1858
|
},
|
|
1865
1859
|
"hunyuan-turbo": {
|
|
1866
1860
|
"description": "Предварителна версия на новото поколение голям езиков модел на HunYuan, използваща нова структура на смесен експертен модел (MoE), с по-бърза скорост на извеждане и по-силни резултати в сравнение с hunyuan-pro."
|
|
@@ -2021,6 +2015,9 @@
|
|
|
2021
2015
|
"llama-3.2-vision-instruct": {
|
|
2022
2016
|
"description": "Моделът Llama 3.2-Vision с инструкции е оптимизиран за визуално разпознаване, изводи от изображения, описание на изображения и отговаряне на общи въпроси, свързани с изображения."
|
|
2023
2017
|
},
|
|
2018
|
+
"llama-3.3-70b": {
|
|
2019
|
+
"description": "Llama 3.3 70B: средно до голямо Llama решение, съчетаващо логическо разсъждение и висока производителност."
|
|
2020
|
+
},
|
|
2024
2021
|
"llama-3.3-70b-instruct": {
|
|
2025
2022
|
"description": "Llama 3.3 е най-напредналият многоезичен отворен езиков модел от серията Llama, който предлага производителност, сравнима с 405B моделите, на изключително ниска цена. Базиран на структурата Transformer и подобрен чрез супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Неговата версия, оптимизирана за инструкции, е специално проектирана за многоезични диалози и показва по-добри резултати от много от отворените и затворените чат модели в множество индустриални бенчмаркове. Краен срок за знания: декември 2023."
|
|
2026
2023
|
},
|
|
@@ -2030,6 +2027,12 @@
|
|
|
2030
2027
|
"llama-3.3-instruct": {
|
|
2031
2028
|
"description": "Моделата Llama 3.3 с фина настройка за инструкции е оптимизирана за диалогови сценарии и надминава много съществуващи модели с отворен код в общи отраслови бенчмарк тестове."
|
|
2032
2029
|
},
|
|
2030
|
+
"llama-4-maverick-17b-128e-instruct": {
|
|
2031
|
+
"description": "Llama 4 Maverick: високопроизводителен модел от серията Llama, подходящ за напреднало разсъждение, решаване на сложни задачи и следване на инструкции."
|
|
2032
|
+
},
|
|
2033
|
+
"llama-4-scout-17b-16e-instruct": {
|
|
2034
|
+
"description": "Llama 4 Scout: високопроизводителен модел от серията Llama, оптимизиран за сценарии с висока пропускателна способност и ниска латентност."
|
|
2035
|
+
},
|
|
2033
2036
|
"llama3-70b-8192": {
|
|
2034
2037
|
"description": "Meta Llama 3 70B предлага ненадмината способност за обработка на сложност, проектирана за високи изисквания."
|
|
2035
2038
|
},
|
|
@@ -2045,6 +2048,9 @@
|
|
|
2045
2048
|
"llama3.1": {
|
|
2046
2049
|
"description": "Llama 3.1 е водещ модел, представен от Meta, поддържащ до 405B параметри, приложим в области като сложни диалози, многоезичен превод и анализ на данни."
|
|
2047
2050
|
},
|
|
2051
|
+
"llama3.1-8b": {
|
|
2052
|
+
"description": "Llama 3.1 8B: лек и с ниска латентност вариант на Llama, идеален за онлайн разсъждение и интерактивни приложения."
|
|
2053
|
+
},
|
|
2048
2054
|
"llama3.1:405b": {
|
|
2049
2055
|
"description": "Llama 3.1 е водещ модел, представен от Meta, поддържащ до 405B параметри, приложим в области като сложни диалози, многоезичен превод и анализ на данни."
|
|
2050
2056
|
},
|
|
@@ -2642,6 +2648,12 @@
|
|
|
2642
2648
|
"qvq-plus": {
|
|
2643
2649
|
"description": "Модел за визуално разсъждение. Поддържа визуален вход и изход на мисловни вериги. Версия plus, пусната след модела qvq-max, предлага по-бързо разсъждение и по-добър баланс между ефективност и разходи в сравнение с qvq-max."
|
|
2644
2650
|
},
|
|
2651
|
+
"qwen-3-32b": {
|
|
2652
|
+
"description": "Qwen 3 32B: модел от серията Qwen с отлична производителност при многоезични и програмни задачи, подходящ за средномащабна продукционна употреба."
|
|
2653
|
+
},
|
|
2654
|
+
"qwen-3-coder-480b": {
|
|
2655
|
+
"description": "Qwen 3 Coder 480B: модел с дълъг контекст, предназначен за генериране на код и сложни програмни задачи."
|
|
2656
|
+
},
|
|
2645
2657
|
"qwen-coder-plus": {
|
|
2646
2658
|
"description": "Tongyi Qianwen модел за кодиране."
|
|
2647
2659
|
},
|
|
@@ -32,6 +32,9 @@
|
|
|
32
32
|
"bfl": {
|
|
33
33
|
"description": "Водеща изследователска лаборатория за авангарден изкуствен интелект, която изгражда визуалната инфраструктура на утрешния ден."
|
|
34
34
|
},
|
|
35
|
+
"cerebras": {
|
|
36
|
+
"description": "Cerebras е AI платформа за извеждане, базирана на специализираната си система CS-3, създадена да предоставя най-бързите в света услуги за големи езикови модели (LLM) с незабавен отговор и висок капацитет на обработка. Тя е проектирана да елиминира закъсненията и да ускори сложни AI работни процеси, като генериране на код в реално време и изпълнение на агентски задачи."
|
|
37
|
+
},
|
|
35
38
|
"cloudflare": {
|
|
36
39
|
"description": "Работа с модели на машинно обучение, задвижвани от безсървърни GPU, в глобалната мрежа на Cloudflare."
|
|
37
40
|
},
|
|
@@ -1532,6 +1532,9 @@
|
|
|
1532
1532
|
"glm-zero-preview": {
|
|
1533
1533
|
"description": "GLM-Zero-Preview verfügt über starke Fähigkeiten zur komplexen Schlussfolgerung und zeigt hervorragende Leistungen in den Bereichen logisches Denken, Mathematik und Programmierung."
|
|
1534
1534
|
},
|
|
1535
|
+
"glm4.6:355b": {
|
|
1536
|
+
"description": "Das neueste Flaggschiffmodell GLM-4.6 (355B) von Zhipu übertrifft seinen Vorgänger in den Bereichen fortgeschrittenes Codieren, Verarbeitung langer Texte, logisches Schlussfolgern und Agentenfähigkeiten deutlich. Besonders im Bereich Programmierung erreicht es das Niveau von Claude Sonnet 4 und zählt damit zu den führenden Coding-Modellen in China."
|
|
1537
|
+
},
|
|
1535
1538
|
"google/gemini-2.0-flash": {
|
|
1536
1539
|
"description": "Gemini 2.0 Flash bietet Funktionen der nächsten Generation und Verbesserungen, darunter herausragende Geschwindigkeit, integrierte Werkzeugnutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens."
|
|
1537
1540
|
},
|
|
@@ -1757,9 +1760,6 @@
|
|
|
1757
1760
|
"gpt-realtime": {
|
|
1758
1761
|
"description": "Universelles Echtzeitmodell, das Echtzeit-Text- und Audioeingabe/-ausgabe unterstützt und zudem Bildinput ermöglicht."
|
|
1759
1762
|
},
|
|
1760
|
-
"grok-2-1212": {
|
|
1761
|
-
"description": "Dieses Modell hat Verbesserungen in Bezug auf Genauigkeit, Befolgung von Anweisungen und Mehrsprachigkeit erfahren."
|
|
1762
|
-
},
|
|
1763
1763
|
"grok-2-image-1212": {
|
|
1764
1764
|
"description": "Unser neuestes Bildgenerierungsmodell kann lebendige und realistische Bilder basierend auf Text-Prompts erzeugen. Es zeigt hervorragende Leistungen in den Bereichen Marketing, soziale Medien und Unterhaltung."
|
|
1765
1765
|
},
|
|
@@ -1769,15 +1769,9 @@
|
|
|
1769
1769
|
"grok-3": {
|
|
1770
1770
|
"description": "Ein Flaggschiffmodell, spezialisiert auf Datenextraktion, Programmierung und Textzusammenfassung für Unternehmensanwendungen, mit tiefgreifendem Wissen in den Bereichen Finanzen, Medizin, Recht und Wissenschaft."
|
|
1771
1771
|
},
|
|
1772
|
-
"grok-3-fast": {
|
|
1773
|
-
"description": "Ein Flaggschiffmodell, spezialisiert auf Datenextraktion, Programmierung und Textzusammenfassung für Unternehmensanwendungen, mit tiefgreifendem Wissen in den Bereichen Finanzen, Medizin, Recht und Wissenschaft."
|
|
1774
|
-
},
|
|
1775
1772
|
"grok-3-mini": {
|
|
1776
1773
|
"description": "Ein leichtgewichtiges Modell, das vor der Antwort nachdenkt. Es arbeitet schnell und intelligent, eignet sich für logische Aufgaben ohne tiefgehendes Fachwissen und ermöglicht die Nachverfolgung des ursprünglichen Denkprozesses."
|
|
1777
1774
|
},
|
|
1778
|
-
"grok-3-mini-fast": {
|
|
1779
|
-
"description": "Ein leichtgewichtiges Modell, das vor der Antwort nachdenkt. Es arbeitet schnell und intelligent, eignet sich für logische Aufgaben ohne tiefgehendes Fachwissen und ermöglicht die Nachverfolgung des ursprünglichen Denkprozesses."
|
|
1780
|
-
},
|
|
1781
1775
|
"grok-4": {
|
|
1782
1776
|
"description": "Unser neuestes und leistungsstärkstes Flaggschiffmodell, das in der Verarbeitung natürlicher Sprache, mathematischen Berechnungen und logischem Denken herausragende Leistungen erbringt – ein perfekter Allrounder."
|
|
1783
1777
|
},
|
|
@@ -1860,7 +1854,7 @@
|
|
|
1860
1854
|
"description": "Die neueste Version des hunyuan t1-vision multimodalen tiefen Denkmodells unterstützt native multimodale Chain-of-Thought-Mechanismen und bietet im Vergleich zur vorherigen Standardversion umfassende Verbesserungen."
|
|
1861
1855
|
},
|
|
1862
1856
|
"hunyuan-t1-vision-20250916": {
|
|
1863
|
-
"description": "Hunyuan
|
|
1857
|
+
"description": "Die neueste Version des Hunyuan t1-vision Modells für visuelles, tiefes Denken bietet im Vergleich zur Vorgängerversion umfassende Verbesserungen bei allgemeinen Bild-Text-Fragen, visueller Lokalisierung, OCR, Diagrammverarbeitung, Aufgabenlösung per Foto und kreativer Bildinterpretation. Die Fähigkeiten in Englisch und kleineren Sprachen wurden deutlich optimiert."
|
|
1864
1858
|
},
|
|
1865
1859
|
"hunyuan-turbo": {
|
|
1866
1860
|
"description": "Die Vorschauversion des neuen großen Sprachmodells von Hunyuan verwendet eine neuartige hybride Expertenmodellstruktur (MoE) und bietet im Vergleich zu Hunyuan-Pro eine schnellere Inferenz und bessere Leistung."
|
|
@@ -2021,6 +2015,9 @@
|
|
|
2021
2015
|
"llama-3.2-vision-instruct": {
|
|
2022
2016
|
"description": "Das Llama 3.2-Vision-Instruct-Modell ist optimiert für visuelle Erkennung, Bildschlussfolgerungen, Bildbeschreibungen und das Beantworten von allgemeinen Fragen, die mit Bildern zusammenhängen."
|
|
2023
2017
|
},
|
|
2018
|
+
"llama-3.3-70b": {
|
|
2019
|
+
"description": "Llama 3.3 70B: Ein mittelgroßes Llama-Modell, das eine ausgewogene Kombination aus logischem Denken und hoher Verarbeitungskapazität bietet."
|
|
2020
|
+
},
|
|
2024
2021
|
"llama-3.3-70b-instruct": {
|
|
2025
2022
|
"description": "Llama 3.3 ist das fortschrittlichste mehrsprachige Open-Source-Sprachmodell der Llama-Serie, das eine Leistung bietet, die mit einem 405B-Modell vergleichbar ist, und das zu extrem niedrigen Kosten. Es basiert auf der Transformer-Architektur und verbessert die Nützlichkeit und Sicherheit durch überwachte Feinabstimmung (SFT) und verstärkendes Lernen mit menschlichem Feedback (RLHF). Die auf Anweisungen optimierte Version ist speziell für mehrsprachige Dialoge optimiert und übertrifft in mehreren Branchenbenchmarks viele Open-Source- und geschlossene Chat-Modelle. Das Wissensdatum endet im Dezember 2023."
|
|
2026
2023
|
},
|
|
@@ -2030,6 +2027,12 @@
|
|
|
2030
2027
|
"llama-3.3-instruct": {
|
|
2031
2028
|
"description": "Das Llama 3.3 Instruct-Modell ist für Dialogszenarien optimiert und übertrifft in gängigen Branchenbenchmarks viele bestehende Open-Source-Chatmodelle."
|
|
2032
2029
|
},
|
|
2030
|
+
"llama-4-maverick-17b-128e-instruct": {
|
|
2031
|
+
"description": "Llama 4 Maverick: Ein leistungsstarkes Modell der Llama-Serie, ideal für fortgeschrittenes logisches Denken, komplexe Problemlösungen und Aufgaben mit Anweisungsbefolgung."
|
|
2032
|
+
},
|
|
2033
|
+
"llama-4-scout-17b-16e-instruct": {
|
|
2034
|
+
"description": "Llama 4 Scout: Ein leistungsstarkes Modell der Llama-Serie, optimiert für Szenarien mit hoher Verarbeitungsgeschwindigkeit und niedriger Latenz."
|
|
2035
|
+
},
|
|
2033
2036
|
"llama3-70b-8192": {
|
|
2034
2037
|
"description": "Meta Llama 3 70B bietet unvergleichliche Fähigkeiten zur Verarbeitung von Komplexität und ist maßgeschneidert für Projekte mit hohen Anforderungen."
|
|
2035
2038
|
},
|
|
@@ -2045,6 +2048,9 @@
|
|
|
2045
2048
|
"llama3.1": {
|
|
2046
2049
|
"description": "Llama 3.1 ist ein führendes Modell von Meta, das bis zu 405B Parameter unterstützt und in den Bereichen komplexe Dialoge, mehrsprachige Übersetzungen und Datenanalysen eingesetzt werden kann."
|
|
2047
2050
|
},
|
|
2051
|
+
"llama3.1-8b": {
|
|
2052
|
+
"description": "Llama 3.1 8B: Eine kompakte, latenzarme Variante des Llama-Modells, ideal für leichte Online-Inferenz- und Interaktionsszenarien."
|
|
2053
|
+
},
|
|
2048
2054
|
"llama3.1:405b": {
|
|
2049
2055
|
"description": "Llama 3.1 ist ein führendes Modell von Meta, das bis zu 405B Parameter unterstützt und in den Bereichen komplexe Dialoge, mehrsprachige Übersetzungen und Datenanalysen eingesetzt werden kann."
|
|
2050
2056
|
},
|
|
@@ -2642,6 +2648,12 @@
|
|
|
2642
2648
|
"qvq-plus": {
|
|
2643
2649
|
"description": "Visuelles Schlussfolgerungsmodell. Unterstützt visuelle Eingaben und Denkprozess-Ausgaben. Die Plus-Version, die auf dem qvq-max-Modell basiert, bietet schnellere Inferenzgeschwindigkeit sowie ein ausgewogeneres Verhältnis von Leistung und Kosten."
|
|
2644
2650
|
},
|
|
2651
|
+
"qwen-3-32b": {
|
|
2652
|
+
"description": "Qwen 3 32B: Ein Modell der Qwen-Serie mit starker Leistung bei mehrsprachigen und Programmieraufgaben, geeignet für mittelgroße produktive Einsätze."
|
|
2653
|
+
},
|
|
2654
|
+
"qwen-3-coder-480b": {
|
|
2655
|
+
"description": "Qwen 3 Coder 480B: Ein Modell mit langem Kontext, das für Codegenerierung und komplexe Programmieraufgaben entwickelt wurde."
|
|
2656
|
+
},
|
|
2645
2657
|
"qwen-coder-plus": {
|
|
2646
2658
|
"description": "Tongyi Qianwen Codierungsmodell."
|
|
2647
2659
|
},
|
|
@@ -32,6 +32,9 @@
|
|
|
32
32
|
"bfl": {
|
|
33
33
|
"description": "Ein führendes, an vorderster Front tätiges KI-Forschungslabor, das die visuelle Infrastruktur von morgen gestaltet."
|
|
34
34
|
},
|
|
35
|
+
"cerebras": {
|
|
36
|
+
"description": "Cerebras ist eine KI-Inferenzplattform, die auf dem spezialisierten CS-3-System basiert. Sie wurde entwickelt, um weltweit die schnellsten, in Echtzeit reagierenden und hochdurchsatzfähigen LLM-Dienste bereitzustellen. Ziel ist es, Latenzen zu eliminieren und komplexe KI-Workflows wie die Echtzeit-Codegenerierung und Agentenaufgaben zu beschleunigen."
|
|
37
|
+
},
|
|
35
38
|
"cloudflare": {
|
|
36
39
|
"description": "Führen Sie von serverlosen GPUs betriebene Machine-Learning-Modelle im globalen Netzwerk von Cloudflare aus."
|
|
37
40
|
},
|
|
@@ -1532,6 +1532,9 @@
|
|
|
1532
1532
|
"glm-zero-preview": {
|
|
1533
1533
|
"description": "GLM-Zero-Preview possesses strong complex reasoning abilities, excelling in logical reasoning, mathematics, programming, and other fields."
|
|
1534
1534
|
},
|
|
1535
|
+
"glm4.6:355b": {
|
|
1536
|
+
"description": "GLM-4.6 (355B), the latest flagship model from Zhipu, delivers comprehensive improvements over its predecessor in advanced coding, long-text processing, reasoning, and agent capabilities. It is particularly aligned with Claude Sonnet 4 in programming performance, making it one of the top coding models in China."
|
|
1537
|
+
},
|
|
1535
1538
|
"google/gemini-2.0-flash": {
|
|
1536
1539
|
"description": "Gemini 2.0 Flash offers next-generation features and improvements, including exceptional speed, built-in tool usage, multimodal generation, and a 1 million token context window."
|
|
1537
1540
|
},
|
|
@@ -1757,9 +1760,6 @@
|
|
|
1757
1760
|
"gpt-realtime": {
|
|
1758
1761
|
"description": "A general-purpose real-time model supporting real-time text and audio input/output, as well as image input."
|
|
1759
1762
|
},
|
|
1760
|
-
"grok-2-1212": {
|
|
1761
|
-
"description": "This model has improved in accuracy, instruction adherence, and multilingual capabilities."
|
|
1762
|
-
},
|
|
1763
1763
|
"grok-2-image-1212": {
|
|
1764
1764
|
"description": "Our latest image generation model can create vivid and realistic images based on text prompts. It performs excellently in image generation for marketing, social media, and entertainment."
|
|
1765
1765
|
},
|
|
@@ -1769,15 +1769,9 @@
|
|
|
1769
1769
|
"grok-3": {
|
|
1770
1770
|
"description": "A flagship model skilled in data extraction, programming, and text summarization for enterprise applications, with deep knowledge in finance, healthcare, law, and science."
|
|
1771
1771
|
},
|
|
1772
|
-
"grok-3-fast": {
|
|
1773
|
-
"description": "A flagship model skilled in data extraction, programming, and text summarization for enterprise applications, with deep knowledge in finance, healthcare, law, and science."
|
|
1774
|
-
},
|
|
1775
1772
|
"grok-3-mini": {
|
|
1776
1773
|
"description": "A lightweight model that thinks before responding. It runs fast and intelligently, suitable for logical tasks that do not require deep domain knowledge, and can provide raw thought trajectories."
|
|
1777
1774
|
},
|
|
1778
|
-
"grok-3-mini-fast": {
|
|
1779
|
-
"description": "A lightweight model that thinks before responding. It runs fast and intelligently, suitable for logical tasks that do not require deep domain knowledge, and can provide raw thought trajectories."
|
|
1780
|
-
},
|
|
1781
1775
|
"grok-4": {
|
|
1782
1776
|
"description": "Our latest and most powerful flagship model, excelling in natural language processing, mathematical computation, and reasoning — a perfect all-rounder."
|
|
1783
1777
|
},
|
|
@@ -1860,7 +1854,7 @@
|
|
|
1860
1854
|
"description": "The latest Hunyuan t1-vision multimodal deep thinking model supports native long Chain-of-Thought reasoning across modalities, comprehensively improving over the previous default version."
|
|
1861
1855
|
},
|
|
1862
1856
|
"hunyuan-t1-vision-20250916": {
|
|
1863
|
-
"description": "Hunyuan
|
|
1857
|
+
"description": "The latest Hunyuan t1-vision model excels in visual deep reasoning. Compared to the previous version, it offers significant enhancements in general image-text Q&A, visual localization, OCR, chart interpretation, problem-solving from photos, and image-based creative tasks, with notable improvements in English and low-resource language capabilities."
|
|
1864
1858
|
},
|
|
1865
1859
|
"hunyuan-turbo": {
|
|
1866
1860
|
"description": "The preview version of the next-generation Hunyuan large language model, featuring a brand-new mixed expert model (MoE) structure, which offers faster inference efficiency and stronger performance compared to Hunyuan Pro."
|
|
@@ -2021,6 +2015,9 @@
|
|
|
2021
2015
|
"llama-3.2-vision-instruct": {
|
|
2022
2016
|
"description": "The Llama 3.2-Vision instruction-tuned model is optimized for visual recognition, image reasoning, image captioning, and answering general questions related to images."
|
|
2023
2017
|
},
|
|
2018
|
+
"llama-3.3-70b": {
|
|
2019
|
+
"description": "Llama 3.3 70B: A mid-to-large scale Llama model that balances reasoning power and throughput."
|
|
2020
|
+
},
|
|
2024
2021
|
"llama-3.3-70b-instruct": {
|
|
2025
2022
|
"description": "Llama 3.3 is the most advanced multilingual open-source large language model in the Llama series, offering performance comparable to a 405B model at an extremely low cost. Based on the Transformer architecture, it enhances usability and safety through supervised fine-tuning (SFT) and reinforcement learning from human feedback (RLHF). Its instruction-tuned version is optimized for multilingual dialogue and outperforms many open-source and closed chat models on various industry benchmarks. Knowledge cutoff date is December 2023."
|
|
2026
2023
|
},
|
|
@@ -2030,6 +2027,12 @@
|
|
|
2030
2027
|
"llama-3.3-instruct": {
|
|
2031
2028
|
"description": "The Llama 3.3 instruction-tuned model is optimized for conversational scenarios, outperforming many existing open-source chat models on common industry benchmarks."
|
|
2032
2029
|
},
|
|
2030
|
+
"llama-4-maverick-17b-128e-instruct": {
|
|
2031
|
+
"description": "Llama 4 Maverick: A high-performance model in the Llama series, ideal for advanced reasoning, complex problem-solving, and instruction-following tasks."
|
|
2032
|
+
},
|
|
2033
|
+
"llama-4-scout-17b-16e-instruct": {
|
|
2034
|
+
"description": "Llama 4 Scout: A high-performance Llama model optimized for scenarios requiring high throughput and low latency."
|
|
2035
|
+
},
|
|
2033
2036
|
"llama3-70b-8192": {
|
|
2034
2037
|
"description": "Meta Llama 3 70B provides unparalleled complexity handling capabilities, tailored for high-demand projects."
|
|
2035
2038
|
},
|
|
@@ -2045,6 +2048,9 @@
|
|
|
2045
2048
|
"llama3.1": {
|
|
2046
2049
|
"description": "Llama 3.1 is a leading model launched by Meta, supporting up to 405B parameters, applicable in complex dialogues, multilingual translation, and data analysis."
|
|
2047
2050
|
},
|
|
2051
|
+
"llama3.1-8b": {
|
|
2052
|
+
"description": "Llama 3.1 8B: A lightweight, low-latency variant of Llama, well-suited for real-time inference and interactive applications."
|
|
2053
|
+
},
|
|
2048
2054
|
"llama3.1:405b": {
|
|
2049
2055
|
"description": "Llama 3.1 is a leading model launched by Meta, supporting up to 405B parameters, applicable in complex dialogues, multilingual translation, and data analysis."
|
|
2050
2056
|
},
|
|
@@ -2642,6 +2648,12 @@
|
|
|
2642
2648
|
"qvq-plus": {
|
|
2643
2649
|
"description": "A visual reasoning model supporting visual inputs and chain-of-thought outputs. The plus version, succeeding the qvq-max model, offers faster reasoning speed and a more balanced trade-off between performance and cost."
|
|
2644
2650
|
},
|
|
2651
|
+
"qwen-3-32b": {
|
|
2652
|
+
"description": "Qwen 3 32B: A strong performer in multilingual and coding tasks, suitable for medium-scale production use."
|
|
2653
|
+
},
|
|
2654
|
+
"qwen-3-coder-480b": {
|
|
2655
|
+
"description": "Qwen 3 Coder 480B: A long-context model designed for code generation and complex programming tasks."
|
|
2656
|
+
},
|
|
2645
2657
|
"qwen-coder-plus": {
|
|
2646
2658
|
"description": "Tongyi Qianwen coding model."
|
|
2647
2659
|
},
|
|
@@ -32,6 +32,9 @@
|
|
|
32
32
|
"bfl": {
|
|
33
33
|
"description": "A leading, cutting-edge artificial intelligence research lab building the visual infrastructure of tomorrow."
|
|
34
34
|
},
|
|
35
|
+
"cerebras": {
|
|
36
|
+
"description": "Cerebras is an AI inference platform built on its dedicated CS-3 system, designed to deliver the world's fastest, real-time, high-throughput LLM services. It is specifically engineered to eliminate latency and accelerate complex AI workflows such as real-time code generation and agent-based tasks."
|
|
37
|
+
},
|
|
35
38
|
"cloudflare": {
|
|
36
39
|
"description": "Run serverless GPU-powered machine learning models on Cloudflare's global network."
|
|
37
40
|
},
|
|
@@ -1532,6 +1532,9 @@
|
|
|
1532
1532
|
"glm-zero-preview": {
|
|
1533
1533
|
"description": "GLM-Zero-Preview posee una poderosa capacidad de razonamiento complejo, destacándose en áreas como razonamiento lógico, matemáticas y programación."
|
|
1534
1534
|
},
|
|
1535
|
+
"glm4.6:355b": {
|
|
1536
|
+
"description": "El modelo insignia más reciente de Zhipu, GLM-4.6 (355B), supera ampliamente a su predecesor en codificación avanzada, procesamiento de textos largos, razonamiento y capacidades de agentes inteligentes. En particular, su habilidad para programar está a la par con Claude Sonnet 4, consolidándose como el modelo de codificación líder en China."
|
|
1537
|
+
},
|
|
1535
1538
|
"google/gemini-2.0-flash": {
|
|
1536
1539
|
"description": "Gemini 2.0 Flash ofrece funcionalidades de próxima generación y mejoras, incluyendo velocidad sobresaliente, uso integrado de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens."
|
|
1537
1540
|
},
|
|
@@ -1757,9 +1760,6 @@
|
|
|
1757
1760
|
"gpt-realtime": {
|
|
1758
1761
|
"description": "Modelo universal en tiempo real que soporta entrada y salida de texto y audio, además de entrada de imágenes."
|
|
1759
1762
|
},
|
|
1760
|
-
"grok-2-1212": {
|
|
1761
|
-
"description": "Este modelo ha mejorado en precisión, cumplimiento de instrucciones y capacidades multilingües."
|
|
1762
|
-
},
|
|
1763
1763
|
"grok-2-image-1212": {
|
|
1764
1764
|
"description": "Nuestro último modelo de generación de imágenes puede crear imágenes vívidas y realistas a partir de indicaciones textuales. Destaca en generación de imágenes para marketing, redes sociales y entretenimiento."
|
|
1765
1765
|
},
|
|
@@ -1769,15 +1769,9 @@
|
|
|
1769
1769
|
"grok-3": {
|
|
1770
1770
|
"description": "Modelo insignia, experto en extracción de datos, programación y resumen de texto para aplicaciones empresariales, con profundo conocimiento en finanzas, medicina, derecho y ciencias."
|
|
1771
1771
|
},
|
|
1772
|
-
"grok-3-fast": {
|
|
1773
|
-
"description": "Modelo insignia, experto en extracción de datos, programación y resumen de texto para aplicaciones empresariales, con profundo conocimiento en finanzas, medicina, derecho y ciencias."
|
|
1774
|
-
},
|
|
1775
1772
|
"grok-3-mini": {
|
|
1776
1773
|
"description": "Modelo ligero que piensa antes de responder. Rápido e inteligente, adecuado para tareas lógicas que no requieren conocimientos profundos de dominio y capaz de proporcionar la trayectoria original del pensamiento."
|
|
1777
1774
|
},
|
|
1778
|
-
"grok-3-mini-fast": {
|
|
1779
|
-
"description": "Modelo ligero que piensa antes de responder. Rápido e inteligente, adecuado para tareas lógicas que no requieren conocimientos profundos de dominio y capaz de proporcionar la trayectoria original del pensamiento."
|
|
1780
|
-
},
|
|
1781
1775
|
"grok-4": {
|
|
1782
1776
|
"description": "Nuestro modelo insignia más reciente y potente, que destaca en procesamiento de lenguaje natural, cálculo matemático y razonamiento — un competidor versátil y perfecto."
|
|
1783
1777
|
},
|
|
@@ -1860,7 +1854,7 @@
|
|
|
1860
1854
|
"description": "La última versión del modelo de pensamiento profundo multimodal t1-vision de Hunyuan, que soporta cadenas de pensamiento nativas multimodales, con mejoras integrales respecto a la versión predeterminada anterior."
|
|
1861
1855
|
},
|
|
1862
1856
|
"hunyuan-t1-vision-20250916": {
|
|
1863
|
-
"description": "
|
|
1857
|
+
"description": "La última versión del modelo de pensamiento visual profundo Hunyuan t1-vision ofrece mejoras integrales respecto a su versión anterior en tareas como preguntas y respuestas generales sobre imágenes, localización visual, OCR, interpretación de gráficos, resolución de problemas a partir de fotos y creación visual. También se ha optimizado notablemente su rendimiento en inglés y lenguas minoritarias."
|
|
1864
1858
|
},
|
|
1865
1859
|
"hunyuan-turbo": {
|
|
1866
1860
|
"description": "Versión preliminar de la nueva generación del modelo de lenguaje de Hunyuan, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), con una eficiencia de inferencia más rápida y un rendimiento más fuerte en comparación con Hunyuan-Pro."
|
|
@@ -2021,6 +2015,9 @@
|
|
|
2021
2015
|
"llama-3.2-vision-instruct": {
|
|
2022
2016
|
"description": "El modelo Llama 3.2-Vision con ajuste fino de instrucciones está optimizado para reconocimiento visual, razonamiento sobre imágenes, descripción de imágenes y respuesta a preguntas generales relacionadas con imágenes."
|
|
2023
2017
|
},
|
|
2018
|
+
"llama-3.3-70b": {
|
|
2019
|
+
"description": "Llama 3.3 70B: un modelo Llama de tamaño medio-grande que equilibra capacidad de razonamiento y rendimiento."
|
|
2020
|
+
},
|
|
2024
2021
|
"llama-3.3-70b-instruct": {
|
|
2025
2022
|
"description": "Llama 3.3 es el modelo de lenguaje de código abierto multilingüe más avanzado de la serie Llama, que ofrece un rendimiento comparable al modelo de 405B a un costo extremadamente bajo. Basado en la estructura Transformer, y mejorado en utilidad y seguridad a través de ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF). Su versión ajustada para instrucciones está optimizada para diálogos multilingües, superando a muchos modelos de chat de código abierto y cerrado en múltiples benchmarks de la industria. La fecha límite de conocimiento es diciembre de 2023."
|
|
2026
2023
|
},
|
|
@@ -2030,6 +2027,12 @@
|
|
|
2030
2027
|
"llama-3.3-instruct": {
|
|
2031
2028
|
"description": "El modelo de instrucción Llama 3.3, optimizado para escenarios de diálogo, supera a muchos modelos de chat de código abierto existentes en pruebas de referencia comunes de la industria."
|
|
2032
2029
|
},
|
|
2030
|
+
"llama-4-maverick-17b-128e-instruct": {
|
|
2031
|
+
"description": "Llama 4 Maverick: un modelo de alto rendimiento de la serie Llama, ideal para razonamiento avanzado, resolución de problemas complejos y tareas de seguimiento de instrucciones."
|
|
2032
|
+
},
|
|
2033
|
+
"llama-4-scout-17b-16e-instruct": {
|
|
2034
|
+
"description": "Llama 4 Scout: un modelo de alto rendimiento de la serie Llama, diseñado para escenarios que requieren alto rendimiento y baja latencia."
|
|
2035
|
+
},
|
|
2033
2036
|
"llama3-70b-8192": {
|
|
2034
2037
|
"description": "Meta Llama 3 70B proporciona una capacidad de procesamiento de complejidad inigualable, diseñado a medida para proyectos de alta demanda."
|
|
2035
2038
|
},
|
|
@@ -2045,6 +2048,9 @@
|
|
|
2045
2048
|
"llama3.1": {
|
|
2046
2049
|
"description": "Llama 3.1 es el modelo líder lanzado por Meta, que admite hasta 405B de parámetros, aplicable en diálogos complejos, traducción multilingüe y análisis de datos."
|
|
2047
2050
|
},
|
|
2051
|
+
"llama3.1-8b": {
|
|
2052
|
+
"description": "Llama 3.1 8B: una variante ligera y de baja latencia de Llama, adecuada para inferencia en línea y escenarios interactivos de bajo consumo."
|
|
2053
|
+
},
|
|
2048
2054
|
"llama3.1:405b": {
|
|
2049
2055
|
"description": "Llama 3.1 es el modelo líder lanzado por Meta, que admite hasta 405B de parámetros, aplicable en diálogos complejos, traducción multilingüe y análisis de datos."
|
|
2050
2056
|
},
|
|
@@ -2642,6 +2648,12 @@
|
|
|
2642
2648
|
"qvq-plus": {
|
|
2643
2649
|
"description": "Modelo de razonamiento visual. Soporta entrada visual y salida en cadena de pensamiento. Versión plus lanzada tras el modelo qvq-max, con mayor velocidad de razonamiento y un equilibrio mejorado entre eficacia y coste en comparación con qvq-max."
|
|
2644
2650
|
},
|
|
2651
|
+
"qwen-3-32b": {
|
|
2652
|
+
"description": "Qwen 3 32B: el modelo de la serie Qwen ofrece un excelente rendimiento en tareas multilingües y de codificación, ideal para aplicaciones de producción a escala media."
|
|
2653
|
+
},
|
|
2654
|
+
"qwen-3-coder-480b": {
|
|
2655
|
+
"description": "Qwen 3 Coder 480B: un modelo de contexto largo diseñado para generación de código y tareas complejas de programación."
|
|
2656
|
+
},
|
|
2645
2657
|
"qwen-coder-plus": {
|
|
2646
2658
|
"description": "Modelo de código Tongyi Qianwen."
|
|
2647
2659
|
},
|
|
@@ -32,6 +32,9 @@
|
|
|
32
32
|
"bfl": {
|
|
33
33
|
"description": "Laboratorio líder en investigación de inteligencia artificial de vanguardia, construyendo la infraestructura visual del mañana."
|
|
34
34
|
},
|
|
35
|
+
"cerebras": {
|
|
36
|
+
"description": "Cerebras es una plataforma de inferencia de IA basada en su sistema especializado CS-3, diseñada para ofrecer el servicio de LLM más rápido del mundo, con respuesta en tiempo real y alto rendimiento. Está especialmente concebida para eliminar la latencia y acelerar flujos de trabajo complejos de IA, como la generación de código en tiempo real y tareas de agentes."
|
|
37
|
+
},
|
|
35
38
|
"cloudflare": {
|
|
36
39
|
"description": "Ejecuta modelos de aprendizaje automático impulsados por GPU sin servidor en la red global de Cloudflare."
|
|
37
40
|
},
|