@lobehub/chat 1.120.6 → 1.120.7

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (57) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/chat.json +2 -1
  4. package/locales/ar/models.json +0 -9
  5. package/locales/ar/providers.json +3 -0
  6. package/locales/bg-BG/chat.json +2 -1
  7. package/locales/bg-BG/models.json +0 -9
  8. package/locales/bg-BG/providers.json +3 -0
  9. package/locales/de-DE/chat.json +2 -1
  10. package/locales/de-DE/models.json +0 -9
  11. package/locales/de-DE/providers.json +3 -0
  12. package/locales/en-US/chat.json +2 -1
  13. package/locales/en-US/models.json +0 -9
  14. package/locales/en-US/providers.json +3 -0
  15. package/locales/es-ES/chat.json +2 -1
  16. package/locales/es-ES/models.json +0 -9
  17. package/locales/es-ES/providers.json +3 -0
  18. package/locales/fa-IR/chat.json +2 -1
  19. package/locales/fa-IR/models.json +0 -9
  20. package/locales/fa-IR/providers.json +3 -0
  21. package/locales/fr-FR/chat.json +2 -1
  22. package/locales/fr-FR/models.json +0 -9
  23. package/locales/fr-FR/providers.json +3 -0
  24. package/locales/it-IT/chat.json +2 -1
  25. package/locales/it-IT/models.json +0 -9
  26. package/locales/it-IT/providers.json +3 -0
  27. package/locales/ja-JP/chat.json +2 -1
  28. package/locales/ja-JP/models.json +0 -9
  29. package/locales/ja-JP/providers.json +3 -0
  30. package/locales/ko-KR/chat.json +2 -1
  31. package/locales/ko-KR/models.json +0 -9
  32. package/locales/ko-KR/providers.json +3 -0
  33. package/locales/nl-NL/chat.json +2 -1
  34. package/locales/nl-NL/models.json +0 -9
  35. package/locales/nl-NL/providers.json +3 -0
  36. package/locales/pl-PL/chat.json +2 -1
  37. package/locales/pl-PL/models.json +0 -9
  38. package/locales/pl-PL/providers.json +3 -0
  39. package/locales/pt-BR/chat.json +2 -1
  40. package/locales/pt-BR/models.json +0 -9
  41. package/locales/pt-BR/providers.json +3 -0
  42. package/locales/ru-RU/chat.json +2 -1
  43. package/locales/ru-RU/models.json +0 -9
  44. package/locales/ru-RU/providers.json +3 -0
  45. package/locales/tr-TR/chat.json +2 -1
  46. package/locales/tr-TR/models.json +0 -9
  47. package/locales/tr-TR/providers.json +3 -0
  48. package/locales/vi-VN/chat.json +2 -1
  49. package/locales/vi-VN/models.json +0 -9
  50. package/locales/vi-VN/providers.json +3 -0
  51. package/locales/zh-CN/chat.json +2 -1
  52. package/locales/zh-CN/models.json +0 -9
  53. package/locales/zh-CN/providers.json +3 -0
  54. package/locales/zh-TW/chat.json +2 -1
  55. package/locales/zh-TW/models.json +0 -9
  56. package/locales/zh-TW/providers.json +3 -0
  57. package/package.json +1 -1
package/CHANGELOG.md CHANGED
@@ -2,6 +2,31 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.120.7](https://github.com/lobehub/lobe-chat/compare/v1.120.6...v1.120.7)
6
+
7
+ <sup>Released on **2025-09-02**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Update i18n.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Update i18n, closes [#9033](https://github.com/lobehub/lobe-chat/issues/9033) ([650e552](https://github.com/lobehub/lobe-chat/commit/650e552))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
5
30
  ### [Version 1.120.6](https://github.com/lobehub/lobe-chat/compare/v1.120.5...v1.120.6)
6
31
 
7
32
  <sup>Released on **2025-09-01**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Update i18n."
6
+ ]
7
+ },
8
+ "date": "2025-09-02",
9
+ "version": "1.120.7"
10
+ },
2
11
  {
3
12
  "children": {
4
13
  "improvements": [
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "رفع ملف",
275
275
  "actionTooltip": "رفع",
276
- "disabled": "النموذج الحالي لا يدعم التعرف على الصور وتحليل الملفات، يرجى تغيير النموذج لاستخدامه"
276
+ "disabled": "النموذج الحالي لا يدعم التعرف على الصور وتحليل الملفات، يرجى تغيير النموذج لاستخدامه",
277
+ "visionNotSupported": "النموذج الحالي لا يدعم التعرف البصري، يرجى تبديل النموذج لاستخدام هذه الميزة"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "تحضير الأجزاء...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "الإصدار المفتوح من الجيل الأحدث من نموذج GLM-4 الذي أطلقته Zhizhu AI."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 هو نموذج لغوي يحتوي على 9 مليار معلمة من سلسلة GLM-4 التي تم تطويرها بواسطة THUDM. يستخدم GLM-4-9B-0414 نفس استراتيجيات تعزيز التعلم والتوافق المستخدمة في النموذج المقابل الأكبر 32B، مما يحقق أداءً عاليًا بالنسبة لحجمه، مما يجعله مناسبًا للنشر في البيئات المحدودة الموارد التي لا تزال تتطلب قدرات قوية في فهم اللغة وتوليدها."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414 هو نسخة محسنة من GLM-4-32B، مصممة لحل المشكلات المعقدة في الرياضيات العميقة، المنطق، والشيفرات. يستخدم التعلم المعزز الموسع (المخصص للمهام والمبني على تفضيلات عامة) لتحسين الأداء في المهام المعقدة متعددة الخطوات. مقارنةً بنموذج GLM-4-32B الأساسي، زادت Z1 بشكل ملحوظ من قدرات الاستدلال الهيكلي والمجالات الرسمية.\n\nيدعم هذا النموذج تنفيذ خطوات \"التفكير\" من خلال هندسة التلميحات، ويقدم اتساقًا محسنًا للإخراج الطويل. تم تحسينه لعمليات سير العمل الخاصة بالوكيل، ويدعم السياقات الطويلة (عبر YaRN)، واستدعاءات أدوات JSON، وتكوينات أخذ العينات الدقيقة للاستدلال المستقر. مثالي للحالات التي تتطلب تفكيرًا عميقًا، استدلالًا متعدد الخطوات، أو استنتاجات رسمية."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414 هو نسخة محسنة من GLM-4-32B، مصممة لحل المشكلات المعقدة في الرياضيات العميقة، المنطق، والشيفرات. يستخدم التعلم المعزز الموسع (المخصص للمهام والمبني على تفضيلات عامة) لتحسين الأداء في المهام المعقدة متعددة الخطوات. مقارنةً بنموذج GLM-4-32B الأساسي، زادت Z1 بشكل ملحوظ من قدرات الاستدلال الهيكلي والمجالات الرسمية.\n\nيدعم هذا النموذج تنفيذ خطوات \"التفكير\" من خلال هندسة التلميحات، ويقدم اتساقًا محسنًا للإخراج الطويل. تم تحسينه لعمليات سير العمل الخاصة بالوكيل، ويدعم السياقات الطويلة (عبر YaRN)، واستدعاءات أدوات JSON، وتكوينات أخذ العينات الدقيقة للاستدلال المستقر. مثالي للحالات التي تتطلب تفكيرًا عميقًا، استدلالًا متعدد الخطوات، أو استنتاجات رسمية."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 هو نموذج لغوي يحتوي على 9 مليار معلمة من سلسلة GLM-4 التي تم تطويرها بواسطة THUDM. يستخدم تقنيات تم تطبيقها في الأصل على نموذج GLM-Z1 الأكبر، بما في ذلك تعزيز التعلم الموسع، والتوافق القائم على الترتيب الثنائي، والتدريب على المهام التي تتطلب استدلالًا مكثفًا مثل الرياضيات، والترميز، والمنطق. على الرغم من حجمه الأصغر، إلا أنه يظهر أداءً قويًا في المهام العامة للاستدلال، ويتفوق على العديد من النماذج مفتوحة المصدر في مستوى وزنه."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32B هو نموذج استدلال عميق يحتوي على 32 مليار معلمة من سلسلة GLM-4-Z1، تم تحسينه للمهام المعقدة والمفتوحة التي تتطلب تفكيرًا طويل الأمد. يعتمد على glm-4-32b-0414، ويضيف مراحل تعزيز التعلم الإضافية واستراتيجيات التوافق متعددة المراحل، ويقدم قدرة \"التفكير\" المصممة لمحاكاة معالجة الإدراك الموسع. يشمل ذلك الاستدلال التكراري، والتحليل متعدد القفزات، وسير العمل المعزز بالأدوات مثل البحث، والاسترجاع، والتوليف المدرك للاقتباسات.\n\nيظهر هذا النموذج أداءً ممتازًا في الكتابة البحثية، والتحليل المقارن، والأسئلة المعقدة. يدعم استدعاء الوظائف المستخدمة في البحث والتنقل (مثل `search`، `click`، `open`، `finish`)، مما يسمح باستخدامه في أنابيب الوكلاء. يتم تشكيل سلوك التفكير من خلال مكافآت قائمة على القواعد وآلية اتخاذ القرار المتأخرة، ويتم قياسه باستخدام أطر بحث عميقة مثل كومة التوافق الداخلية لـ OpenAI. هذا المتغير مناسب للسيناريوهات التي تتطلب عمقًا بدلاً من السرعة."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot هي منصة مفتوحة أطلقتها شركة Beijing Dark Side Technology Co.، Ltd، تقدم مجموعة متنوعة من نماذج معالجة اللغة الطبيعية، وتغطي مجالات واسعة، بما في ذلك ولكن لا تقتصر على إنشاء المحتوى، والبحث الأكاديمي، والتوصيات الذكية، والتشخيص الطبي، وتدعم معالجة النصوص الطويلة والمهام المعقدة."
94
94
  },
95
+ "nebius": {
96
+ "description": "نيبيوس توفر بنية تحتية عالية الأداء للمبتكرين في مجال الذكاء الاصطناعي حول العالم من خلال بناء مجموعات ضخمة من وحدات معالجة الرسومات ومنصة سحابية متكاملة رأسياً."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI هي منصة تقدم خدمات API لمجموعة متنوعة من نماذج اللغة الكبيرة وتوليد الصور بالذكاء الاصطناعي، مرنة وموثوقة وفعالة من حيث التكلفة. تدعم أحدث النماذج مفتوحة المصدر مثل Llama3 وMistral، وتوفر حلول API شاملة وسهلة الاستخدام وقابلة للتوسع تلقائيًا لتطوير تطبيقات الذكاء الاصطناعي، مما يجعلها مناسبة لنمو الشركات الناشئة في مجال الذكاء الاصطناعي."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Качване на файл",
275
275
  "actionTooltip": "Качване",
276
- "disabled": "Текущият модел не поддържа визуално разпознаване и анализ на файлове, моля, превключете модела и опитайте отново"
276
+ "disabled": "Текущият модел не поддържа визуално разпознаване и анализ на файлове, моля, превключете модела и опитайте отново",
277
+ "visionNotSupported": "Текущият модел не поддържа визуално разпознаване, моля, превключете на друг модел, за да използвате тази функция"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Подготовка на парчета...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "GLM-4 е последната версия на предварително обучен модел от серията, публикувана от Zhizhu AI."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 е езиков модел с 9 милиарда параметри от серията GLM-4, разработен от THUDM. GLM-4-9B-0414 използва същите стратегии за усилено обучение и подравняване, които се прилагат за по-голямата му 32B версия, за да постигне висока производителност в съотношение с размера си, което го прави подходящ за внедряване с ограничени ресурси, което все пак изисква силни способности за разбиране и генериране на език."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414 е подобрена версия на GLM-4-32B, проектирана за дълбока математика, логика и решаване на проблеми, свързани с код. Той прилага разширено обучение с подсилване (за специфични задачи и на базата на общи предпочитания) за подобряване на производителността при сложни многостепенни задачи. В сравнение с основния модел GLM-4-32B, Z1 значително подобрява способностите в структурираното разсъждение и формалните области.\n\nМоделът поддържа прилагане на стъпки за \"мислене\" чрез инженеринг на подсказки и предлага подобрена последователност за дълги формати на изхода. Той е оптимизиран за работни потоци на агенти и поддържа дълъг контекст (чрез YaRN), извиквания на JSON инструменти и конфигурации за фино проби за стабилно разсъждение. Идеален е за случаи, изискващи дълбочинно разсъждение, многостепенни разсъждения или формализирани изводи."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414 е подобрена версия на GLM-4-32B, проектирана за дълбока математика, логика и решаване на проблеми, свързани с код. Той прилага разширено обучение с подсилване (за специфични задачи и на базата на общи предпочитания) за подобряване на производителността при сложни многостепенни задачи. В сравнение с основния модел GLM-4-32B, Z1 значително подобрява способностите в структурираното разсъждение и формалните области.\n\nМоделът поддържа прилагане на стъпки за \"мислене\" чрез инженеринг на подсказки и предлага подобрена последователност за дълги формати на изхода. Той е оптимизиран за работни потоци на агенти и поддържа дълъг контекст (чрез YaRN), извиквания на JSON инструменти и конфигурации за фино проби за стабилно разсъждение. Идеален е за случаи, изискващи дълбочинно разсъждение, многостепенни разсъждения или формализирани изводи."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 е езиков модел с 9B параметри от серията GLM-4, разработен от THUDM. Той прилага технологии, първоначално използвани в по-големия GLM-Z1 модел, включително разширено усилено обучение, подравняване на двойки и обучение за интензивни разсъждения в области като математика, кодиране и логика. Въпреки по-малкия си размер, той показва силна производителност в общите задачи за разсъждение и надминава много от отворените модели на нивото на теглата."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32B е дълбок разсъдъчен модел с 32B параметри от серията GLM-4-Z1, оптимизиран за сложни, отворени задачи, изискващи дълго разсъждение. Той е построен на основата на glm-4-32b-0414, с добавени допълнителни етапи на усилено обучение и многостепенни стратегии за подравняване, въвеждайки \"разсъждателни\" способности, предназначени да симулират разширена когнитивна обработка. Това включва итеративно разсъждение, многократен анализ и работни потоци, подобрени с инструменти, като търсене, извличане и синтез с осведоменост за цитати.\n\nМоделът показва отлични резултати в изследователското писане, сравнителния анализ и сложните въпроси и отговори. Той поддържа извиквания на функции за търсене и навигация (\"search\", \"click\", \"open\", \"finish\"), което позволява използването му в агенти. Разсъждателното поведение се контролира от многократни цикли с базирани на правила награди и механизми за забавено вземане на решения, с референтни рамки за дълбоки изследвания, като вътрешния стек за подравняване на OpenAI. Този вариант е подходящ за сценарии, изискващи дълбочина, а не скорост."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot е отворена платформа, представена от Beijing Dark Side Technology Co., Ltd., предлагаща множество модели за обработка на естествен език, с широко приложение, включително, но не само, създаване на съдържание, академични изследвания, интелигентни препоръки, медицинска диагностика и др., поддържаща обработка на дълги текстове и сложни генериращи задачи."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius предоставя високопроизводителна инфраструктура за глобалните иноватори в областта на изкуствения интелект чрез изграждане на мащабни GPU клъстери и вертикално интегрирана облачна платформа."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI е платформа, предлагаща API услуги за множество големи езикови модели и генериране на AI изображения, гъвкава, надеждна и икономически ефективна. Поддържа най-новите отворени модели, като Llama3 и Mistral, и предлага цялостни, потребителски приятелски и автоматично разширяеми API решения за разработка на генеративни AI приложения, подходящи за бързото развитие на AI стартъпи."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Datei hochladen",
275
275
  "actionTooltip": "Hochladen",
276
- "disabled": "Das aktuelle Modell unterstützt keine visuelle Erkennung und Dateianalyse. Bitte wechseln Sie das Modell, um diese Funktionen zu nutzen."
276
+ "disabled": "Das aktuelle Modell unterstützt keine visuelle Erkennung und Dateianalyse. Bitte wechseln Sie das Modell, um diese Funktionen zu nutzen.",
277
+ "visionNotSupported": "Das aktuelle Modell unterstützt keine visuelle Erkennung. Bitte wechseln Sie das Modell, um diese Funktion zu nutzen."
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Vorbereitung der Teile...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "Die Open-Source-Version des neuesten vortrainierten Modells der GLM-4-Serie, das von Zhizhu AI veröffentlicht wurde."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 ist ein Sprachmodell mit 9 Milliarden Parametern aus der GLM-4-Serie, das von THUDM entwickelt wurde. GLM-4-9B-0414 verwendet die gleichen Verstärkungs- und Ausrichtungsstrategien wie das größere 32B-Modell und erzielt in Bezug auf seine Größe hohe Leistungen, was es für ressourcenbeschränkte Bereitstellungen geeignet macht, die dennoch starke Sprachverständnis- und Generierungsfähigkeiten erfordern."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414 ist eine verbesserte Denkvariante von GLM-4-32B, die für tiefgehende Mathematik, Logik und codeorientierte Problemlösungen entwickelt wurde. Es verwendet erweiterte Verstärkungslernen (aufgabenspezifisch und basierend auf allgemeinen Paarpräferenzen), um die Leistung bei komplexen mehrstufigen Aufgaben zu verbessern. Im Vergleich zum Basis-GLM-4-32B-Modell hat Z1 die Fähigkeiten im strukturierten Denken und im formalen Bereich erheblich verbessert.\n\nDieses Modell unterstützt die Durchsetzung von \"Denk\"-Schritten durch Prompt-Engineering und bietet verbesserte Kohärenz für Ausgaben im Langformat. Es ist für Agenten-Workflows optimiert und unterstützt langen Kontext (über YaRN), JSON-Toolaufrufe und feinkörnige Sampling-Konfigurationen für stabiles Denken. Besonders geeignet für Anwendungsfälle, die durchdachtes, mehrstufiges Denken oder formale Ableitungen erfordern."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414 ist eine verbesserte Denkvariante von GLM-4-32B, die für tiefgehende Mathematik, Logik und codeorientierte Problemlösungen entwickelt wurde. Es verwendet erweiterte Verstärkungslernen (aufgabenspezifisch und basierend auf allgemeinen Paarpräferenzen), um die Leistung bei komplexen mehrstufigen Aufgaben zu verbessern. Im Vergleich zum Basis-GLM-4-32B-Modell hat Z1 die Fähigkeiten im strukturierten Denken und im formalen Bereich erheblich verbessert.\n\nDieses Modell unterstützt die Durchsetzung von \"Denk\"-Schritten durch Prompt-Engineering und bietet verbesserte Kohärenz für Ausgaben im Langformat. Es ist für Agenten-Workflows optimiert und unterstützt langen Kontext (über YaRN), JSON-Toolaufrufe und feinkörnige Sampling-Konfigurationen für stabiles Denken. Besonders geeignet für Anwendungsfälle, die durchdachtes, mehrstufiges Denken oder formale Ableitungen erfordern."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 ist ein Sprachmodell mit 9B Parametern aus der GLM-4-Serie, das von THUDM entwickelt wurde. Es verwendet Techniken, die ursprünglich auf das größere GLM-Z1-Modell angewendet wurden, einschließlich erweiterten verstärkten Lernens, paarweiser Rangordnungsausrichtung und Training für inferenzintensive Aufgaben wie Mathematik, Programmierung und Logik. Trotz seiner kleineren Größe zeigt es starke Leistungen bei allgemeinen Inferenzaufgaben und übertrifft viele Open-Source-Modelle in Bezug auf seine Gewichtung."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32B ist ein tiefes Inferenzmodell mit 32B Parametern aus der GLM-4-Z1-Serie, das für komplexe, offene Aufgaben optimiert wurde, die langes Nachdenken erfordern. Es basiert auf glm-4-32b-0414 und hat zusätzliche Phasen des verstärkten Lernens und mehrstufige Ausrichtungsstrategien hinzugefügt, die die \"Reflexions\"-Fähigkeit einführen, die darauf abzielt, erweiterte kognitive Prozesse zu simulieren. Dazu gehören iterative Inferenz, mehrstufige Analysen und werkzeuggestützte Arbeitsabläufe wie Suche, Abruf und zitationsbewusste Synthese.\n\nDieses Modell zeigt hervorragende Leistungen in forschungsorientiertem Schreiben, vergleichender Analyse und komplexen Fragen und Antworten. Es unterstützt Funktionsaufrufe für Such- und Navigationsprimitiven (`search`, `click`, `open`, `finish`), sodass es in agentenbasierten Pipelines verwendet werden kann. Reflexionsverhalten wird durch ein mehrstufiges Regelbelohnungssystem und verzögerte Entscheidungsmechanismen geformt und wird an tiefen Forschungsrahmen wie dem internen Ausrichtungsstapel von OpenAI gemessen. Diese Variante eignet sich für Szenarien, die Tiefe statt Geschwindigkeit erfordern."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot ist eine Open-Source-Plattform, die von Beijing Dark Side Technology Co., Ltd. eingeführt wurde und eine Vielzahl von Modellen zur Verarbeitung natürlicher Sprache anbietet, die in vielen Bereichen Anwendung finden, darunter, aber nicht beschränkt auf, Inhaltserstellung, akademische Forschung, intelligente Empfehlungen und medizinische Diagnosen, und unterstützt die Verarbeitung langer Texte und komplexer Generierungsaufgaben."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius bietet globalen KI-Innovatoren durch den Aufbau großflächiger GPU-Cluster und einer vertikal integrierten Cloud-Plattform leistungsstarke Infrastruktur."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI ist eine Plattform, die eine Vielzahl von großen Sprachmodellen und API-Diensten für die KI-Bilderzeugung anbietet, die flexibel, zuverlässig und kosteneffektiv ist. Sie unterstützt die neuesten Open-Source-Modelle wie Llama3 und Mistral und bietet umfassende, benutzerfreundliche und automatisch skalierbare API-Lösungen für die Entwicklung generativer KI-Anwendungen, die für das schnelle Wachstum von KI-Startups geeignet sind."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Upload File",
275
275
  "actionTooltip": "Upload",
276
- "disabled": "The current model does not support visual recognition and file analysis. Please switch models to use this feature."
276
+ "disabled": "The current model does not support visual recognition and file analysis. Please switch models to use this feature.",
277
+ "visionNotSupported": "The current model does not support visual recognition. Please switch to a different model to use this feature."
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Preparing chunks...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "The open-source version of the latest generation pre-trained model from the GLM-4 series released by Zhiyuan AI."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 is a 9 billion parameter language model in the GLM-4 series developed by THUDM. GLM-4-9B-0414 is trained using the same reinforcement learning and alignment strategies as its larger 32B counterpart, achieving high performance relative to its scale, making it suitable for resource-constrained deployments that still require strong language understanding and generation capabilities."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414 is an enhanced reasoning variant of GLM-4-32B, built for deep mathematics, logic, and code-oriented problem solving. It applies extended reinforcement learning (task-specific and based on general pairwise preferences) to improve performance on complex multi-step tasks. Compared to the base GLM-4-32B model, Z1 significantly enhances capabilities in structured reasoning and formal domains.\n\nThis model supports enforcing 'thinking' steps through prompt engineering and provides improved coherence for long-format outputs. It is optimized for agent workflows and supports long context (via YaRN), JSON tool calls, and fine-grained sampling configurations for stable reasoning. It is ideal for use cases requiring thoughtful, multi-step reasoning or formal derivation."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414 is an enhanced reasoning variant of GLM-4-32B, built for deep mathematics, logic, and code-oriented problem solving. It applies extended reinforcement learning (task-specific and based on general pairwise preferences) to improve performance on complex multi-step tasks. Compared to the base GLM-4-32B model, Z1 significantly enhances capabilities in structured reasoning and formal domains.\n\nThis model supports enforcing 'thinking' steps through prompt engineering and provides improved coherence for long-format outputs. It is optimized for agent workflows and supports long context (via YaRN), JSON tool calls, and fine-grained sampling configurations for stable reasoning. It is ideal for use cases requiring thoughtful, multi-step reasoning or formal derivation."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 is a 9 billion parameter language model in the GLM-4 series developed by THUDM. It employs techniques initially applied to the larger GLM-Z1 model, including extended reinforcement learning, pairwise ranking alignment, and training for reasoning-intensive tasks such as mathematics, coding, and logic. Despite its smaller scale, it demonstrates strong performance on general reasoning tasks and outperforms many open-source models at its weight level."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32B is a deep reasoning model with 32 billion parameters in the GLM-4-Z1 series, optimized for complex, open-ended tasks that require prolonged thought. It builds upon glm-4-32b-0414, adding additional reinforcement learning stages and multi-stage alignment strategies, introducing a 'rumination' capability designed to simulate extended cognitive processing. This includes iterative reasoning, multi-hop analysis, and tool-enhanced workflows such as search, retrieval, and citation-aware synthesis.\n\nThe model excels in research-style writing, comparative analysis, and complex question answering. It supports function calls for search and navigation primitives (`search`, `click`, `open`, `finish`), allowing it to be used in agent-based pipelines. The rumination behavior is shaped by rule-based rewards and a delayed decision-making mechanism, controlled by multi-round cycles, benchmarked against deep research frameworks like OpenAI's internal alignment stack. This variant is suitable for scenarios requiring depth over speed."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot is an open-source platform launched by Beijing Dark Side Technology Co., Ltd., providing various natural language processing models with a wide range of applications, including but not limited to content creation, academic research, intelligent recommendations, and medical diagnosis, supporting long text processing and complex generation tasks."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius provides high-performance infrastructure for global AI innovators by building large-scale GPU clusters and vertically integrated cloud platforms."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI is a platform providing a variety of large language models and AI image generation API services, flexible, reliable, and cost-effective. It supports the latest open-source models like Llama3 and Mistral, offering a comprehensive, user-friendly, and auto-scaling API solution for generative AI application development, suitable for the rapid growth of AI startups."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Subir archivo",
275
275
  "actionTooltip": "Subir",
276
- "disabled": "El modelo actual no soporta reconocimiento visual ni análisis de archivos, por favor cambie de modelo para usar esta función"
276
+ "disabled": "El modelo actual no soporta reconocimiento visual ni análisis de archivos, por favor cambie de modelo para usar esta función",
277
+ "visionNotSupported": "El modelo actual no admite reconocimiento visual, por favor cambie de modelo para usar esta función"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Preparando fragmentos...",
@@ -2691,18 +2691,9 @@
2691
2691
  "thudm/glm-4-9b-chat": {
2692
2692
  "description": "Versión de código abierto de la última generación del modelo preentrenado GLM-4 lanzado por Zhizhu AI."
2693
2693
  },
2694
- "thudm/glm-4-9b:free": {
2695
- "description": "GLM-4-9B-0414 es un modelo de lenguaje de 9B parámetros en la serie GLM-4 desarrollado por THUDM. GLM-4-9B-0414 utiliza las mismas estrategias de aprendizaje por refuerzo y alineación que su modelo correspondiente de 32B, logrando un alto rendimiento en relación con su tamaño, lo que lo hace adecuado para implementaciones con recursos limitados que aún requieren una fuerte capacidad de comprensión y generación de lenguaje."
2696
- },
2697
2694
  "thudm/glm-z1-32b": {
2698
2695
  "description": "GLM-Z1-32B-0414 es una variante de razonamiento mejorada de GLM-4-32B, construida para resolver problemas de matemáticas profundas, lógica y orientados al código. Aplica aprendizaje por refuerzo extendido (específico para tareas y basado en preferencias emparejadas generales) para mejorar el rendimiento en tareas complejas de múltiples pasos. En comparación con el modelo base GLM-4-32B, Z1 mejora significativamente las capacidades de razonamiento estructurado y en dominios formalizados.\n\nEste modelo admite la ejecución forzada de pasos de 'pensamiento' a través de ingeniería de indicaciones y proporciona una coherencia mejorada para salidas de formato largo. Está optimizado para flujos de trabajo de agentes y admite contextos largos (a través de YaRN), llamadas a herramientas JSON y configuraciones de muestreo de alta precisión para razonamiento estable. Es ideal para casos de uso que requieren razonamiento reflexivo, de múltiples pasos o deducción formal."
2699
2696
  },
2700
- "thudm/glm-z1-32b:free": {
2701
- "description": "GLM-Z1-32B-0414 es una variante de razonamiento mejorada de GLM-4-32B, construida para resolver problemas de matemáticas profundas, lógica y orientados al código. Aplica aprendizaje por refuerzo extendido (específico para tareas y basado en preferencias emparejadas generales) para mejorar el rendimiento en tareas complejas de múltiples pasos. En comparación con el modelo base GLM-4-32B, Z1 mejora significativamente las capacidades de razonamiento estructurado y en dominios formalizados.\n\nEste modelo admite la ejecución forzada de pasos de 'pensamiento' a través de ingeniería de indicaciones y proporciona una coherencia mejorada para salidas de formato largo. Está optimizado para flujos de trabajo de agentes y admite contextos largos (a través de YaRN), llamadas a herramientas JSON y configuraciones de muestreo de alta precisión para razonamiento estable. Es ideal para casos de uso que requieren razonamiento reflexivo, de múltiples pasos o deducción formal."
2702
- },
2703
- "thudm/glm-z1-9b:free": {
2704
- "description": "GLM-Z1-9B-0414 es un modelo de lenguaje de 9B parámetros en la serie GLM-4 desarrollado por THUDM. Utiliza técnicas inicialmente aplicadas al modelo GLM-Z1 más grande, incluyendo aprendizaje por refuerzo extendido, alineación de clasificación por pares y entrenamiento para tareas intensivas en razonamiento como matemáticas, código y lógica. A pesar de su menor tamaño, muestra un rendimiento robusto en tareas de razonamiento general y supera a muchos modelos de código abierto en su nivel de pesos."
2705
- },
2706
2697
  "thudm/glm-z1-rumination-32b": {
2707
2698
  "description": "THUDM: GLM Z1 Rumination 32B es un modelo de razonamiento profundo de 32B parámetros en la serie GLM-4-Z1, optimizado para tareas complejas y abiertas que requieren un pensamiento prolongado. Se basa en glm-4-32b-0414, añadiendo una fase adicional de aprendizaje por refuerzo y estrategias de alineación multietapa, introduciendo una capacidad de 'reflexión' diseñada para simular el procesamiento cognitivo extendido. Esto incluye razonamiento iterativo, análisis de múltiples saltos y flujos de trabajo mejorados por herramientas, como búsqueda, recuperación y síntesis consciente de citas.\n\nEste modelo destaca en escritura de investigación, análisis comparativo y preguntas complejas. Soporta llamadas a funciones para primitivos de búsqueda y navegación (`search`, `click`, `open`, `finish`), lo que permite su uso en tuberías de agentes. El comportamiento reflexivo está moldeado por un control cíclico de múltiples rondas con mecanismos de recompensa basados en reglas y decisiones retrasadas, y se basa en marcos de investigación profunda como el stack de alineación interno de OpenAI. Esta variante es adecuada para escenarios que requieren profundidad en lugar de velocidad."
2708
2699
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot es una plataforma de código abierto lanzada por Beijing Dark Side Technology Co., que ofrece una variedad de modelos de procesamiento del lenguaje natural, con aplicaciones en campos amplios, incluyendo pero no limitado a creación de contenido, investigación académica, recomendaciones inteligentes y diagnóstico médico, apoyando el procesamiento de textos largos y tareas de generación complejas."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius proporciona infraestructura de alto rendimiento a innovadores de IA en todo el mundo mediante la construcción de grandes clústeres de GPU y una plataforma en la nube integrada verticalmente."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI es una plataforma que ofrece servicios API para múltiples modelos de lenguaje de gran tamaño y generación de imágenes de IA, siendo flexible, confiable y rentable. Soporta los últimos modelos de código abierto como Llama3 y Mistral, proporcionando soluciones API completas, amigables para el usuario y autoescalables para el desarrollo de aplicaciones de IA, adecuadas para el rápido crecimiento de startups de IA."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "بارگذاری فایل",
275
275
  "actionTooltip": "بارگذاری",
276
- "disabled": "مدل فعلی از تشخیص بصری و تحلیل فایل پشتیبانی نمی‌کند، لطفاً مدل را تغییر دهید و دوباره امتحان کنید"
276
+ "disabled": "مدل فعلی از تشخیص بصری و تحلیل فایل پشتیبانی نمی‌کند، لطفاً مدل را تغییر دهید و دوباره امتحان کنید",
277
+ "visionNotSupported": "مدل فعلی از شناسایی بصری پشتیبانی نمی‌کند، لطفاً مدل را تغییر دهید و دوباره امتحان کنید"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "آماده‌سازی بخش‌ها...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "نسخه متن باز جدیدترین نسل مدل‌های پیش‌آموزش GLM-4 منتشر شده توسط Zhizhu AI."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 یک مدل زبان با ۹۰ میلیارد پارامتر در سری GLM-4 است که توسط THUDM توسعه یافته است. GLM-4-9B-0414 از همان استراتژی‌های تقویت یادگیری و هم‌راستایی که برای مدل بزرگ‌تر ۳۲B خود استفاده می‌شود، استفاده می‌کند و نسبت به اندازه خود عملکرد بالایی را ارائه می‌دهد و برای استقرار در منابع محدود که هنوز به توانایی‌های قوی در درک و تولید زبان نیاز دارند، مناسب است."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414 یک واریانت تقویت‌شده استدلال GLM-4-32B است که به طور خاص برای حل مسائل عمیق ریاضی، منطقی و کد محور طراحی شده است. این مدل از یادگیری تقویتی گسترش‌یافته (وظیفه‌محور و مبتنی بر ترجیحات جفتی عمومی) برای بهبود عملکرد در وظایف پیچیده چند مرحله‌ای استفاده می‌کند. نسبت به مدل پایه GLM-4-32B، Z1 به طور قابل توجهی توانایی‌های استدلال ساختاری و حوزه‌های رسمی را افزایش می‌دهد.\n\nاین مدل از طریق مهندسی نشانه‌گذاری، مراحل «تفکر» را تحمیل می‌کند و برای خروجی‌های طولانی، انسجام بهبودیافته‌ای را فراهم می‌کند. این مدل برای جریان‌های کاری نمایندگی بهینه‌سازی شده و از زمینه‌های طولانی (از طریق YaRN)، فراخوانی ابزار JSON و پیکربندی نمونه‌برداری دقیق برای استدلال پایدار پشتیبانی می‌کند. این مدل برای مواردی که نیاز به تفکر عمیق، استدلال چند مرحله‌ای یا استنتاج رسمی دارند، بسیار مناسب است."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414 یک واریانت تقویت‌شده استدلال GLM-4-32B است که به طور خاص برای حل مسائل عمیق ریاضی، منطقی و کد محور طراحی شده است. این مدل از یادگیری تقویتی گسترش‌یافته (وظیفه‌محور و مبتنی بر ترجیحات جفتی عمومی) برای بهبود عملکرد در وظایف پیچیده چند مرحله‌ای استفاده می‌کند. نسبت به مدل پایه GLM-4-32B، Z1 به طور قابل توجهی توانایی‌های استدلال ساختاری و حوزه‌های رسمی را افزایش می‌دهد.\n\nاین مدل از طریق مهندسی نشانه‌گذاری، مراحل «تفکر» را تحمیل می‌کند و برای خروجی‌های طولانی، انسجام بهبودیافته‌ای را فراهم می‌کند. این مدل برای جریان‌های کاری نمایندگی بهینه‌سازی شده و از زمینه‌های طولانی (از طریق YaRN)، فراخوانی ابزار JSON و پیکربندی نمونه‌برداری دقیق برای استدلال پایدار پشتیبانی می‌کند. این مدل برای مواردی که نیاز به تفکر عمیق، استدلال چند مرحله‌ای یا استنتاج رسمی دارند، بسیار مناسب است."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 یک مدل زبان با ۹B پارامتر در سری GLM-4 است که توسط THUDM توسعه یافته است. این مدل از تکنیک‌هایی که در ابتدا برای مدل بزرگ‌تر GLM-Z1 استفاده شده بود، شامل تقویت یادگیری گسترش‌یافته، هم‌راستایی رتبه‌بندی جفت و آموزش برای وظایف استدلال فشرده مانند ریاضیات، کدنویسی و منطق استفاده می‌کند. با وجود اندازه کوچکتر، این مدل در وظایف استدلال عمومی عملکرد قوی دارد و در سطح وزن خود از بسیاری از مدل‌های متن‌باز برتر است."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32B یک مدل عمیق استدلال با ۳۲B پارامتر در سری GLM-4-Z1 است که برای وظایف پیچیده و باز که نیاز به تفکر طولانی دارند بهینه‌سازی شده است. این مدل بر اساس glm-4-32b-0414 ساخته شده و مراحل تقویت یادگیری اضافی و استراتژی‌های هم‌راستایی چند مرحله‌ای را اضافه کرده است و توانایی «تفکر» را که به شبیه‌سازی پردازش شناختی گسترش یافته طراحی شده است، معرفی می‌کند. این شامل استدلال تکراری، تحلیل چندپرش و جریان‌های کاری تقویت‌شده با ابزارهایی مانند جستجو، بازیابی و ترکیب آگاهانه است.\n\nاین مدل در نوشتن تحقیقاتی، تحلیل مقایسه‌ای و پرسش و پاسخ پیچیده عملکرد عالی دارد. این مدل از فراخوانی توابع برای جستجو و ناوبری (جستجو، کلیک، باز کردن، اتمام) پشتیبانی می‌کند و می‌تواند در لوله‌های نمایندگی استفاده شود. رفتار تفکری توسط کنترل چند دوری با پاداش‌های مبتنی بر قوانین و مکانیزم تصمیم‌گیری تأخیری شکل می‌گیرد و به عنوان مرجع از چارچوب‌های عمیق تحقیقاتی مانند انباشت هم‌راستایی داخلی OpenAI استفاده می‌شود. این واریانت برای صحنه‌هایی که نیاز به عمق به جای سرعت دارند مناسب است."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot یک پلتفرم متن‌باز است که توسط شرکت فناوری Beijing Dark Side of the Moon ارائه شده است. این پلتفرم مدل‌های مختلف پردازش زبان طبیعی را ارائه می‌دهد و در زمینه‌های گسترده‌ای از جمله، اما نه محدود به، تولید محتوا، تحقیقات علمی، توصیه‌های هوشمند، تشخیص پزشکی و غیره کاربرد دارد و از پردازش متون طولانی و وظایف پیچیده تولید پشتیبانی می‌کند."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius با ساخت خوشه‌های بزرگ GPU و پلتفرم ابری یکپارچه، زیرساخت‌های با عملکرد بالا را برای نوآوران هوش مصنوعی در سراسر جهان فراهم می‌کند."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI یک پلتفرم ارائه‌دهنده خدمات API برای مدل‌های بزرگ زبانی و تولید تصاویر هوش مصنوعی است که انعطاف‌پذیر، قابل‌اعتماد و مقرون‌به‌صرفه می‌باشد. این پلتفرم از جدیدترین مدل‌های متن‌باز مانند Llama3 و Mistral پشتیبانی می‌کند و راه‌حل‌های API جامع، کاربرپسند و خودکار برای توسعه برنامه‌های هوش مصنوعی مولد ارائه می‌دهد که مناسب رشد سریع استارتاپ‌های هوش مصنوعی است."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Télécharger un fichier",
275
275
  "actionTooltip": "Télécharger",
276
- "disabled": "Le modèle actuel ne prend pas en charge la reconnaissance visuelle et l'analyse de fichiers, veuillez changer de modèle pour l'utiliser"
276
+ "disabled": "Le modèle actuel ne prend pas en charge la reconnaissance visuelle et l'analyse de fichiers, veuillez changer de modèle pour l'utiliser",
277
+ "visionNotSupported": "Le modèle actuel ne prend pas en charge la reconnaissance visuelle, veuillez changer de modèle pour l'utiliser"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Préparation des morceaux...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "Version open source de la dernière génération de modèles pré-entraînés de la série GLM-4 publiée par Zhizhu AI."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 est un modèle de langage de 9 milliards de paramètres dans la série GLM-4 développé par THUDM. GLM-4-9B-0414 utilise les mêmes stratégies d'apprentissage par renforcement et d'alignement que son modèle correspondant de 32B, réalisant des performances élevées par rapport à sa taille, ce qui le rend adapté à des déploiements à ressources limitées nécessitant encore de solides capacités de compréhension et de génération de langage."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414 est une variante de raisonnement améliorée de GLM-4-32B, construite pour résoudre des problèmes de mathématiques profondes, de logique et orientés code. Il applique un apprentissage par renforcement étendu (spécifique à la tâche et basé sur des préférences par paires générales) pour améliorer les performances sur des tâches complexes à plusieurs étapes. Par rapport au modèle de base GLM-4-32B, Z1 améliore considérablement les capacités de raisonnement structuré et de domaine formel.\n\nCe modèle prend en charge l'exécution des étapes de 'pensée' via l'ingénierie des invites et offre une cohérence améliorée pour les sorties au format long. Il est optimisé pour les flux de travail d'agents et prend en charge un long contexte (via YaRN), des appels d'outils JSON et une configuration d'échantillonnage de granularité fine pour un raisonnement stable. Idéal pour les cas d'utilisation nécessitant une réflexion approfondie, un raisonnement à plusieurs étapes ou une déduction formelle."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414 est une variante de raisonnement améliorée de GLM-4-32B, construite pour résoudre des problèmes de mathématiques profondes, de logique et orientés code. Il applique un apprentissage par renforcement étendu (spécifique à la tâche et basé sur des préférences par paires générales) pour améliorer les performances sur des tâches complexes à plusieurs étapes. Par rapport au modèle de base GLM-4-32B, Z1 améliore considérablement les capacités de raisonnement structuré et de domaine formel.\n\nCe modèle prend en charge l'exécution des étapes de 'pensée' via l'ingénierie des invites et offre une cohérence améliorée pour les sorties au format long. Il est optimisé pour les flux de travail d'agents et prend en charge un long contexte (via YaRN), des appels d'outils JSON et une configuration d'échantillonnage de granularité fine pour un raisonnement stable. Idéal pour les cas d'utilisation nécessitant une réflexion approfondie, un raisonnement à plusieurs étapes ou une déduction formelle."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 est un modèle de langage de 9 milliards de paramètres dans la série GLM-4 développé par THUDM. Il utilise des techniques initialement appliquées à des modèles GLM-Z1 plus grands, y compris un apprentissage par renforcement étendu, un alignement par classement par paires et une formation pour des tâches intensives en raisonnement telles que les mathématiques, le codage et la logique. Bien que de taille plus petite, il montre de solides performances sur des tâches de raisonnement général et surpasse de nombreux modèles open source à son niveau de poids."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM : GLM Z1 Rumination 32B est un modèle de raisonnement profond de 32 milliards de paramètres dans la série GLM-4-Z1, optimisé pour des tâches complexes et ouvertes nécessitant une réflexion prolongée. Il est construit sur la base de glm-4-32b-0414, ajoutant une phase d'apprentissage par renforcement supplémentaire et une stratégie d'alignement multi-étapes, introduisant une capacité de \"réflexion\" destinée à simuler un traitement cognitif étendu. Cela inclut un raisonnement itératif, une analyse multi-sauts et des flux de travail améliorés par des outils, tels que la recherche, la récupération et la synthèse consciente des citations.\n\nCe modèle excelle dans l'écriture de recherche, l'analyse comparative et les questions complexes. Il prend en charge les appels de fonction pour les primitives de recherche et de navigation (`search`, `click`, `open`, `finish`), permettant son utilisation dans des pipelines d'agents. Le comportement de réflexion est façonné par un contrôle cyclique multi-tours avec des récompenses basées sur des règles et un mécanisme de décision différée, et est étalonné sur des cadres de recherche approfondie tels que la pile d'alignement interne d'OpenAI. Cette variante est adaptée aux scénarios nécessitant de la profondeur plutôt que de la vitesse."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot est une plateforme open source lancée par Beijing Dark Side Technology Co., Ltd., offrant divers modèles de traitement du langage naturel, avec des applications dans des domaines variés, y compris mais sans s'y limiter, la création de contenu, la recherche académique, les recommandations intelligentes, le diagnostic médical, etc., prenant en charge le traitement de longs textes et des tâches de génération complexes."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius fournit une infrastructure haute performance aux innovateurs en IA du monde entier en construisant de vastes clusters GPU et une plateforme cloud intégrée verticalement."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI est une plateforme offrant des services API pour divers grands modèles de langage et la génération d'images IA, flexible, fiable et rentable. Elle prend en charge les derniers modèles open source tels que Llama3, Mistral, et fournit des solutions API complètes, conviviales et évolutives pour le développement d'applications IA, adaptées à la croissance rapide des startups IA."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Carica file",
275
275
  "actionTooltip": "Carica",
276
- "disabled": "Il modello attuale non supporta il riconoscimento visivo e l'analisi dei file, si prega di cambiare modello per utilizzare questa funzione"
276
+ "disabled": "Il modello attuale non supporta il riconoscimento visivo e l'analisi dei file, si prega di cambiare modello per utilizzare questa funzione",
277
+ "visionNotSupported": "Il modello attuale non supporta il riconoscimento visivo, si prega di cambiare modello per utilizzare questa funzione"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Preparazione dei blocchi...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "La versione open source dell'ultima generazione del modello pre-addestrato GLM-4 rilasciato da Zhizhu AI."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 è un modello linguistico con 9 miliardi di parametri della serie GLM-4 sviluppato da THUDM. GLM-4-9B-0414 utilizza le stesse strategie di apprendimento rinforzato e allineamento del suo modello corrispondente più grande da 32B, raggiungendo alte prestazioni rispetto alle sue dimensioni, rendendolo adatto per implementazioni a risorse limitate che richiedono ancora forti capacità di comprensione e generazione del linguaggio."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414 è una variante di ragionamento potenziata di GLM-4-32B, costruita per la risoluzione di problemi di matematica profonda, logica e orientati al codice. Utilizza l'apprendimento rinforzato esteso (specifico per compiti e basato su preferenze generali) per migliorare le prestazioni in compiti complessi a più passaggi. Rispetto al modello di base GLM-4-32B, Z1 ha migliorato significativamente le capacità di ragionamento strutturato e nei domini formali.\n\nQuesto modello supporta l'applicazione di 'passaggi di pensiero' tramite ingegneria dei prompt e offre una coerenza migliorata per output di lungo formato. È ottimizzato per flussi di lavoro agenti e supporta contesti lunghi (tramite YaRN), chiamate a strumenti JSON e configurazioni di campionamento a grana fine per un ragionamento stabile. È particolarmente adatto per casi d'uso che richiedono ragionamenti approfonditi, a più passaggi o deduzioni formali."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414 è una variante di ragionamento potenziata di GLM-4-32B, costruita per la risoluzione di problemi di matematica profonda, logica e orientati al codice. Utilizza l'apprendimento rinforzato esteso (specifico per compiti e basato su preferenze generali) per migliorare le prestazioni in compiti complessi a più passaggi. Rispetto al modello di base GLM-4-32B, Z1 ha migliorato significativamente le capacità di ragionamento strutturato e nei domini formali.\n\nQuesto modello supporta l'applicazione di 'passaggi di pensiero' tramite ingegneria dei prompt e offre una coerenza migliorata per output di lungo formato. È ottimizzato per flussi di lavoro agenti e supporta contesti lunghi (tramite YaRN), chiamate a strumenti JSON e configurazioni di campionamento a grana fine per un ragionamento stabile. È particolarmente adatto per casi d'uso che richiedono ragionamenti approfonditi, a più passaggi o deduzioni formali."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 è un modello linguistico con 9 miliardi di parametri della serie GLM-4 sviluppato da THUDM. Utilizza tecniche inizialmente applicate a modelli GLM-Z1 più grandi, inclusi apprendimento rinforzato esteso, allineamento di ranking a coppie e addestramento per compiti di ragionamento intensivo come matematica, codifica e logica. Nonostante le sue dimensioni più piccole, mostra prestazioni robuste in compiti di ragionamento generali e supera molti modelli open source nel suo livello di pesi."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32B è un modello di inferenza profonda con 32 miliardi di parametri della serie GLM-4-Z1, ottimizzato per compiti complessi e aperti che richiedono un lungo periodo di riflessione. Si basa su glm-4-32b-0414, aggiungendo ulteriori fasi di apprendimento rinforzato e strategie di allineamento multi-fase, introducendo la capacità di 'riflessione' progettata per simulare un'elaborazione cognitiva estesa. Questo include ragionamento iterativo, analisi multi-salto e flussi di lavoro potenziati da strumenti, come ricerca, recupero e sintesi consapevole delle citazioni.\n\nQuesto modello eccelle nella scrittura di ricerca, analisi comparativa e domande complesse. Supporta chiamate di funzione per primari di ricerca e navigazione (`search`, `click`, `open`, `finish`), rendendolo utilizzabile in pipeline basate su agenti. Il comportamento di riflessione è modellato da un controllo ciclico multi-turno con premi basati su regole e meccanismi di decisione ritardata, e viene confrontato con framework di ricerca approfondita come l'allineamento interno di OpenAI. Questa variante è adatta per scenari che richiedono profondità piuttosto che velocità."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot è una piattaforma open source lanciata da Beijing Dark Side Technology Co., Ltd., che offre vari modelli di elaborazione del linguaggio naturale, con ampie applicazioni, inclusi ma non limitati a creazione di contenuti, ricerca accademica, raccomandazioni intelligenti, diagnosi mediche e altro, supportando l'elaborazione di testi lunghi e compiti di generazione complessi."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius fornisce infrastrutture ad alte prestazioni agli innovatori dell'IA di tutto il mondo, costruendo grandi cluster GPU e una piattaforma cloud verticalmente integrata."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI è una piattaforma che offre API per vari modelli di linguaggio di grandi dimensioni e generazione di immagini AI, flessibile, affidabile e conveniente. Supporta i più recenti modelli open source come Llama3 e Mistral, fornendo soluzioni API complete, user-friendly e scalabili per lo sviluppo di applicazioni AI, adatte alla rapida crescita delle startup AI."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "ファイルをアップロード",
275
275
  "actionTooltip": "アップロード",
276
- "disabled": "現在のモデルは視覚認識とファイル分析をサポートしていません。モデルを切り替えてから使用してください。"
276
+ "disabled": "現在のモデルは視覚認識とファイル分析をサポートしていません。モデルを切り替えてから使用してください。",
277
+ "visionNotSupported": "現在のモデルはビジョン認識をサポートしていません。モデルを切り替えてからご利用ください。"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "ブロックの準備中...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "智谱AIが発表したGLM-4シリーズの最新世代の事前トレーニングモデルのオープンソース版です。"
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414はTHUDMによって開発されたGLM-4シリーズの90億パラメータの言語モデルです。GLM-4-9B-0414は、より大きな32B対応モデルと同じ強化学習と整合性戦略を使用してトレーニングされており、その規模に対して高性能を実現し、依然として強力な言語理解と生成能力を必要とするリソース制約のあるデプロイメントに適しています。"
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414は、GLM-4-32Bの強化推論バリアントであり、深い数学、論理、コード指向の問題解決のために構築されています。タスク特化型および一般的なペアの好みに基づく拡張強化学習を適用して、複雑な多段階タスクのパフォーマンスを向上させます。基礎となるGLM-4-32Bモデルと比較して、Z1は構造化推論と形式的な領域の能力を大幅に向上させています。\n\nこのモデルは、プロンプトエンジニアリングを通じて「思考」ステップを強制し、長形式の出力に対して改善された一貫性を提供します。エージェントワークフローに最適化されており、長いコンテキスト(YaRNを介して)、JSONツール呼び出し、安定した推論のための細粒度サンプリング設定をサポートしています。深く考慮された多段階推論や形式的な導出が必要なユースケースに非常に適しています。"
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414は、GLM-4-32Bの強化推論バリアントであり、深い数学、論理、コード指向の問題解決のために構築されています。タスク特化型および一般的なペアの好みに基づく拡張強化学習を適用して、複雑な多段階タスクのパフォーマンスを向上させます。基礎となるGLM-4-32Bモデルと比較して、Z1は構造化推論と形式的な領域の能力を大幅に向上させています。\n\nこのモデルは、プロンプトエンジニアリングを通じて「思考」ステップを強制し、長形式の出力に対して改善された一貫性を提供します。エージェントワークフローに最適化されており、長いコンテキスト(YaRNを介して)、JSONツール呼び出し、安定した推論のための細粒度サンプリング設定をサポートしています。深く考慮された多段階推論や形式的な導出が必要なユースケースに非常に適しています。"
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414はTHUDMによって開発されたGLM-4シリーズの9Bパラメータの言語モデルです。これは、より大きなGLM-Z1モデルに最初に適用された技術を採用しており、拡張強化学習、ペアランキング整合性、数学、コーディング、論理などの推論集約型タスクのトレーニングを含みます。規模は小さいものの、一般的な推論タスクにおいて強力な性能を発揮し、その重みレベルにおいて多くのオープンソースモデルを上回っています。"
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32BはGLM-4-Z1シリーズの32Bパラメータの深い推論モデルで、長時間の思考を必要とする複雑でオープンなタスクに最適化されています。glm-4-32b-0414を基にしており、追加の強化学習段階と多段階の整合性戦略を追加し、拡張認知処理を模倣することを目的とした「反省」能力を導入しています。これには、反復推論、多段階分析、検索、取得、引用感知合成などのツール強化ワークフローが含まれます。\n\nこのモデルは研究型の執筆、比較分析、複雑な質問応答において優れた性能を発揮します。検索とナビゲーションの原語(`search`、`click`、`open`、`finish`)のための関数呼び出しをサポートし、エージェント式パイプラインで使用できるようにします。反省行動は、ルールベースの報酬形成と遅延意思決定メカニズムを持つ多ラウンドの循環制御によって形作られ、OpenAI内部の整合性スタックなどの深い研究フレームワークを基準としています。このバリアントは、速度よりも深さが必要なシナリオに適しています。"
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshotは、北京月之暗面科技有限公司が提供するオープンプラットフォームであり、さまざまな自然言語処理モデルを提供し、コンテンツ創作、学術研究、スマート推薦、医療診断などの広範な応用分野を持ち、長文処理や複雑な生成タスクをサポートしています。"
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebiusは、大規模なGPUクラスターと垂直統合されたクラウドプラットフォームを構築することで、世界中のAIイノベーターに高性能なインフラストラクチャを提供します。"
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AIは、さまざまな大規模言語モデルとAI画像生成のAPIサービスを提供するプラットフォームであり、柔軟で信頼性が高く、コスト効率に優れています。Llama3、Mistralなどの最新のオープンソースモデルをサポートし、生成的AIアプリケーションの開発に向けた包括的でユーザーフレンドリーかつ自動スケーリングのAPIソリューションを提供し、AIスタートアップの急成長を支援します。"
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "파일 업로드",
275
275
  "actionTooltip": "업로드",
276
- "disabled": "현재 모델은 시각 인식 및 파일 분석을 지원하지 않습니다. 모델을 변경한 후 사용하세요."
276
+ "disabled": "현재 모델은 시각 인식 및 파일 분석을 지원하지 않습니다. 모델을 변경한 후 사용하세요.",
277
+ "visionNotSupported": "현재 모델은 시각 인식을 지원하지 않습니다. 모델을 변경한 후 사용해 주세요"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "청크 준비 중...",
@@ -2691,18 +2691,9 @@
2691
2691
  "thudm/glm-4-9b-chat": {
2692
2692
  "description": "지프 AI가 발표한 GLM-4 시리즈 최신 세대의 사전 훈련 모델의 오픈 소스 버전입니다."
2693
2693
  },
2694
- "thudm/glm-4-9b:free": {
2695
- "description": "GLM-4-9B-0414는 THUDM이 개발한 GLM-4 시리즈의 90억 매개변수 언어 모델입니다. GLM-4-9B-0414는 더 큰 32B 대응 모델과 동일한 강화 학습 및 정렬 전략을 사용하여 훈련되었으며, 그 규모에 비해 높은 성능을 달성하여 여전히 강력한 언어 이해 및 생성 능력이 필요한 자원 제한 배포에 적합합니다."
2696
- },
2697
2694
  "thudm/glm-z1-32b": {
2698
2695
  "description": "GLM-Z1-32B-0414는 GLM-4-32B의 향상된 추론 변형으로, 깊은 수학, 논리 및 코드 중심 문제 해결을 위해 설계되었습니다. 이 모델은 복잡한 다단계 작업의 성능을 향상시키기 위해 확장 강화 학습(작업 특정 및 일반 쌍 선호 기반)을 적용합니다. 기본 GLM-4-32B 모델에 비해 Z1은 구조적 추론 및 형식적 분야의 능력을 크게 향상시킵니다.\n\n이 모델은 프롬프트 엔지니어링을 통해 '사고' 단계를 강제 실행할 수 있으며, 긴 형식 출력에 대한 개선된 일관성을 제공합니다. 에이전트 워크플로우에 최적화되어 있으며, 긴 맥락(YaRN을 통해), JSON 도구 호출 및 안정적인 추론을 위한 세분화된 샘플링 구성을 지원합니다. 깊이 있는 사고, 다단계 추론 또는 형식적 유도가 필요한 사용 사례에 매우 적합합니다."
2699
2696
  },
2700
- "thudm/glm-z1-32b:free": {
2701
- "description": "GLM-Z1-32B-0414는 GLM-4-32B의 향상된 추론 변형으로, 깊은 수학, 논리 및 코드 중심 문제 해결을 위해 설계되었습니다. 이 모델은 복잡한 다단계 작업의 성능을 향상시키기 위해 확장 강화 학습(작업 특정 및 일반 쌍 선호 기반)을 적용합니다. 기본 GLM-4-32B 모델에 비해 Z1은 구조적 추론 및 형식적 분야의 능력을 크게 향상시킵니다.\n\n이 모델은 프롬프트 엔지니어링을 통해 '사고' 단계를 강제 실행할 수 있으며, 긴 형식 출력에 대한 개선된 일관성을 제공합니다. 에이전트 워크플로우에 최적화되어 있으며, 긴 맥락(YaRN을 통해), JSON 도구 호출 및 안정적인 추론을 위한 세분화된 샘플링 구성을 지원합니다. 깊이 있는 사고, 다단계 추론 또는 형식적 유도가 필요한 사용 사례에 매우 적합합니다."
2702
- },
2703
- "thudm/glm-z1-9b:free": {
2704
- "description": "GLM-Z1-9B-0414는 THUDM이 개발한 GLM-4 시리즈의 9B 매개변수 언어 모델입니다. 이 모델은 더 큰 GLM-Z1 모델에 처음 적용된 기술을 포함하여, 확장된 강화 학습, 쌍 순위 정렬 및 수학, 코드 및 논리와 같은 추론 집약적인 작업에 대한 훈련을 포함합니다. 비록 규모는 작지만, 일반 추론 작업에서 강력한 성능을 발휘하며, 많은 오픈 소스 모델보다 우수한 성능을 보입니다."
2705
- },
2706
2697
  "thudm/glm-z1-rumination-32b": {
2707
2698
  "description": "THUDM: GLM Z1 Rumination 32B는 GLM-4-Z1 시리즈의 32B 매개변수 심층 추론 모델로, 오랜 시간 동안 사고가 필요한 복잡하고 개방적인 작업을 위해 최적화되었습니다. 이 모델은 glm-4-32b-0414를 기반으로 하며, 추가적인 강화 학습 단계와 다단계 정렬 전략을 도입하여 확장된 인지 처리를 모방하는 '반성' 능력을 도입합니다. 여기에는 반복 추론, 다중 점 분석 및 검색, 검색 및 인용 인식 합성을 포함한 도구 강화 워크플로우가 포함됩니다.\n\n이 모델은 연구 기반 글쓰기, 비교 분석 및 복잡한 질문 응답에서 뛰어난 성능을 발휘합니다. 검색 및 탐색 원시(`search`, `click`, `open`, `finish`)를 위한 함수 호출을 지원하여 에이전트 기반 파이프라인에서 사용할 수 있습니다. 반성 행동은 규칙 기반 보상 및 지연 결정 메커니즘을 갖춘 다중 회전 제어에 의해 형성되며, OpenAI 내부 정렬 스택과 같은 심층 연구 프레임워크를 기준으로 합니다. 이 변형은 깊이가 필요하고 속도가 필요하지 않은 시나리오에 적합합니다."
2708
2699
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot은 베이징 월의 어두운 면 기술 회사가 출시한 오픈 소스 플랫폼으로, 다양한 자연어 처리 모델을 제공하며, 콘텐츠 창작, 학술 연구, 스마트 추천, 의료 진단 등 다양한 분야에 적용됩니다. 긴 텍스트 처리 및 복잡한 생성 작업을 지원합니다."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius는 대규모 GPU 클러스터와 수직 통합 클라우드 플랫폼을 구축하여 전 세계 AI 혁신가들에게 고성능 인프라를 제공합니다."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI는 다양한 대형 언어 모델과 AI 이미지 생성을 제공하는 API 서비스 플랫폼으로, 유연하고 신뢰할 수 있으며 비용 효율적입니다. Llama3, Mistral 등 최신 오픈 소스 모델을 지원하며, 생성적 AI 응용 프로그램 개발을 위한 포괄적이고 사용자 친화적이며 자동 확장 가능한 API 솔루션을 제공하여 AI 스타트업의 빠른 발전에 적합합니다."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Bestand uploaden",
275
275
  "actionTooltip": "Uploaden",
276
- "disabled": "Dit model ondersteunt momenteel geen visuele herkenning en bestandanalyse, schakel alstublieft naar een ander model."
276
+ "disabled": "Dit model ondersteunt momenteel geen visuele herkenning en bestandanalyse, schakel alstublieft naar een ander model.",
277
+ "visionNotSupported": "Het huidige model ondersteunt geen visuele herkenning, schakel over naar een ander model om deze functie te gebruiken"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Voorbereiden van blokken...",
@@ -2691,18 +2691,9 @@
2691
2691
  "thudm/glm-4-9b-chat": {
2692
2692
  "description": "De open-source versie van de nieuwste generatie voorgetrainde modellen van de GLM-4-serie, uitgebracht door Zhizhu AI."
2693
2693
  },
2694
- "thudm/glm-4-9b:free": {
2695
- "description": "GLM-4-9B-0414 is een taalmodel met 9B parameters in de GLM-4 serie, ontwikkeld door THUDM. GLM-4-9B-0414 wordt getraind met dezelfde versterkingsleer- en afstemmingsstrategieën als het grotere 32B tegenhanger, en bereikt hoge prestaties in verhouding tot zijn formaat, waardoor het geschikt is voor implementaties met beperkte middelen die nog steeds sterke taalbegrip en generatiecapaciteiten vereisen."
2696
- },
2697
2694
  "thudm/glm-z1-32b": {
2698
2695
  "description": "GLM-Z1-32B-0414 is een verbeterde redeneringsvariant van GLM-4-32B, speciaal gebouwd voor diepgaande wiskunde, logica en codegerichte probleemoplossing. Het past uitgebreide versterkingsleren toe (taakspecifiek en op basis van algemene parenvoorkeuren) om de prestaties van complexe meerstaps taken te verbeteren. In vergelijking met het basis GLM-4-32B-model heeft Z1 de mogelijkheden voor gestructureerde redenering en formele domeinen aanzienlijk verbeterd.\n\nDit model ondersteunt het afdwingen van 'denkstappen' via prompt-engineering en biedt verbeterde coherentie voor lange outputformaten. Het is geoptimaliseerd voor agentwerkstromen en ondersteunt lange context (via YaRN), JSON-toolaanroepen en fijnmazige samplingconfiguraties voor stabiele redenering. Zeer geschikt voor gebruikscases die diepgaand nadenken, meerstaps redenering of formele afleiding vereisen."
2699
2696
  },
2700
- "thudm/glm-z1-32b:free": {
2701
- "description": "GLM-Z1-32B-0414 is een verbeterde redeneringsvariant van GLM-4-32B, speciaal gebouwd voor diepgaande wiskunde, logica en codegerichte probleemoplossing. Het past uitgebreide versterkingsleren toe (taakspecifiek en op basis van algemene parenvoorkeuren) om de prestaties van complexe meerstaps taken te verbeteren. In vergelijking met het basis GLM-4-32B-model heeft Z1 de mogelijkheden voor gestructureerde redenering en formele domeinen aanzienlijk verbeterd.\n\nDit model ondersteunt het afdwingen van 'denkstappen' via prompt-engineering en biedt verbeterde coherentie voor lange outputformaten. Het is geoptimaliseerd voor agentwerkstromen en ondersteunt lange context (via YaRN), JSON-toolaanroepen en fijnmazige samplingconfiguraties voor stabiele redenering. Zeer geschikt voor gebruikscases die diepgaand nadenken, meerstaps redenering of formele afleiding vereisen."
2702
- },
2703
- "thudm/glm-z1-9b:free": {
2704
- "description": "GLM-Z1-9B-0414 is een taalmodel met 9B parameters in de GLM-4 serie, ontwikkeld door THUDM. Het maakt gebruik van technieken die oorspronkelijk zijn toegepast op het grotere GLM-Z1 model, waaronder uitgebreide versterkingsleer, parenrangschikking afstemming en training voor redeneringsintensieve taken zoals wiskunde, codering en logica. Ondanks zijn kleinere formaat, presteert het krachtig in algemene redeneringstaken en overtreft het veel open-source modellen op zijn gewichtsniveau."
2705
- },
2706
2697
  "thudm/glm-z1-rumination-32b": {
2707
2698
  "description": "THUDM: GLM Z1 Rumination 32B is een diep redeneringsmodel met 32B parameters in de GLM-4-Z1 serie, geoptimaliseerd voor complexe, open taken die langdurig nadenken vereisen. Het is gebaseerd op glm-4-32b-0414, met extra versterkingsleerfasen en meerfasige afstemmingsstrategieën, en introduceert de 'reflectieve' capaciteit die is ontworpen om uitgebreide cognitieve verwerking te simuleren. Dit omvat iteratieve redenering, multi-hop analyse en tool-versterkte workflows, zoals zoeken, ophalen en citatie-bewuste synthese.\n\nDit model presteert uitstekend in onderzoeksgericht schrijven, vergelijkende analyses en complexe vraag-en-antwoord situaties. Het ondersteunt functie-aanroepen voor zoek- en navigatiecommando's (`search`, `click`, `open`, `finish`), waardoor het kan worden gebruikt in agent-gebaseerde pipelines. Reflectief gedrag wordt gevormd door een multi-rondencycluscontrole met op regels gebaseerde beloningen en een vertraagd besluitvormingsmechanisme, en is gebaseerd op diepgaande onderzoeksframeworks zoals de interne afstemmingsstack van OpenAI. Deze variant is geschikt voor scenario's die diepgang in plaats van snelheid vereisen."
2708
2699
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot is een open platform gelanceerd door Beijing Dark Side Technology Co., Ltd., dat verschillende modellen voor natuurlijke taalverwerking biedt, met een breed toepassingsgebied, waaronder maar niet beperkt tot contentcreatie, academisch onderzoek, slimme aanbevelingen, medische diagnose, en ondersteunt lange tekstverwerking en complexe generatietaken."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius biedt wereldwijde AI-innovators hoogwaardige infrastructuur door het bouwen van grootschalige GPU-clusters en een verticaal geïntegreerd cloudplatform."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI is een platform dat API-diensten biedt voor verschillende grote taalmodellen en AI-beeldgeneratie, flexibel, betrouwbaar en kosteneffectief. Het ondersteunt de nieuwste open-source modellen zoals Llama3 en Mistral, en biedt een uitgebreide, gebruiksvriendelijke en automatisch schaalbare API-oplossing voor de ontwikkeling van generatieve AI-toepassingen, geschikt voor de snelle groei van AI-startups."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Prześlij plik",
275
275
  "actionTooltip": "Prześlij",
276
- "disabled": "Aktualny model nie obsługuje rozpoznawania wizualnego i analizy plików, przełącz się na inny model, aby użyć tej funkcji"
276
+ "disabled": "Aktualny model nie obsługuje rozpoznawania wizualnego i analizy plików, przełącz się na inny model, aby użyć tej funkcji",
277
+ "visionNotSupported": "Obecny model nie obsługuje rozpoznawania wizualnego, proszę przełączyć model i spróbować ponownie"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Przygotowywanie fragmentów...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "Otwarta wersja najnowszej generacji modelu pretrenowanego GLM-4 wydanego przez Zhipu AI."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 to model językowy o 9 miliardach parametrów w serii GLM-4 opracowany przez THUDM. GLM-4-9B-0414 wykorzystuje te same strategie uczenia przez wzmocnienie i dostosowania, co jego większy model odpowiadający 32B, osiągając wysoką wydajność w stosunku do swojej skali, co czyni go odpowiednim do wdrożeń z ograniczonymi zasobami, które nadal wymagają silnych zdolności rozumienia i generowania języka."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414 to wzmocniona wariant wnioskowania GLM-4-32B, zaprojektowana do rozwiązywania głębokich problemów matematycznych, logicznych i związanych z kodem. Wykorzystuje rozszerzone uczenie przez wzmocnienie (specyficzne dla zadań i oparte na ogólnych preferencjach par) w celu poprawy wydajności w złożonych zadaniach wieloetapowych. W porównaniu do podstawowego modelu GLM-4-32B, Z1 znacznie poprawia zdolności w zakresie wnioskowania strukturalnego i formalnego.\n\nModel wspiera wymuszanie kroków 'myślenia' poprzez inżynierię podpowiedzi i zapewnia poprawioną spójność dla długich formatów wyjściowych. Jest zoptymalizowany pod kątem przepływów pracy agentów i wspiera długi kontekst (przez YaRN), wywołania narzędzi JSON oraz konfiguracje drobnoziarnistego próbkowania dla stabilnego wnioskowania. Idealny do przypadków użycia wymagających przemyślanego, wieloetapowego wnioskowania lub formalnych dedukcji."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414 to wzmocniona wariant wnioskowania GLM-4-32B, zaprojektowana do rozwiązywania głębokich problemów matematycznych, logicznych i związanych z kodem. Wykorzystuje rozszerzone uczenie przez wzmocnienie (specyficzne dla zadań i oparte na ogólnych preferencjach par) w celu poprawy wydajności w złożonych zadaniach wieloetapowych. W porównaniu do podstawowego modelu GLM-4-32B, Z1 znacznie poprawia zdolności w zakresie wnioskowania strukturalnego i formalnego.\n\nModel wspiera wymuszanie kroków 'myślenia' poprzez inżynierię podpowiedzi i zapewnia poprawioną spójność dla długich formatów wyjściowych. Jest zoptymalizowany pod kątem przepływów pracy agentów i wspiera długi kontekst (przez YaRN), wywołania narzędzi JSON oraz konfiguracje drobnoziarnistego próbkowania dla stabilnego wnioskowania. Idealny do przypadków użycia wymagających przemyślanego, wieloetapowego wnioskowania lub formalnych dedukcji."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 to model językowy o 9 miliardach parametrów w serii GLM-4 opracowany przez THUDM. Wykorzystuje techniki pierwotnie zastosowane w większym modelu GLM-Z1, w tym rozszerzone uczenie przez wzmocnienie, dostosowanie rankingowe w parach oraz trening do zadań intensywnie wymagających wnioskowania, takich jak matematyka, kodowanie i logika. Mimo mniejszej skali, wykazuje silną wydajność w ogólnych zadaniach wnioskowania i przewyższa wiele modeli open source na poziomie swoich wag."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32B to model głębokiego wnioskowania o 32 miliardach parametrów w serii GLM-4-Z1, zoptymalizowany do złożonych, otwartych zadań wymagających długotrwałego myślenia. Opiera się na glm-4-32b-0414, dodając dodatkowe etapy uczenia przez wzmocnienie i strategie wieloetapowego dostosowania, wprowadzając zdolność 'refleksji' mającą na celu symulację rozszerzonego przetwarzania poznawczego. Obejmuje to iteracyjne wnioskowanie, analizy wielokrokowe i wzbogacone narzędziami przepływy pracy, takie jak wyszukiwanie, pobieranie i syntezę z uwzględnieniem cytatów.\n\nModel doskonale sprawdza się w pisaniu badawczym, analizie porównawczej i złożonych pytaniach i odpowiedziach. Obsługuje wywołania funkcji dla prymitywów wyszukiwania i nawigacji (`search`, `click`, `open`, `finish`), co umożliwia jego użycie w agentowych przepływach pracy. Zachowanie refleksyjne kształtowane jest przez wieloetapową kontrolę cykliczną z nagrodami opartymi na regułach i mechanizmem opóźnionych decyzji, a także na głębokich ramach badawczych, takich jak wewnętrzny stos dostosowujący OpenAI. Ten wariant jest odpowiedni dla scenariuszy wymagających głębokości, a nie szybkości."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot to otwarta platforma stworzona przez Beijing Dark Side Technology Co., Ltd., oferująca różnorodne modele przetwarzania języka naturalnego, szeroko stosowane w takich dziedzinach jak tworzenie treści, badania akademickie, inteligentne rekomendacje, diagnoza medyczna i inne, wspierająca przetwarzanie długich tekstów i złożone zadania generacyjne."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius zapewnia wysokowydajną infrastrukturę dla globalnych innowatorów AI poprzez budowę dużych klastrów GPU i pionową integrację platformy chmurowej."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI to platforma oferująca API do różnych dużych modeli językowych i generacji obrazów AI, elastyczna, niezawodna i opłacalna. Wspiera najnowsze modele open-source, takie jak Llama3, Mistral, i oferuje kompleksowe, przyjazne dla użytkownika oraz automatycznie skalowalne rozwiązania API dla rozwoju aplikacji generatywnej AI, odpowiednie dla szybkiego rozwoju startupów AI."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Enviar arquivo",
275
275
  "actionTooltip": "Enviar",
276
- "disabled": "O modelo atual não suporta reconhecimento visual e análise de arquivos, por favor, mude de modelo antes de usar"
276
+ "disabled": "O modelo atual não suporta reconhecimento visual e análise de arquivos, por favor, mude de modelo antes de usar",
277
+ "visionNotSupported": "O modelo atual não suporta reconhecimento visual, por favor, altere o modelo para usar esta função"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Preparando partes...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "Versão de código aberto da última geração do modelo pré-treinado GLM-4, lançado pela Zhizhu AI."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 é um modelo de linguagem de 9 bilhões de parâmetros da série GLM-4 desenvolvido pela THUDM. O GLM-4-9B-0414 é treinado usando as mesmas estratégias de aprendizado por reforço e alinhamento de seu modelo correspondente maior de 32B, alcançando alto desempenho em relação ao seu tamanho, tornando-o adequado para implantações com recursos limitados que ainda exigem forte capacidade de compreensão e geração de linguagem."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "O GLM-Z1-32B-0414 é uma variante de raciocínio aprimorada do GLM-4-32B, construída para resolver problemas de matemática profunda, lógica e voltados para código. Ele aplica aprendizado por reforço estendido (tarefa específica e baseado em preferências emparelhadas gerais) para melhorar o desempenho em tarefas complexas de múltiplos passos. Em comparação com o modelo base GLM-4-32B, o Z1 melhora significativamente as capacidades de raciocínio estruturado e formal.\n\nEste modelo suporta a execução forçada de etapas de 'pensamento' por meio de engenharia de prompts e oferece maior coerência para saídas de formato longo. Ele é otimizado para fluxos de trabalho de agentes e suporta longos contextos (via YaRN), chamadas de ferramentas JSON e configurações de amostragem de granularidade fina para raciocínio estável. É ideal para casos de uso que exigem raciocínio cuidadoso, de múltiplos passos ou deduções formais."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "O GLM-Z1-32B-0414 é uma variante de raciocínio aprimorada do GLM-4-32B, construída para resolver problemas de matemática profunda, lógica e voltados para código. Ele aplica aprendizado por reforço estendido (tarefa específica e baseado em preferências emparelhadas gerais) para melhorar o desempenho em tarefas complexas de múltiplos passos. Em comparação com o modelo base GLM-4-32B, o Z1 melhora significativamente as capacidades de raciocínio estruturado e formal.\n\nEste modelo suporta a execução forçada de etapas de 'pensamento' por meio de engenharia de prompts e oferece maior coerência para saídas de formato longo. Ele é otimizado para fluxos de trabalho de agentes e suporta longos contextos (via YaRN), chamadas de ferramentas JSON e configurações de amostragem de granularidade fina para raciocínio estável. É ideal para casos de uso que exigem raciocínio cuidadoso, de múltiplos passos ou deduções formais."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 é um modelo de linguagem de 9 bilhões de parâmetros da série GLM-4 desenvolvido pela THUDM. Ele utiliza técnicas inicialmente aplicadas a modelos maiores do GLM-Z1, incluindo aprendizado por reforço expandido, alinhamento de classificação em pares e treinamento para tarefas intensivas em raciocínio, como matemática, código e lógica. Apesar de seu tamanho menor, ele demonstra um desempenho robusto em tarefas gerais de raciocínio e supera muitos modelos de código aberto em seu nível de peso."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32B é um modelo de raciocínio profundo de 32 bilhões de parâmetros da série GLM-4-Z1, otimizado para tarefas complexas e abertas que exigem longos períodos de reflexão. Ele é construído sobre o glm-4-32b-0414, adicionando uma fase de aprendizado por reforço adicional e estratégias de alinhamento em múltiplas etapas, introduzindo a capacidade de 'reflexão' destinada a simular processamento cognitivo expandido. Isso inclui raciocínio iterativo, análise de múltiplos saltos e fluxos de trabalho aprimorados por ferramentas, como busca, recuperação e síntese consciente de citações.\n\nEste modelo se destaca em escrita de pesquisa, análise comparativa e perguntas complexas. Ele suporta chamadas de função para primitivos de busca e navegação (`search`, `click`, `open`, `finish`), permitindo seu uso em pipelines baseados em agentes. O comportamento reflexivo é moldado por recompensas baseadas em regras e um mecanismo de decisão atrasada controlado por múltiplos ciclos, com referência a estruturas de pesquisa profunda como a pilha de alinhamento interna da OpenAI. Esta variante é adequada para cenários que exigem profundidade em vez de velocidade."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot é uma plataforma de código aberto lançada pela Beijing Dark Side Technology Co., Ltd., oferecendo uma variedade de modelos de processamento de linguagem natural, com ampla gama de aplicações, incluindo, mas não se limitando a, criação de conteúdo, pesquisa acadêmica, recomendações inteligentes e diagnósticos médicos, suportando processamento de textos longos e tarefas de geração complexas."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius oferece infraestrutura de alto desempenho para inovadores em IA ao redor do mundo, construindo grandes clusters de GPU e uma plataforma de nuvem verticalmente integrada."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI é uma plataforma que oferece uma variedade de modelos de linguagem de grande escala e serviços de geração de imagens de IA, sendo flexível, confiável e econômica. Suporta os mais recentes modelos de código aberto, como Llama3 e Mistral, e fornece soluções de API abrangentes, amigáveis ao usuário e escaláveis para o desenvolvimento de aplicações de IA, adequadas para o rápido crescimento de startups de IA."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Загрузить файл",
275
275
  "actionTooltip": "Загрузить",
276
- "disabled": "Текущая модель не поддерживает визуальное распознавание и анализ файлов, пожалуйста, переключитесь на другую модель"
276
+ "disabled": "Текущая модель не поддерживает визуальное распознавание и анализ файлов, пожалуйста, переключитесь на другую модель",
277
+ "visionNotSupported": "Текущая модель не поддерживает визуальное распознавание, пожалуйста, переключитесь на другую модель для использования"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Подготовка блоков...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "Открытая версия последнего поколения предобученной модели GLM-4, выпущенной Zhizhu AI."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 — это языковая модель с 9B параметрами из серии GLM-4, разработанная THUDM. GLM-4-9B-0414 использует те же стратегии усиленного обучения и выравнивания, что и ее более крупная модель с 32B, обеспечивая высокую производительность относительно своего размера, что делает ее подходящей для развертываний с ограниченными ресурсами, которые все еще требуют мощных возможностей понимания и генерации языка."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414 — это улучшенная версия GLM-4-32B, созданная для глубокого математического, логического и кодового решения задач. Она использует расширенное обучение с подкреплением (специфичное для задач и основанное на общих парных предпочтениях) для повышения производительности в сложных многошаговых задачах. По сравнению с базовой моделью GLM-4-32B, Z1 значительно улучшила способности в структурированном рассуждении и формальных областях.\n\nЭта модель поддерживает принудительное выполнение шагов \"думать\" через инженерное проектирование подсказок и обеспечивает улучшенную согласованность для длинных форматов вывода. Она оптимизирована для рабочих процессов агентов и поддерживает длинный контекст (через YaRN), вызовы инструментов JSON и конфигурацию тонкой выборки для стабильного рассуждения. Идеально подходит для случаев, требующих вдумчивого, многошагового рассуждения или формального вывода."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414 — это улучшенная версия GLM-4-32B, созданная для глубокого математического, логического и кодового решения задач. Она использует расширенное обучение с подкреплением (специфичное для задач и основанное на общих парных предпочтениях) для повышения производительности в сложных многошаговых задачах. По сравнению с базовой моделью GLM-4-32B, Z1 значительно улучшила способности в структурированном рассуждении и формальных областях.\n\nЭта модель поддерживает принудительное выполнение шагов \"думать\" через инженерное проектирование подсказок и обеспечивает улучшенную согласованность для длинных форматов вывода. Она оптимизирована для рабочих процессов агентов и поддерживает длинный контекст (через YaRN), вызовы инструментов JSON и конфигурацию тонкой выборки для стабильного рассуждения. Идеально подходит для случаев, требующих вдумчивого, многошагового рассуждения или формального вывода."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 — это языковая модель с 9B параметрами из серии GLM-4, разработанная THUDM. Она использует технологии, первоначально примененные в более крупной модели GLM-Z1, включая расширенное усиленное обучение, выравнивание парных рангов и обучение для задач, требующих интенсивного вывода, таких как математика, кодирование и логика. Несмотря на меньший размер, она демонстрирует высокую производительность в общих задачах вывода и превосходит многие открытые модели по уровню своих весов."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32B — это глубокая модель вывода с 32B параметрами из серии GLM-4-Z1, оптимизированная для сложных открытых задач, требующих длительного размышления. Она основана на glm-4-32b-0414 и включает дополнительные этапы усиленного обучения и многоступенчатую стратегию выравнивания, вводя способность \"размышления\", предназначенную для имитации расширенной когнитивной обработки. Это включает итеративный вывод, многошаговый анализ и рабочие процессы, улучшенные инструментами, такими как поиск, извлечение и синтез с учетом цитат.\n\nЭта модель демонстрирует отличные результаты в исследовательском письме, сравнительном анализе и сложных вопросах. Она поддерживает вызовы функций для поиска и навигации (\"search\", \"click\", \"open\", \"finish\"), что позволяет использовать ее в агентских потоках. Поведение размышления формируется с помощью многоуровневого контроля, основанного на правилах вознаграждения и механизмах отложенного принятия решений, и ориентируется на такие глубокие исследовательские рамки, как внутренний стек выравнивания OpenAI. Этот вариант подходит для сценариев, требующих глубины, а не скорости."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot — это открытая платформа, запущенная Beijing Dark Side Technology Co., Ltd., предлагающая различные модели обработки естественного языка, охватывающие широкий спектр областей применения, включая, но не ограничиваясь, создание контента, академические исследования, интеллектуальные рекомендации, медицинскую диагностику и т. д., поддерживающая обработку длинных текстов и сложные задачи генерации."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius создает масштабируемые GPU-кластеры и вертикально интегрированную облачную платформу, предоставляя высокопроизводительную инфраструктуру для мировых инноваторов в области ИИ."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI — это платформа, предлагающая API-сервисы для различных больших языковых моделей и генерации изображений AI, гибкая, надежная и экономически эффективная. Она поддерживает новейшие открытые модели, такие как Llama3, Mistral и предоставляет комплексные, удобные для пользователя и автоматически масштабируемые API-решения для разработки генеративных AI-приложений, подходящие для быстрого роста AI-стартапов."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Dosya Yükle",
275
275
  "actionTooltip": "Yükle",
276
- "disabled": "Mevcut model görsel tanımayı ve dosya analizini desteklemiyor, lütfen modeli değiştirin ve tekrar deneyin"
276
+ "disabled": "Mevcut model görsel tanımayı ve dosya analizini desteklemiyor, lütfen modeli değiştirin ve tekrar deneyin",
277
+ "visionNotSupported": "Seçili model görsel tanımayı desteklemiyor, lütfen başka bir modele geçiş yaparak kullanın"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Parçaları Hazırlıyor...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "Zhi Pu AI tarafından yayınlanan GLM-4 serisinin en son nesil ön eğitim modelinin açık kaynak versiyonudur."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414, THUDM tarafından geliştirilen GLM-4 serisinin 9 milyar parametreli dil modelidir. GLM-4-9B-0414, daha büyük 32B karşılık gelen model ile aynı güçlendirilmiş öğrenme ve hizalama stratejilerini kullanarak eğitilmiştir ve ölçeğine göre yüksek performans sergileyerek hala güçlü dil anlama ve üretim yeteneklerine ihtiyaç duyan kaynak sınırlı dağıtımlar için uygundur."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414, GLM-4-32B'nin geliştirilmiş akıl yürütme varyantıdır ve derin matematik, mantık ve kod odaklı sorun çözme için tasarlanmıştır. Karmaşık çok adımlı görevlerin performansını artırmak için genişletilmiş pekiştirmeli öğrenme (görev spesifik ve genel çift tercih tabanlı) uygular. Temel GLM-4-32B modeline kıyasla, Z1 yapılandırılmış akıl yürütme ve formel alanlardaki yetenekleri önemli ölçüde artırmıştır.\n\nBu model, ipucu mühendisliği ile 'düşünme' adımlarını zorunlu kılmayı destekler ve uzun format çıktılar için geliştirilmiş tutarlılık sağlar. Ajan iş akışları için optimize edilmiştir ve uzun bağlamı (YaRN aracılığıyla), JSON araç çağrılarını ve kararlı akıl yürütme için ince ayar örnekleme yapılandırmalarını destekler. Derin düşünme, çok adımlı akıl yürütme veya formel çıkarım gerektiren kullanım durumları için idealdir."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414, GLM-4-32B'nin geliştirilmiş akıl yürütme varyantıdır ve derin matematik, mantık ve kod odaklı sorun çözme için tasarlanmıştır. Karmaşık çok adımlı görevlerin performansını artırmak için genişletilmiş pekiştirmeli öğrenme (görev spesifik ve genel çift tercih tabanlı) uygular. Temel GLM-4-32B modeline kıyasla, Z1 yapılandırılmış akıl yürütme ve formel alanlardaki yetenekleri önemli ölçüde artırmıştır.\n\nBu model, ipucu mühendisliği ile 'düşünme' adımlarını zorunlu kılmayı destekler ve uzun format çıktılar için geliştirilmiş tutarlılık sağlar. Ajan iş akışları için optimize edilmiştir ve uzun bağlamı (YaRN aracılığıyla), JSON araç çağrılarını ve kararlı akıl yürütme için ince ayar örnekleme yapılandırmalarını destekler. Derin düşünme, çok adımlı akıl yürütme veya formel çıkarım gerektiren kullanım durumları için idealdir."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414, THUDM tarafından geliştirilen GLM-4 serisinin 9B parametreli dil modelidir. Daha büyük GLM-Z1 modeline uygulanan teknikleri içermekte olup, güçlendirilmiş öğrenme, çift sıralama hizalaması ve matematik, kodlama ve mantık gibi akıl yürütme yoğun görevler için eğitim almıştır. Daha küçük olmasına rağmen, genel akıl yürütme görevlerinde güçlü performans sergilemekte ve ağırlık seviyesinde birçok açık kaynak modelinden daha üstündür."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32B, GLM-4-Z1 serisinin 32B parametreli derin akıl yürütme modelidir ve uzun süre düşünmeyi gerektiren karmaşık, açık uçlu görevler için optimize edilmiştir. glm-4-32b-0414 temel alınarak geliştirilmiş ve ek güçlendirilmiş öğrenme aşamaları ve çok aşamalı hizalama stratejileri eklenmiştir; genişletilmiş bilişsel işleme simüle etmek için 'düşünme' yeteneği getirilmiştir. Bu, yinelemeli akıl yürütme, çok adımlı analiz ve arama, alma ve alıntı bilincine sahip sentez gibi araç artırma iş akışlarını içerir.\n\nBu model, araştırma yazımı, karşılaştırmalı analiz ve karmaşık soru-cevap konularında mükemmel performans sergiler. Arama ve navigasyon ilkelere (`search`, `click`, `open`, `finish`) yönelik işlev çağrılarını destekler, böylece ajan tabanlı boru hatlarında kullanılabilir. Düşünme davranışı, kural tabanlı ödüller ve gecikmeli karar verme mekanizması ile çok turlu döngü kontrolü ile şekillendirilir ve OpenAI iç hizalama yığını gibi derin araştırma çerçevelerine göre değerlendirilir. Bu varyant, derinlik gerektiren senaryolar için uygundur."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot, Beijing Yuezhi Anmian Technology Co., Ltd. tarafından sunulan açık kaynaklı bir platformdur. İçerik oluşturma, akademik araştırma, akıllı öneri, tıbbi teşhis gibi geniş bir uygulama alanına sahip çeşitli doğal dil işleme modelleri sunmaktadır. Uzun metin işleme ve karmaşık üretim görevlerini desteklemektedir."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius, büyük ölçekli GPU kümeleri ve dikey entegre bulut platformları oluşturarak, dünya çapındaki yapay zeka yenilikçilerine yüksek performanslı altyapı sağlar."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI, çeşitli büyük dil modelleri ve yapay zeka görüntü üretimi API hizmetleri sunan bir platformdur. Esnek, güvenilir ve maliyet etkin bir yapıya sahiptir. Llama3, Mistral gibi en son açık kaynak modelleri desteklemekte ve üretken yapay zeka uygulama geliştirme için kapsamlı, kullanıcı dostu ve otomatik ölçeklenebilir API çözümleri sunmaktadır. Bu, yapay zeka girişimlerinin hızlı gelişimi için uygundur."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "Tải lên tệp",
275
275
  "actionTooltip": "Tải lên",
276
- "disabled": "Mô hình hiện tại không hỗ trợ nhận diện hình ảnh và phân tích tệp, vui lòng chuyển đổi mô hình để sử dụng"
276
+ "disabled": "Mô hình hiện tại không hỗ trợ nhận diện hình ảnh và phân tích tệp, vui lòng chuyển đổi mô hình để sử dụng",
277
+ "visionNotSupported": "Mô hình hiện tại không hỗ trợ nhận dạng hình ảnh, vui lòng chuyển sang mô hình khác để sử dụng"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "Chuẩn bị phân đoạn...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "Phiên bản mã nguồn mở của thế hệ mô hình tiền huấn luyện GLM-4 mới nhất được phát hành bởi Zhiyu AI."
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 là mô hình ngôn ngữ 9 tỷ tham số trong dòng GLM-4 được phát triển bởi THUDM. GLM-4-9B-0414 sử dụng cùng một chiến lược học tăng cường và căn chỉnh như mô hình tương ứng lớn hơn 32B, đạt được hiệu suất cao so với quy mô của nó, khiến nó phù hợp cho các triển khai hạn chế tài nguyên nhưng vẫn cần khả năng hiểu và tạo ngôn ngữ mạnh mẽ."
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414 là biến thể suy luận nâng cao của GLM-4-32B, được xây dựng cho việc giải quyết các vấn đề sâu về toán học, logic và lập trình. Nó áp dụng học tăng cường mở rộng (cụ thể cho nhiệm vụ và dựa trên sở thích cặp chung) để cải thiện hiệu suất cho các nhiệm vụ phức tạp nhiều bước. So với mô hình GLM-4-32B cơ bản, Z1 đã nâng cao đáng kể khả năng suy luận có cấu trúc và trong các lĩnh vực chính thức.\n\nMô hình này hỗ trợ thực hiện các bước 'suy nghĩ' thông qua kỹ thuật nhắc nhở và cung cấp tính liên kết cải thiện cho đầu ra định dạng dài. Nó được tối ưu hóa cho quy trình làm việc của đại lý và hỗ trợ ngữ cảnh dài (thông qua YaRN), gọi công cụ JSON và cấu hình lấy mẫu chi tiết cho suy luận ổn định. Rất phù hợp cho các trường hợp cần suy nghĩ sâu sắc, suy luận nhiều bước hoặc suy diễn chính thức."
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414 là biến thể suy luận nâng cao của GLM-4-32B, được xây dựng cho việc giải quyết các vấn đề sâu về toán học, logic và lập trình. Nó áp dụng học tăng cường mở rộng (cụ thể cho nhiệm vụ và dựa trên sở thích cặp chung) để cải thiện hiệu suất cho các nhiệm vụ phức tạp nhiều bước. So với mô hình GLM-4-32B cơ bản, Z1 đã nâng cao đáng kể khả năng suy luận có cấu trúc và trong các lĩnh vực chính thức.\n\nMô hình này hỗ trợ thực hiện các bước 'suy nghĩ' thông qua kỹ thuật nhắc nhở và cung cấp tính liên kết cải thiện cho đầu ra định dạng dài. Nó được tối ưu hóa cho quy trình làm việc của đại lý và hỗ trợ ngữ cảnh dài (thông qua YaRN), gọi công cụ JSON và cấu hình lấy mẫu chi tiết cho suy luận ổn định. Rất phù hợp cho các trường hợp cần suy nghĩ sâu sắc, suy luận nhiều bước hoặc suy diễn chính thức."
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 là mô hình ngôn ngữ 9B trong dòng GLM-4 được phát triển bởi THUDM. Nó áp dụng các kỹ thuật ban đầu được sử dụng cho mô hình GLM-Z1 lớn hơn, bao gồm học tăng cường mở rộng, căn chỉnh xếp hạng cặp và đào tạo cho các nhiệm vụ yêu cầu suy luận dày đặc như toán học, mã và logic. Mặc dù quy mô nhỏ hơn, nhưng nó thể hiện hiệu suất mạnh mẽ trong các nhiệm vụ suy luận tổng quát và vượt trội hơn nhiều mô hình mã nguồn mở ở cấp độ trọng số của nó."
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "THUDM: GLM Z1 Rumination 32B là mô hình suy luận sâu với 32B tham số trong dòng GLM-4-Z1, được tối ưu hóa cho các nhiệm vụ phức tạp, mở cần suy nghĩ lâu dài. Nó được xây dựng trên nền tảng glm-4-32b-0414, tăng cường thêm giai đoạn học tăng cường và chiến lược căn chỉnh đa giai đoạn, giới thiệu khả năng \"phản tư\" nhằm mô phỏng quá trình xử lý nhận thức mở rộng. Điều này bao gồm suy luận lặp đi lặp lại, phân tích đa bước và quy trình làm việc tăng cường công cụ như tìm kiếm, truy xuất và tổng hợp nhận thức trích dẫn.\n\nMô hình này thể hiện xuất sắc trong viết nghiên cứu, phân tích so sánh và câu hỏi phức tạp. Nó hỗ trợ gọi hàm cho các nguyên ngữ tìm kiếm và điều hướng (`search`, `click`, `open`, `finish`), cho phép sử dụng trong quy trình đại lý. Hành vi phản tư được hình thành bởi các phần thưởng dựa trên quy tắc và cơ chế quyết định trì hoãn trong kiểm soát vòng lặp đa vòng, và được chuẩn hóa theo các khung nghiên cứu sâu như ngăn xếp căn chỉnh nội bộ của OpenAI. Biến thể này phù hợp cho các tình huống cần độ sâu hơn là tốc độ."
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot là nền tảng mã nguồn mở do Công ty TNHH Công nghệ Mặt Trăng Bắc Kinh phát hành, cung cấp nhiều mô hình xử lý ngôn ngữ tự nhiên, ứng dụng rộng rãi trong nhiều lĩnh vực, bao gồm nhưng không giới hạn ở sáng tác nội dung, nghiên cứu học thuật, gợi ý thông minh, chẩn đoán y tế, v.v., hỗ trợ xử lý văn bản dài và nhiệm vụ tạo phức tạp."
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius cung cấp cơ sở hạ tầng hiệu suất cao cho các nhà đổi mới AI toàn cầu thông qua việc xây dựng cụm GPU quy mô lớn và nền tảng đám mây tích hợp dọc."
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI là một nền tảng cung cấp dịch vụ API cho nhiều mô hình ngôn ngữ lớn và tạo hình ảnh AI, linh hoạt, đáng tin cậy và hiệu quả về chi phí. Nó hỗ trợ các mô hình mã nguồn mở mới nhất như Llama3, Mistral, và cung cấp giải pháp API toàn diện, thân thiện với người dùng và tự động mở rộng cho phát triển ứng dụng AI, phù hợp cho sự phát triển nhanh chóng của các công ty khởi nghiệp AI."
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "上传文件",
275
275
  "actionTooltip": "上传",
276
- "disabled": "当前模型不支持视觉识别和文件分析,请切换模型后使用"
276
+ "disabled": "当前模型不支持视觉识别和文件分析,请切换模型后使用",
277
+ "visionNotSupported": "当前模型不支持视觉识别,请切换模型后使用"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "准备分块...",
@@ -2693,18 +2693,9 @@
2693
2693
  "thudm/glm-4-9b-chat": {
2694
2694
  "description": "智谱AI发布的GLM-4系列最新一代预训练模型的开源版本。"
2695
2695
  },
2696
- "thudm/glm-4-9b:free": {
2697
- "description": "GLM-4-9B-0414 是 THUDM 开发的 GLM-4 系列中的 90 亿参数语言模型。GLM-4-9B-0414 使用与其较大的 32B 对应模型相同的强化学习和对齐策略进行训练,相对于其规模实现了高性能,使其适用于仍需要强大语言理解和生成能力的资源受限部署。"
2698
- },
2699
2696
  "thudm/glm-z1-32b": {
2700
2697
  "description": "GLM-Z1-32B-0414 是 GLM-4-32B 的增强推理变体,专为深度数学、逻辑和面向代码的问题解决而构建。它应用扩展强化学习(任务特定和基于通用成对偏好)来提高复杂多步骤任务的性能。与基础 GLM-4-32B 模型相比,Z1 显著提升了结构化推理和形式化领域的能力。\n\n该模型支持通过提示工程强制执行“思考”步骤,并为长格式输出提供改进的连贯性。它针对代理工作流进行了优化,并支持长上下文(通过 YaRN)、JSON 工具调用和用于稳定推理的细粒度采样配置。非常适合需要深思熟虑、多步骤推理或形式化推导的用例。"
2701
2698
  },
2702
- "thudm/glm-z1-32b:free": {
2703
- "description": "GLM-Z1-32B-0414 是 GLM-4-32B 的增强推理变体,专为深度数学、逻辑和面向代码的问题解决而构建。它应用扩展强化学习(任务特定和基于通用成对偏好)来提高复杂多步骤任务的性能。与基础 GLM-4-32B 模型相比,Z1 显著提升了结构化推理和形式化领域的能力。\n\n该模型支持通过提示工程强制执行“思考”步骤,并为长格式输出提供改进的连贯性。它针对代理工作流进行了优化,并支持长上下文(通过 YaRN)、JSON 工具调用和用于稳定推理的细粒度采样配置。非常适合需要深思熟虑、多步骤推理或形式化推导的用例。"
2704
- },
2705
- "thudm/glm-z1-9b:free": {
2706
- "description": "GLM-Z1-9B-0414 是由 THUDM 开发的 GLM-4 系列中的 9B 参数语言模型。它采用了最初应用于更大 GLM-Z1 模型的技术,包括扩展强化学习、成对排名对齐以及对数学、代码和逻辑等推理密集型任务的训练。尽管其规模较小,但它在通用推理任务上表现出强大的性能,并在其权重级别中优于许多开源模型。"
2707
- },
2708
2699
  "thudm/glm-z1-rumination-32b": {
2709
2700
  "description": "GLM Z1 Rumination 32B 是 GLM-4-Z1 系列中的 32B 参数深度推理模型,针对需要长时间思考的复杂、开放式任务进行了优化。它建立在 glm-4-32b-0414 的基础上,增加了额外的强化学习阶段和多阶段对齐策略,引入了旨在模拟扩展认知处理的“反思”能力。这包括迭代推理、多跳分析和工具增强的工作流程,例如搜索、检索和引文感知合成。\n\n该模型在研究式写作、比较分析和复杂问答方面表现出色。它支持用于搜索和导航原语(`search`、`click`、`open`、`finish`)的函数调用,从而可以在代理式管道中使用。反思行为由具有基于规则的奖励塑造和延迟决策机制的多轮循环控制,并以 OpenAI 内部对齐堆栈等深度研究框架为基准。此变体适用于需要深度而非速度的场景。"
2710
2701
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot 是由北京月之暗面科技有限公司推出的开源平台,提供多种自然语言处理模型,应用领域广泛,包括但不限于内容创作、学术研究、智能推荐、医疗诊断等,支持长文本处理和复杂生成任务。"
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius 通过构建大规模GPU集群和垂直整合的云平台,为全球AI创新者提供高性能基础设施。"
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI 是一个提供多种大语言模型与 AI 图像生成的 API 服务的平台,灵活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的开源模型,并为生成式 AI 应用开发提供了全面、用户友好且自动扩展的 API 解决方案,适合 AI 初创公司的快速发展。"
97
100
  },
@@ -273,7 +273,8 @@
273
273
  "clientMode": {
274
274
  "actionFiletip": "上傳檔案",
275
275
  "actionTooltip": "上傳",
276
- "disabled": "當前模型不支援視覺識別和檔案分析,請切換模型後使用"
276
+ "disabled": "當前模型不支援視覺識別和檔案分析,請切換模型後使用",
277
+ "visionNotSupported": "當前模型不支援視覺識別,請切換模型後使用"
277
278
  },
278
279
  "preview": {
279
280
  "prepareTasks": "準備分塊...",
@@ -2691,18 +2691,9 @@
2691
2691
  "thudm/glm-4-9b-chat": {
2692
2692
  "description": "智譜AI發布的GLM-4系列最新一代預訓練模型的開源版本。"
2693
2693
  },
2694
- "thudm/glm-4-9b:free": {
2695
- "description": "GLM-4-9B-0414 是 THUDM 開發的 GLM-4 系列中的 90 億參數語言模型。GLM-4-9B-0414 使用與其較大的 32B 對應模型相同的強化學習和對齊策略進行訓練,相對於其規模實現了高性能,使其適用於仍需要強大語言理解和生成能力的資源受限部署。"
2696
- },
2697
2694
  "thudm/glm-z1-32b": {
2698
2695
  "description": "GLM-Z1-32B-0414 是 GLM-4-32B 的增強推理變體,專為深度數學、邏輯和面向程式碼的問題解決而構建。它應用擴展強化學習(任務特定和基於通用成對偏好)來提高複雜多步驟任務的性能。與基礎 GLM-4-32B 模型相比,Z1 顯著提升了結構化推理和形式化領域的能力。\n\n該模型支持通過提示工程強制執行「思考」步驟,並為長格式輸出提供改進的連貫性。它針對代理工作流進行了優化,並支持長上下文(通過 YaRN)、JSON 工具調用和用於穩定推理的細粒度採樣配置。非常適合需要深思熟慮、多步驟推理或形式化推導的用例。"
2699
2696
  },
2700
- "thudm/glm-z1-32b:free": {
2701
- "description": "GLM-Z1-32B-0414 是 GLM-4-32B 的增強推理變體,專為深度數學、邏輯和面向程式碼的問題解決而構建。它應用擴展強化學習(任務特定和基於通用成對偏好)來提高複雜多步驟任務的性能。與基礎 GLM-4-32B 模型相比,Z1 顯著提升了結構化推理和形式化領域的能力。\n\n該模型支持通過提示工程強制執行「思考」步驟,並為長格式輸出提供改進的連貫性。它針對代理工作流進行了優化,並支持長上下文(通過 YaRN)、JSON 工具調用和用於穩定推理的細粒度採樣配置。非常適合需要深思熟慮、多步驟推理或形式化推導的用例。"
2702
- },
2703
- "thudm/glm-z1-9b:free": {
2704
- "description": "GLM-Z1-9B-0414 是由 THUDM 開發的 GLM-4 系列中的 9B 參數語言模型。它採用了最初應用於更大 GLM-Z1 模型的技術,包括擴展強化學習、成對排名對齊以及對數學、代碼和邏輯等推理密集型任務的訓練。儘管其規模較小,但它在通用推理任務上表現出強大的性能,並在其權重級別中優於許多開源模型。"
2705
- },
2706
2697
  "thudm/glm-z1-rumination-32b": {
2707
2698
  "description": "THUDM: GLM Z1 Rumination 32B 是 GLM-4-Z1 系列中的 32B 參數深度推理模型,針對需要長時間思考的複雜、開放式任務進行了優化。它建立在 glm-4-32b-0414 的基礎上,增加了額外的強化學習階段和多階段對齊策略,引入了旨在模擬擴展認知處理的「反思」能力。這包括迭代推理、多跳分析和工具增強的工作流程,例如搜索、檢索和引文感知合成。\n\n該模型在研究式寫作、比較分析和複雜問答方面表現出色。它支持用於搜索和導航原語(`search`、`click`、`open`、`finish`)的函數調用,從而可以在代理式管道中使用。反思行為由具有基於規則的獎勵塑造和延遲決策機制的多輪循環控制,並以 OpenAI 內部對齊堆疊等深度研究框架為基準。此變體適用於需要深度而非速度的場景。"
2708
2699
  },
@@ -92,6 +92,9 @@
92
92
  "moonshot": {
93
93
  "description": "Moonshot 是由北京月之暗面科技有限公司推出的開源平台,提供多種自然語言處理模型,應用領域廣泛,包括但不限於內容創作、學術研究、智能推薦、醫療診斷等,支持長文本處理和複雜生成任務。"
94
94
  },
95
+ "nebius": {
96
+ "description": "Nebius 透過構建大規模GPU叢集及垂直整合的雲端平台,為全球AI創新者提供高效能基礎設施。"
97
+ },
95
98
  "novita": {
96
99
  "description": "Novita AI 是一個提供多種大語言模型與 AI 圖像生成的 API 服務的平台,靈活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的開源模型,並為生成式 AI 應用開發提供了全面、用戶友好且自動擴展的 API 解決方案,適合 AI 初創公司的快速發展。"
97
100
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.120.6",
3
+ "version": "1.120.7",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",