@lobehub/chat 1.48.1 → 1.48.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +26 -0
- package/README.ja-JP.md +14 -14
- package/README.md +14 -14
- package/README.zh-CN.md +14 -14
- package/changelog/v1.json +9 -0
- package/docs/changelog/2025-01-22-new-ai-provider.mdx +25 -0
- package/docs/changelog/2025-01-22-new-ai-provider.zh-CN.mdx +23 -0
- package/docs/changelog/index.json +23 -17
- package/docs/self-hosting/advanced/auth/next-auth/casdoor.mdx +1 -0
- package/docs/self-hosting/advanced/auth/next-auth/casdoor.zh-CN.mdx +1 -0
- package/docs/self-hosting/advanced/knowledge-base.mdx +1 -0
- package/docs/self-hosting/advanced/knowledge-base.zh-CN.mdx +1 -0
- package/docs/self-hosting/advanced/observability/langfuse.mdx +28 -45
- package/docs/self-hosting/server-database.mdx +1 -1
- package/locales/ar/changelog.json +2 -2
- package/locales/ar/models.json +27 -0
- package/locales/bg-BG/changelog.json +2 -2
- package/locales/bg-BG/models.json +27 -0
- package/locales/de-DE/changelog.json +2 -2
- package/locales/de-DE/models.json +27 -0
- package/locales/en-US/changelog.json +2 -2
- package/locales/en-US/models.json +27 -0
- package/locales/es-ES/changelog.json +2 -2
- package/locales/es-ES/models.json +27 -0
- package/locales/fa-IR/changelog.json +2 -2
- package/locales/fa-IR/models.json +27 -0
- package/locales/fr-FR/changelog.json +2 -2
- package/locales/fr-FR/models.json +27 -0
- package/locales/it-IT/changelog.json +2 -2
- package/locales/it-IT/models.json +27 -0
- package/locales/ja-JP/changelog.json +2 -2
- package/locales/ja-JP/models.json +27 -0
- package/locales/ko-KR/changelog.json +2 -2
- package/locales/ko-KR/models.json +27 -0
- package/locales/nl-NL/changelog.json +2 -2
- package/locales/nl-NL/models.json +27 -0
- package/locales/pl-PL/changelog.json +2 -2
- package/locales/pl-PL/models.json +27 -0
- package/locales/pt-BR/changelog.json +2 -2
- package/locales/pt-BR/models.json +27 -0
- package/locales/ru-RU/changelog.json +2 -2
- package/locales/ru-RU/models.json +27 -0
- package/locales/tr-TR/changelog.json +2 -2
- package/locales/tr-TR/models.json +27 -0
- package/locales/vi-VN/changelog.json +2 -2
- package/locales/vi-VN/models.json +27 -0
- package/locales/zh-CN/changelog.json +2 -2
- package/locales/zh-CN/models.json +28 -1
- package/locales/zh-TW/changelog.json +2 -2
- package/locales/zh-TW/models.json +27 -0
- package/package.json +1 -1
- package/src/app/@modal/(.)changelog/modal/features/Pagination.tsx +1 -1
- package/src/libs/agent-runtime/qwen/index.ts +3 -0
- package/src/locales/default/changelog.ts +1 -1
- package/src/server/services/changelog/index.test.ts +1 -1
- package/src/server/services/changelog/index.ts +1 -1
package/locales/ar/models.json
CHANGED
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "نموذج Hunyuan الأحدث من نوع MOE FunctionCall، تم تدريبه على بيانات FunctionCall عالية الجودة، مع نافذة سياق تصل إلى 32K، ويحتل مرتبة متقدمة في مؤشرات التقييم عبر عدة أبعاد."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "نموذج Hunyuan-large يحتوي على حوالي 389 مليار معلمة، مع حوالي 52 مليار معلمة نشطة، وهو أكبر نموذج MoE مفتوح المصدر في الصناعة من حيث حجم المعلمات وأفضلها من حيث الأداء."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "يتفوق في معالجة المهام الطويلة مثل تلخيص الوثائق والأسئلة والأجوبة المتعلقة بالوثائق، كما يمتلك القدرة على معالجة مهام إنشاء النصوص العامة. يظهر أداءً ممتازًا في تحليل وإنشاء النصوص الطويلة، مما يمكنه من التعامل بفعالية مع متطلبات معالجة المحتوى الطويل المعقد والمفصل."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "تم الترقية إلى هيكل MOE، مع نافذة سياق تصل إلى 256k، متفوقًا على العديد من النماذج مفتوحة المصدر في تقييمات NLP، البرمجة، الرياضيات، والصناعات."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "نموذج مختلط حديث بقدرة 7 مليار معلمة، مع نافذة سياقية 32K، يدعم المحادثات متعددة الوسائط في السيناريوهات الصينية والإنجليزية، والتعرف على كائنات الصور، وفهم جداول الوثائق، والرياضيات متعددة الوسائط، ويتفوق في مؤشرات التقييم على نماذج المنافسة ذات 7 مليار معلمة في عدة أبعاد."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "نموذج نصوص طويلة MOE-32K بحجم تريليون من المعلمات. يحقق مستوى رائد مطلق في مختلف المعايير، مع القدرة على التعامل مع التعليمات المعقدة والاستدلال، ويتميز بقدرات رياضية معقدة، ويدعم استدعاء الوظائف، مع تحسينات رئيسية في مجالات الترجمة متعددة اللغات، المالية، القانونية، والرعاية الصحية."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "يستخدم استراتيجية توجيه أفضل، مع تخفيف مشكلات التوازن في الحمل وتوافق الخبراء. في مجال النصوص الطويلة، تصل نسبة مؤشر البحث إلى 99.9%. MOE-256K يحقق اختراقًا إضافيًا في الطول والأداء، مما يوسع بشكل كبير طول المدخلات الممكنة."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "نموذج متعدد الوسائط حديث يدعم الإجابة بعدة لغات، مع توازن في القدرات بين الصينية والإنجليزية."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "نسخة المعاينة من الجيل الجديد من نموذج اللغة الكبير، يستخدم هيكل نموذج الخبراء المختلط (MoE) الجديد، مما يوفر كفاءة استدلال أسرع وأداء أقوى مقارنة بـ hunyuan-pro."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "الإصدار الثابت من hunyuan-turbo بتاريخ 20 نوفمبر 2024، وهو إصدار يقع بين hunyuan-turbo و hunyuan-turbo-latest."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "تحسينات في هذا الإصدار: توجيه البيانات، مما يعزز بشكل كبير قدرة النموذج على التعميم؛ تحسين كبير في القدرات الرياضية، البرمجية، وقدرات الاستدلال المنطقي؛ تحسين القدرات المتعلقة بفهم النصوص والكلمات؛ تحسين جودة إنشاء محتوى النص."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "تحسين تجربة شاملة، بما في ذلك فهم اللغة الطبيعية، إنشاء النصوص، الدردشة، الأسئلة والأجوبة المعرفية، الترجمة، والمجالات الأخرى؛ تعزيز الطابع الإنساني، وتحسين الذكاء العاطفي للنموذج؛ تعزيز قدرة النموذج على توضيح النوايا الغامضة؛ تحسين القدرة على معالجة الأسئلة المتعلقة بتحليل الكلمات؛ تحسين جودة الإبداع والتفاعل؛ تعزيز تجربة التفاعل المتعدد الجولات."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "نموذج اللغة البصرية الرائد من الجيل الجديد، يستخدم هيكل نموذج الخبراء المختلط (MoE) الجديد، مع تحسين شامل في القدرات المتعلقة بفهم النصوص والصور، وإنشاء المحتوى، والأسئلة والأجوبة المعرفية، والتحليل والاستدلال مقارنة بالنماذج السابقة."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "نموذج Hunyuan الأحدث متعدد الوسائط، يدعم إدخال الصور والنصوص لتوليد محتوى نصي."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "سبارك برو 128K مزود بقدرة معالجة سياق كبيرة جدًا، قادر على معالجة ما يصل إلى 128K من معلومات السياق، مما يجعله مناسبًا بشكل خاص للتحليل الشامل ومعالجة الروابط المنطقية طويلة الأمد في المحتوى الطويل، ويمكنه تقديم منطق سلس ومتسق ودعم متنوع للاقتباسات في الاتصالات النصية المعقدة."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "نموذج QVQ هو نموذج بحث تجريبي تم تطويره بواسطة فريق Qwen، يركز على تعزيز قدرات الاستدلال البصري، خاصة في مجال الاستدلال الرياضي."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "نموذج كود Qwen الشامل."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "Вижте всички актуализации",
|
9
9
|
"description": "Следете новите функции и подобрения на {{appName}}",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Следваща страница",
|
12
|
+
"older": "Преглед на историческите промени"
|
13
13
|
},
|
14
14
|
"readDetails": "Прочетете подробности",
|
15
15
|
"title": "Актуализации",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "Най-новият модел на HunYuan с MOE архитектура за извикване на функции, обучен с висококачествени данни за извикване на функции, с контекстен прозорец от 32K, водещ в множество измерения на оценъчните показатели."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Моделът Hunyuan-large има общ брой параметри около 389B, активни параметри около 52B, и е най-голямият и най-добър в индустрията отворен MoE модел с архитектура Transformer."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Специализира в обработката на дълги текстови задачи, като резюмета на документи и отговори на въпроси, и също така притежава способността да обработва общи текстови генериращи задачи. Показва отлични резултати в анализа и генерирането на дълги текстове, ефективно справяйки се с комплексни и подробни изисквания за обработка на дълги текстове."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "Актуализиран до MOE структура, контекстният прозорец е 256k, водещ в множество оценъчни набори в NLP, код, математика и индустрия, пред много от отворените модели."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "Най-новият 7B мултимодален модел на Hunyuan, с контекстен прозорец от 32K, поддържа мултимодални разговори на китайски и английски, разпознаване на обекти в изображения, разбиране на документи и таблици, мултимодална математика и др., с показатели, които надвишават 7B конкурентни модели в множество измерения."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "Модел с параметри от триллион MOE-32K за дълги текстове. Постига абсолютни водещи нива в различни бенчмаркове, с комплексни инструкции и разсъждения, притежаващи сложни математически способности, поддържа функция за извикване, с акцент върху оптимизацията в области като многоезичен превод, финанси, право и медицина."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Използва по-добра стратегия за маршрутизиране, като същевременно облекчава проблемите с балансирането на натоварването и сближаването на експертите. За дълги текстове, показателят за откритие достига 99.9%. MOE-256K прави допълнителен пробив в дължината и ефективността, значително разширявайки допустимата дължина на входа."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "Най-новият мултимодален модел на Hunyuan, поддържащ отговори на множество езици, с балансирани способности на китайски и английски."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "Предварителна версия на новото поколение голям езиков модел на HunYuan, използваща нова структура на смесен експертен модел (MoE), с по-бърза скорост на извеждане и по-силни резултати в сравнение с hunyuan-pro."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Фиксирана версия на hunyuan-turbo от 20 ноември 2024 г., която е между hunyuan-turbo и hunyuan-turbo-latest."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "Оптимизация в тази версия: скалиране на данни и инструкции, значително повишаване на общата генерализационна способност на модела; значително повишаване на математическите, кодовите и логическите способности; оптимизиране на свързаните с разбирането на текста и думите способности; оптимизиране на качеството на генерираното съдържание при създаване на текст."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "Оптимизация на общото изживяване, включително разбиране на NLP, създаване на текст, разговори, отговори на въпроси, превод и специфични области; повишаване на хуманността, оптимизиране на емоционалната интелигентност на модела; подобряване на способността на модела да изяснява при неясни намерения; повишаване на способността за обработка на въпроси, свързани с анализ на думи; подобряване на качеството и интерактивността на създаването; подобряване на многократното изживяване."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "Новото поколение визуално езиково флагманско голямо модел на Hunyuan, използващо нова структура на смесен експертен модел (MoE), с цялостно подобрение на способностите за основно разпознаване, създаване на съдържание, отговори на въпроси и анализ и разсъждение в сравнение с предишното поколение модели."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "Най-новият мултимодален модел на HunYuan, поддържащ генериране на текстово съдържание от изображения и текстови входове."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочна логическа свързаност, предоставяйки гладка и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "QVQ моделът е експериментален изследователски модел, разработен от екипа на Qwen, фокусиран върху повишаване на визуалните способности за разсъждение, особено в областта на математическото разсъждение."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Модел за кодиране Qwen с общо предназначение."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "Alle Änderungsprotokolle anzeigen",
|
9
9
|
"description": "Verfolgen Sie die neuen Funktionen und Verbesserungen von {{appName}} kontinuierlich",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Nächste Seite",
|
12
|
+
"older": "Ältere Änderungen anzeigen"
|
13
13
|
},
|
14
14
|
"readDetails": "Details lesen",
|
15
15
|
"title": "Änderungsprotokoll",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "Das neueste MOE-Architektur-FunctionCall-Modell von Hunyuan, das mit hochwertigen FunctionCall-Daten trainiert wurde, hat ein Kontextfenster von 32K und führt in mehreren Bewertungsmetriken."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Das Hunyuan-large Modell hat insgesamt etwa 389B Parameter, davon etwa 52B aktivierte Parameter, und ist das derzeit größte und leistungsstärkste Open-Source MoE-Modell mit Transformer-Architektur in der Branche."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Besonders gut geeignet für lange Textaufgaben wie Dokumentenzusammenfassungen und Dokumentenfragen, verfügt es auch über die Fähigkeit, allgemeine Textgenerierungsaufgaben zu bearbeiten. Es zeigt hervorragende Leistungen bei der Analyse und Generierung von langen Texten und kann effektiv mit komplexen und detaillierten Anforderungen an die Verarbeitung von langen Inhalten umgehen."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "Aufgerüstet auf eine MOE-Struktur mit einem Kontextfenster von 256k, führt es in mehreren Bewertungssets in NLP, Code, Mathematik und Industrie zahlreiche Open-Source-Modelle an."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "Das neueste 7B multimodale Modell von Hunyuan, mit einem Kontextfenster von 32K, unterstützt multimodale Dialoge in Chinesisch und Englisch, Objekterkennung in Bildern, Dokumenten- und Tabellenverständnis sowie multimodale Mathematik und übertrifft in mehreren Dimensionen die Bewertungskennzahlen von 7B Wettbewerbsmodellen."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "Ein MOE-32K-Modell für lange Texte mit einer Billion Parametern. Es erreicht in verschiedenen Benchmarks ein absolut führendes Niveau, hat komplexe Anweisungen und Schlussfolgerungen, verfügt über komplexe mathematische Fähigkeiten und unterstützt Funktionsaufrufe, mit Schwerpunkt auf Optimierung in den Bereichen mehrsprachige Übersetzung, Finanzrecht und Medizin."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Verwendet eine verbesserte Routing-Strategie und mildert gleichzeitig die Probleme der Lastenverteilung und Expertenkonvergenz. Bei langen Texten erreicht der Needle-in-a-Haystack-Indikator 99,9%. MOE-256K bricht in Länge und Effektivität weiter durch und erweitert die eingabefähige Länge erheblich."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "Das neueste multimodale Modell von Hunyuan, das mehrsprachige Antworten unterstützt und sowohl in Chinesisch als auch in Englisch ausgewogen ist."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "Die Vorschauversion des neuen großen Sprachmodells von Hunyuan verwendet eine neuartige hybride Expertenmodellstruktur (MoE) und bietet im Vergleich zu Hunyuan-Pro eine schnellere Inferenz und bessere Leistung."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Hunyuan-turbo Version vom 20. November 2024, eine feste Version, die zwischen hunyuan-turbo und hunyuan-turbo-latest liegt."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "Diese Version optimiert: Datenanweisungs-Skalierung, erhebliche Verbesserung der allgemeinen Generalisierungsfähigkeit des Modells; erhebliche Verbesserung der mathematischen, programmierbaren und logischen Denkfähigkeiten; Optimierung der Fähigkeiten im Textverständnis und der Wortverständnisfähigkeiten; Optimierung der Qualität der Inhaltserzeugung in der Texterstellung."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "Allgemeine Optimierung der Benutzererfahrung, einschließlich NLP-Verständnis, Texterstellung, Smalltalk, Wissensfragen, Übersetzung, Fachgebieten usw.; Verbesserung der Menschlichkeit, Optimierung der emotionalen Intelligenz des Modells; Verbesserung der Fähigkeit des Modells, bei unklaren Absichten aktiv Klarheit zu schaffen; Verbesserung der Bearbeitungsfähigkeit von Fragen zur Wort- und Satzanalyse; Verbesserung der Qualität und Interaktivität der Kreation; Verbesserung der Mehrfachinteraktionserfahrung."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "Das neue Flaggschiff-Modell der visuellen Sprache von Hunyuan, das eine brandneue Struktur des gemischten Expertenmodells (MoE) verwendet, bietet umfassende Verbesserungen in den Fähigkeiten zur grundlegenden Erkennung, Inhaltserstellung, Wissensfragen und Analyse sowie Schlussfolgerungen im Vergleich zum vorherigen Modell."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "Das neueste multimodale Modell von Hunyuan unterstützt die Eingabe von Bildern und Text zur Generierung von Textinhalten."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K verfügt über eine außergewöhnliche Kontextverarbeitungsfähigkeit und kann bis zu 128K Kontextinformationen verarbeiten, was es besonders geeignet für die Analyse langer Texte und die Verarbeitung langfristiger logischer Zusammenhänge macht. Es bietet in komplexen Textkommunikationen flüssige und konsistente Logik sowie vielfältige Unterstützung für Zitate."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "Das QVQ-Modell ist ein experimentelles Forschungsmodell, das vom Qwen-Team entwickelt wurde und sich auf die Verbesserung der visuellen Schlussfolgerungsfähigkeiten konzentriert, insbesondere im Bereich der mathematischen Schlussfolgerungen."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Tongyi Qianwen Code-Modell."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "View all changelogs",
|
9
9
|
"description": "Stay updated on the new features and improvements of {{appName}}",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Next Page",
|
12
|
+
"older": "View Historical Changes"
|
13
13
|
},
|
14
14
|
"readDetails": "Read details",
|
15
15
|
"title": "Changelog",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "The latest MOE architecture FunctionCall model from Hunyuan, trained on high-quality FunctionCall data, with a context window of 32K, leading in multiple dimensions of evaluation metrics."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "The Hunyuan-large model has a total parameter count of approximately 389B, with about 52B active parameters, making it the largest and most effective open-source MoE model in the industry based on the Transformer architecture."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Specializes in handling long text tasks such as document summarization and question answering, while also capable of general text generation tasks. It excels in analyzing and generating long texts, effectively addressing complex and detailed long-form content processing needs."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "Upgraded to a MOE structure with a context window of 256k, leading many open-source models in various NLP, coding, mathematics, and industry benchmarks."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "The latest 7B multimodal model from Hunyuan, with a context window of 32K, supports multimodal dialogue in both Chinese and English scenarios, image object recognition, document table understanding, and multimodal mathematics, outperforming 7B competing models across multiple evaluation dimensions."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "A trillion-parameter scale MOE-32K long text model. Achieves absolute leading levels across various benchmarks, capable of handling complex instructions and reasoning, with advanced mathematical abilities, supporting function calls, and optimized for applications in multilingual translation, finance, law, and healthcare."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Utilizes a superior routing strategy while alleviating issues of load balancing and expert convergence. For long texts, the needle-in-a-haystack metric reaches 99.9%. MOE-256K further breaks through in length and effectiveness, greatly expanding the input length capacity."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "The latest multimodal model from Hunyuan, supporting multilingual responses with balanced capabilities in both Chinese and English."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "The preview version of the next-generation Hunyuan large language model, featuring a brand-new mixed expert model (MoE) structure, which offers faster inference efficiency and stronger performance compared to Hunyuan Pro."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Hunyuan-turbo fixed version as of November 20, 2024, a version that lies between hunyuan-turbo and hunyuan-turbo-latest."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "This version optimizes: data instruction scaling, significantly enhancing the model's generalization capabilities; greatly improving mathematical, coding, and logical reasoning abilities; optimizing text understanding and word comprehension capabilities; enhancing the quality of content generation in text creation."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "General experience optimization, including NLP understanding, text creation, casual conversation, knowledge Q&A, translation, and domain-specific tasks; enhanced personification and emotional intelligence of the model; improved the model's ability to clarify when intentions are ambiguous; enhanced handling of word parsing-related questions; improved the quality and interactivity of creative outputs; enhanced multi-turn experience."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "The next-generation flagship visual language model from Hunyuan, utilizing a new mixed expert model (MoE) structure, with comprehensive improvements in basic recognition, content creation, knowledge Q&A, and analytical reasoning capabilities compared to the previous generation model."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "The latest multimodal model from Hunyuan, supporting image + text input to generate textual content."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K is equipped with an extra-large context processing capability, able to handle up to 128K of contextual information, making it particularly suitable for long-form content that requires comprehensive analysis and long-term logical connections, providing smooth and consistent logic and diverse citation support in complex text communication."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "The QVQ model is an experimental research model developed by the Qwen team, focusing on enhancing visual reasoning capabilities, particularly in the field of mathematical reasoning."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Tongyi Qianwen code model."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "Ver todos los registros de cambios",
|
9
9
|
"description": "Sigue las nuevas funciones y mejoras de {{appName}}",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Siguiente página",
|
12
|
+
"older": "Ver cambios anteriores"
|
13
13
|
},
|
14
14
|
"readDetails": "Leer detalles",
|
15
15
|
"title": "Registro de cambios",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "El último modelo FunctionCall de Hunyuan con arquitectura MOE, entrenado con datos de FunctionCall de alta calidad, con una ventana de contexto de 32K, liderando en múltiples dimensiones de métricas de evaluación."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "El modelo Hunyuan-large tiene un total de aproximadamente 389B de parámetros, con aproximadamente 52B de parámetros activados, siendo el modelo MoE de código abierto con la mayor escala de parámetros y el mejor rendimiento en la arquitectura Transformer en la industria actual."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Especializado en tareas de texto largo como resúmenes de documentos y preguntas y respuestas de documentos, también tiene la capacidad de manejar tareas generales de generación de texto. Destaca en el análisis y generación de textos largos, pudiendo abordar eficazmente las necesidades de procesamiento de contenido largo y complejo."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "Actualizado a una estructura MOE, con una ventana de contexto de 256k, lidera en múltiples conjuntos de evaluación en NLP, código, matemáticas, industria y más, superando a muchos modelos de código abierto."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "El modelo multimodal más reciente de 7B de Hunyuan, con una ventana de contexto de 32K, soporta diálogos multimodales en chino e inglés, reconocimiento de objetos en imágenes, comprensión de documentos y tablas, matemáticas multimodales, entre otros, superando a modelos competidores de 7B en múltiples dimensiones de evaluación."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "Modelo de texto largo MOE-32K con un tamaño de parámetros de billones. Alcanzando niveles de liderazgo absoluto en varios benchmarks, con capacidades complejas de instrucciones y razonamiento, habilidades matemáticas complejas, soporte para llamadas a funciones, optimizado para aplicaciones en traducción multilingüe, finanzas, derecho y medicina."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Adopta una estrategia de enrutamiento mejorada, al tiempo que mitiga problemas de equilibrio de carga y convergencia de expertos. En el caso de textos largos, el índice de precisión alcanza el 99.9%. MOE-256K rompe barreras en longitud y efectividad, ampliando enormemente la longitud de entrada permitida."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "El modelo multimodal más reciente de Hunyuan, que soporta respuestas en múltiples idiomas, con capacidades equilibradas en chino e inglés."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "Versión preliminar de la nueva generación del modelo de lenguaje de Hunyuan, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), con una eficiencia de inferencia más rápida y un rendimiento más fuerte en comparación con Hunyuan-Pro."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Versión fija de hunyuan-turbo del 20 de noviembre de 2024, una versión intermedia entre hunyuan-turbo y hunyuan-turbo-latest."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "Optimización de esta versión: escalado de instrucciones de datos, mejora significativa de la capacidad de generalización del modelo; mejora significativa de las capacidades de matemáticas, código y razonamiento lógico; optimización de la comprensión de texto y de palabras relacionadas; optimización de la calidad de generación de contenido en la creación de texto."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "Optimización de la experiencia general, incluyendo comprensión de NLP, creación de texto, conversación casual, preguntas y respuestas de conocimiento, traducción, entre otros; mejora de la humanización, optimización de la inteligencia emocional del modelo; mejora de la capacidad del modelo para aclarar proactivamente en caso de ambigüedad en la intención; mejora de la capacidad de manejo de problemas de análisis de palabras; mejora de la calidad y la interactividad de la creación; mejora de la experiencia en múltiples turnos."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "El nuevo modelo insignia de lenguaje visual de Hunyuan de nueva generación, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), mejorando de manera integral las capacidades de reconocimiento básico, creación de contenido, preguntas y respuestas de conocimiento, y análisis y razonamiento en comparación con la generación anterior de modelos."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "El último modelo multimodal de Hunyuan, que admite la entrada de imágenes y texto para generar contenido textual."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K está equipado con una capacidad de procesamiento de contexto extragrande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para el análisis completo y el manejo de relaciones lógicas a largo plazo en contenido extenso, proporcionando una lógica fluida y coherente y un soporte diverso de citas en comunicaciones de texto complejas."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "El modelo QVQ es un modelo de investigación experimental desarrollado por el equipo de Qwen, enfocado en mejorar la capacidad de razonamiento visual, especialmente en el ámbito del razonamiento matemático."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Modelo de código Qwen de Tongyi."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "تمام تغییرات را مشاهده کنید",
|
9
9
|
"description": "بهروزرسانیهای جدید و بهبودهای {{appName}} را دنبال کنید",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "صفحه بعدی",
|
12
|
+
"older": "مشاهده تغییرات قبلی"
|
13
13
|
},
|
14
14
|
"readDetails": "جزئیات را بخوانید",
|
15
15
|
"title": "تغییرات",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "مدل FunctionCall با معماری MOE جدید Hunyuan، آموزشدیده با دادههای باکیفیت FunctionCall، با پنجره متنی تا 32K و پیشرو در چندین شاخص ارزیابی."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "مدل Hunyuan-large دارای مجموع پارامترها حدود 389B و پارامترهای فعال حدود 52B است، که بزرگترین و بهترین مدل MoE با ساختار Transformer در صنعت به شمار میرود."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "متخصص در پردازش وظایف متنی طولانی مانند خلاصهسازی اسناد و پرسش و پاسخ اسنادی، همچنین توانایی پردازش وظایف تولید متن عمومی را دارد. در تحلیل و تولید متنهای طولانی عملکرد فوقالعادهای دارد و میتواند بهطور مؤثر به نیازهای پیچیده و دقیق پردازش محتوای طولانی پاسخ دهد."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "به ساختار MOE ارتقا یافته است، پنجره متنی 256k دارد و در چندین مجموعه ارزیابی در زمینههای NLP، کد، ریاضیات و صنایع از بسیاری از مدلهای متنباز پیشی گرفته است."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "مدل چندرسانهای 7B جدید Hunyuan، با پنجره زمینه 32K، از گفتگوی چندرسانهای در صحنههای چینی و انگلیسی، شناسایی اشیاء در تصاویر، درک جداول اسناد و ریاضیات چندرسانهای پشتیبانی میکند و در چندین بعد، معیارهای ارزیابی را نسبت به مدلهای رقیب 7B بهبود میبخشد."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "مدل MOE-32K با مقیاس پارامتر تریلیونها. در انواع بنچمارکها به سطح پیشرو مطلق دست یافته است، توانایی پردازش دستورالعملها و استدلالهای پیچیده، دارای قابلیتهای ریاضی پیچیده، پشتیبانی از functioncall، و بهطور ویژه در حوزههای ترجمه چندزبانه، مالی، حقوقی و پزشکی بهینهسازی شده است."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "با استفاده از استراتژی مسیریابی بهینهتر، در عین حال مشکلات توازن بار و همگرایی کارشناسان را کاهش داده است. در زمینه متون طولانی، شاخص «یافتن سوزن در انبار کاه» به ۹۹.۹٪ رسیده است. MOE-256K در طول و عملکرد پیشرفت بیشتری داشته و به طور قابل توجهی طول ورودی قابل قبول را گسترش داده است."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "مدل چندرسانهای جدید Hunyuan، از پاسخگویی به چند زبان پشتیبانی میکند و تواناییهای چینی و انگلیسی را بهطور متوازن ارائه میدهد."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "نسخه پیشنمایش مدل زبان بزرگ نسل جدید HunYuan که از ساختار مدل متخصص ترکیبی (MoE) جدید استفاده میکند. در مقایسه با hunyuan-pro، کارایی استنتاج سریعتر و عملکرد بهتری دارد."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "نسخه ثابت hunyuan-turbo 20 نوامبر 2024، نسخهای بین hunyuan-turbo و hunyuan-turbo-latest."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "بهینهسازیهای این نسخه: مقیاسدهی دستورات داده، بهطور قابل توجهی توانایی تعمیم عمومی مدل را افزایش میدهد؛ بهطور قابل توجهی تواناییهای ریاضی، کدنویسی و استدلال منطقی را بهبود میبخشد؛ بهینهسازی تواناییهای درک متن و کلمات مرتبط با آن؛ بهینهسازی کیفیت تولید محتوای خلق متن."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "بهینهسازی تجربه عمومی، شامل درک NLP، خلق متن، گپزنی، پرسش و پاسخ دانش، ترجمه و حوزههای مختلف؛ افزایش انساننمایی، بهینهسازی هوش عاطفی مدل؛ افزایش توانایی مدل در روشنسازی فعال زمانی که نیت مبهم است؛ افزایش توانایی پردازش مسائل مربوط به تجزیه و تحلیل کلمات؛ افزایش کیفیت و قابلیت تعامل در خلق محتوا؛ بهبود تجربه چند دور."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "مدل بزرگ زبان بصری نسل جدید Hunyuan، با استفاده از ساختار جدید مدلهای متخصص ترکیبی (MoE)، در تواناییهای مربوط به درک تصویر و متن، خلق محتوا، پرسش و پاسخ دانش و تحلیل استدلال نسبت به مدلهای نسل قبلی بهطور جامع بهبود یافته است."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "جدیدترین مدل چندوجهی هونیوان، پشتیبانی از ورودی تصویر + متن برای تولید محتوای متنی."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K با قابلیت پردازش متن بسیار بزرگ، قادر به پردازش تا 128K اطلاعات متنی است. این ویژگی بهویژه برای تحلیل کامل و پردازش ارتباطات منطقی طولانیمدت در محتوای متنی طولانی مناسب است و میتواند در ارتباطات متنی پیچیده، پشتیبانی از منطق روان و یکپارچه و ارجاعات متنوع را فراهم کند."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "مدل QVQ یک مدل تحقیقاتی تجربی است که توسط تیم Qwen توسعه یافته و بر بهبود توانایی استدلال بصری، بهویژه در زمینه استدلال ریاضی تمرکز دارد."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "مدل کد Qwen با قابلیتهای جامع."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "Voir tous les journaux de mise à jour",
|
9
9
|
"description": "Suivez en continu les nouvelles fonctionnalités et améliorations de {{appName}}",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Page suivante",
|
12
|
+
"older": "Voir les modifications antérieures"
|
13
13
|
},
|
14
14
|
"readDetails": "Lire les détails",
|
15
15
|
"title": "Journal des mises à jour",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "Dernier modèle FunctionCall de l'architecture MOE Hunyuan, formé sur des données FunctionCall de haute qualité, avec une fenêtre contextuelle atteignant 32K, se classant parmi les meilleurs sur plusieurs dimensions d'évaluation."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Le modèle Hunyuan-large a un nombre total de paramètres d'environ 389B, avec environ 52B de paramètres activés, ce qui en fait le modèle MoE open source de l'architecture Transformer avec le plus grand nombre de paramètres et les meilleures performances dans l'industrie."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Expert dans le traitement des tâches de longs documents telles que le résumé de documents et les questions-réponses sur des documents, tout en ayant également la capacité de traiter des tâches de génération de texte général. Il excelle dans l'analyse et la génération de longs textes, capable de répondre efficacement aux besoins de traitement de contenus longs complexes et détaillés."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "Mise à niveau vers une structure MOE, avec une fenêtre contextuelle de 256k, en tête de nombreux modèles open source dans les évaluations NLP, code, mathématiques, industrie, etc."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "Le dernier modèle multimodal 7B de Hunyuan, avec une fenêtre contextuelle de 32K, prend en charge les dialogues multimodaux en chinois et en anglais, la reconnaissance d'objets d'images, la compréhension de documents et de tableaux, ainsi que les mathématiques multimodales, surpassant les modèles concurrents de 7B sur plusieurs dimensions d'évaluation."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "Modèle de long texte MOE-32K avec un milliard de paramètres. Atteint un niveau de performance absolument supérieur sur divers benchmarks, capable de traiter des instructions complexes et de raisonner, avec des capacités mathématiques avancées, prenant en charge les appels de fonction, optimisé pour des domaines tels que la traduction multilingue, le droit financier et médical."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Utilise une stratégie de routage améliorée tout en atténuant les problèmes d'équilibrage de charge et de convergence des experts. Pour les longs textes, l'indice de recherche atteint 99,9 %. MOE-256K franchit de nouvelles étapes en termes de longueur et d'efficacité, élargissant considérablement la longueur d'entrée possible."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "Le dernier modèle multimodal de Hunyuan, prenant en charge les réponses multilingues, avec des capacités équilibrées en chinois et en anglais."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "Version préliminaire du nouveau modèle de langage de génération Hunyuan, utilisant une nouvelle structure de modèle d'experts mixtes (MoE), offrant une efficacité d'inférence plus rapide et de meilleures performances par rapport à Hunyuan-Pro."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Version fixe de hunyuan-turbo du 20 novembre 2024, une version intermédiaire entre hunyuan-turbo et hunyuan-turbo-latest."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "Optimisations de cette version : mise à l'échelle des instructions de données, augmentation significative de la capacité de généralisation du modèle ; amélioration significative des capacités en mathématiques, en code et en raisonnement logique ; optimisation des capacités de compréhension des mots dans le texte ; optimisation de la qualité de génération de contenu dans la création de texte."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "Optimisation de l'expérience générale, y compris la compréhension NLP, la création de texte, les conversations informelles, les questions-réponses, la traduction, et les domaines spécifiques ; amélioration de l'humanité simulée, optimisation de l'intelligence émotionnelle du modèle ; amélioration de la capacité du modèle à clarifier activement en cas d'ambiguïté d'intention ; amélioration de la capacité à traiter les questions de décomposition de mots ; amélioration de la qualité et de l'interactivité de la création ; amélioration de l'expérience multi-tours."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "Le nouveau modèle phare de langage visuel de Hunyuan de nouvelle génération, utilisant une toute nouvelle structure de modèle d'experts hybrides (MoE), avec des améliorations complètes par rapport à la génération précédente dans les capacités de reconnaissance de base, de création de contenu, de questions-réponses, et d'analyse et de raisonnement liés à la compréhension d'images et de textes."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "Dernier modèle multimodal Hunyuan, prenant en charge l'entrée d'images et de textes pour générer du contenu textuel."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K est doté d'une capacité de traitement de contexte très étendue, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un soutien varié pour les références dans des communications textuelles complexes."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "Le modèle QVQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement visuel, en particulier dans le domaine du raisonnement mathématique."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Modèle de code Qwen universel."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "Visualizza tutti i registri delle modifiche",
|
9
9
|
"description": "Tieni traccia delle nuove funzionalità e miglioramenti di {{appName}}",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Pagina successiva",
|
12
|
+
"older": "Visualizza le modifiche precedenti"
|
13
13
|
},
|
14
14
|
"readDetails": "Leggi i dettagli",
|
15
15
|
"title": "Registro delle modifiche",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "Ultimo modello FunctionCall con architettura MOE di Hunyuan, addestrato su dati di alta qualità per le chiamate di funzione, con una finestra di contesto di 32K, è in testa in vari indicatori di valutazione."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Il modello Hunyuan-large ha un numero totale di parametri di circa 389B, con circa 52B di parametri attivati, ed è il modello MoE open source con la più grande scala di parametri e le migliori prestazioni nel settore, basato su architettura Transformer."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Specializzato nel gestire compiti di testi lunghi come riassunti di documenti e domande e risposte sui documenti, possiede anche capacità di generazione di testi generali. Eccelle nell'analisi e nella generazione di testi lunghi, in grado di affrontare efficacemente esigenze complesse e dettagliate di elaborazione di contenuti lunghi."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "Aggiornato a una struttura MOE, con una finestra di contesto di 256k, è in testa a molti modelli open source in vari set di valutazione su NLP, codice, matematica e settori."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "Il modello multimodale Hunyuan più recente da 7B, con una finestra contestuale di 32K, supporta dialoghi multimodali in cinese e inglese, riconoscimento di oggetti nelle immagini, comprensione di documenti e tabelle, matematica multimodale, e supera i modelli concorrenti da 7B in vari indicatori di valutazione."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "Modello di testo lungo MOE-32K con un miliardo di parametri. Raggiunge livelli di eccellenza in vari benchmark, con capacità di istruzioni complesse e ragionamento, supporta le chiamate di funzione, ottimizzato per traduzione multilingue, finanza, diritto e medicina."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Utilizza una strategia di routing migliore, alleviando i problemi di bilanciamento del carico e convergenza degli esperti. Per i testi lunghi, l'indice di recupero è del 99,9%. MOE-256K supera ulteriormente in lunghezza ed efficacia, ampliando notevolmente la lunghezza massima di input."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "Il modello multimodale più recente di Hunyuan, supporta risposte in più lingue, con capacità equilibrate in cinese e inglese."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "Anteprima della nuova generazione di modelli di linguaggio di Hunyuan, utilizza una nuova struttura di modello ibrido di esperti (MoE), con una maggiore efficienza di inferenza e prestazioni superiori rispetto a hunyuan-pro."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Versione fissa di hunyuan-turbo del 20 novembre 2024, una versione intermedia tra hunyuan-turbo e hunyuan-turbo-latest."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "Ottimizzazione di questa versione: scaling delle istruzioni sui dati, notevole aumento della capacità di generalizzazione del modello; notevole miglioramento delle capacità matematiche, di codifica e di ragionamento logico; ottimizzazione delle capacità di comprensione del testo e delle parole; ottimizzazione della qualità della generazione dei contenuti di creazione del testo."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "Ottimizzazione dell'esperienza generale, inclusi comprensione NLP, creazione di testi, conversazione, domande e risposte, traduzione, e altro; miglioramento dell'umanizzazione, ottimizzazione dell'intelligenza emotiva del modello; potenziamento della capacità del modello di chiarire attivamente in caso di ambiguità; miglioramento della gestione di problemi di analisi di parole e frasi; aumento della qualità e dell'interattività della creazione; miglioramento dell'esperienza multi-turno."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "Il nuovo modello di punta di linguaggio visivo di Hunyuan, adotta una nuova struttura di modello esperto misto (MoE), con miglioramenti complessivi nelle capacità di riconoscimento di base, creazione di contenuti, domande e risposte, analisi e ragionamento rispetto alla generazione precedente."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "Ultimo modello multimodale di Hunyuan, supporta l'input di immagini e testo per generare contenuti testuali."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K è dotato di una capacità di elaborazione del contesto eccezionale, in grado di gestire fino a 128K di informazioni contestuali, particolarmente adatto per l'analisi completa e la gestione di associazioni logiche a lungo termine in contenuti lunghi, fornendo una logica fluida e coerente e un supporto variegato per le citazioni in comunicazioni testuali complesse."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "Il modello QVQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul miglioramento delle capacità di ragionamento visivo, in particolare nel campo del ragionamento matematico."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Modello di codice Qwen di Tongyi."
|
1198
1225
|
},
|