@lobehub/chat 1.94.13 → 1.94.14

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
package/CHANGELOG.md CHANGED
@@ -2,6 +2,31 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.94.14](https://github.com/lobehub/lobe-chat/compare/v1.94.13...v1.94.14)
6
+
7
+ <sup>Released on **2025-06-19**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Update i18n.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Update i18n, closes [#8225](https://github.com/lobehub/lobe-chat/issues/8225) ([53e1784](https://github.com/lobehub/lobe-chat/commit/53e1784))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
5
30
  ### [Version 1.94.13](https://github.com/lobehub/lobe-chat/compare/v1.94.12...v1.94.13)
6
31
 
7
32
  <sup>Released on **2025-06-18**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Update i18n."
6
+ ]
7
+ },
8
+ "date": "2025-06-19",
9
+ "version": "1.94.14"
10
+ },
2
11
  {
3
12
  "children": {
4
13
  "improvements": [
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 هو النموذج اللغوي مفتوح المصدر متعدد اللغات الأكثر تقدمًا في سلسلة Llama، حيث يقدم تجربة تنافس أداء نموذج 405B بتكلفة منخفضة للغاية. يعتمد على هيكل Transformer، وتم تحسين فائدته وأمانه من خلال التعديل الدقيق تحت الإشراف (SFT) والتعلم المعزز من خلال ردود الفعل البشرية (RLHF). تم تحسين إصدار التعديل الخاص به ليكون مثاليًا للحوار متعدد اللغات، حيث يتفوق في العديد من المعايير الصناعية على العديد من نماذج الدردشة مفتوحة ومغلقة المصدر. تاريخ انتهاء المعرفة هو ديسمبر 2023."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "نموذج استدلال جديد مطور ذاتيًا. رائد عالميًا: 80 ألف سلسلة تفكير × 1 مليون إدخال، أداء يضاهي أفضل النماذج العالمية."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "في سلسلة نماذج MiniMax-01، قمنا بإجراء ابتكارات جريئة: تم تنفيذ آلية الانتباه الخطي على نطاق واسع لأول مرة، لم يعد هيكل Transformer التقليدي هو الخيار الوحيد. يصل عدد معلمات هذا النموذج إلى 456 مليار، مع تنشيط واحد يصل إلى 45.9 مليار. الأداء الشامل للنموذج يتساوى مع النماذج الرائدة في الخارج، بينما يمكنه معالجة سياقات تصل إلى 4 ملايين توكن، وهو 32 مرة من GPT-4o و20 مرة من Claude-3.5-Sonnet."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 هو نموذج استدلال كبير الحجم مفتوح المصدر يعتمد على الانتباه المختلط، يحتوي على 456 مليار معلمة، حيث يمكن لكل رمز تفعيل حوالي 45.9 مليار معلمة. يدعم النموذج أصلاً سياقًا فائق الطول يصل إلى مليون رمز، ومن خلال آلية الانتباه السريع، يوفر 75% من العمليات الحسابية العائمة في مهام التوليد التي تصل إلى 100 ألف رمز مقارنة بـ DeepSeek R1. بالإضافة إلى ذلك، يعتمد MiniMax-M1 على بنية MoE (الخبراء المختلطون)، ويجمع بين خوارزمية CISPO وتصميم الانتباه المختلط لتدريب تعلم معزز فعال، محققًا أداءً رائدًا في الصناعة في استدلال الإدخالات الطويلة وسيناريوهات هندسة البرمجيات الحقيقية."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) هو نموذج تعليمات عالي الدقة، مناسب للحسابات المعقدة."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "نموذج معاينة Gemini 2.0 Flash، يدعم توليد الصور"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash هو نموذج Google الأكثر فعالية من حيث التكلفة، ويوفر وظائف شاملة."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview هو أصغر وأكفأ نموذج من Google، مصمم للاستخدام واسع النطاق."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "معاينة فلاش جمنّي 2.5 هي النموذج الأكثر كفاءة من جوجل، حيث تقدم مجموعة شاملة من الميزات."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview هو نموذج Google الأكثر فعالية من حيث التكلفة، يقدم وظائف شاملة."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro هو نموذج التفكير الأكثر تقدمًا من Google، قادر على استدلال المشكلات المعقدة في البرمجة والرياضيات ومجالات STEM، بالإضافة إلى تحليل مجموعات البيانات الكبيرة ومستودعات الأكواد والوثائق باستخدام سياق طويل."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "نموذج Gemini 2.5 Pro التجريبي هو الأكثر تقدمًا من Google، قادر على استنتاج المشكلات المعقدة في البرمجة والرياضيات وعلوم STEM، بالإضافة إلى تحليل مجموعات البيانات الكبيرة ومكتبات الشيفرات والمستندات باستخدام سياقات طويلة."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 е най-напредналият многоезичен отворен голям езиков модел от серията Llama, който предлага производителност, сравнима с 405B моделите, на изключително ниска цена. Базиран на структурата Transformer и подобрен чрез супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Неговата версия с оптимизация за инструкции е специално проектирана за многоезични диалози и показва по-добри резултати от много от наличните отворени и затворени чат модели на множество индустриални бенчмаркове. Краен срок за знанията е декември 2023 г."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "Изцяло ново самостоятелно разработено модел за разсъждение. Световен лидер: 80K вериги на мислене x 1M вход, с резултати, сравними с водещите модели в чужбина."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "В серията модели MiniMax-01 направихме смели иновации: за първи път реализирахме мащабно линейно внимание, традиционната архитектура на Transformer вече не е единственият избор. Параметрите на този модел достигат 4560 милиарда, с единична активация от 45.9 милиарда. Общата производителност на модела е на нивото на водещите модели в чужбина, като същевременно ефективно обработва глобалния контекст от 4 милиона токена, което е 32 пъти повече от GPT-4o и 20 пъти повече от Claude-3.5-Sonnet."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 е мащабен модел за разсъждение с отворени тегла и смесено внимание, с 456 милиарда параметри, като всеки токен активира около 45.9 милиарда параметри. Моделът поддържа естествено контекст с дължина до 1 милион токена и чрез механизма за светкавично внимание спестява 75% от изчисленията при задачи с генериране на 100 хиляди токена в сравнение с DeepSeek R1. Освен това MiniMax-M1 използва MoE (смесен експертен) архитектура, комбинирайки CISPO алгоритъм и ефективно обучение с подсилване с дизайн на смесено внимание, постигащи водещи в индустрията резултати при дълги входни разсъждения и реални софтуерни инженерни сценарии."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) е модел с висока точност за инструкции, подходящ за сложни изчисления."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Gemini 2.0 Flash предварителен модел, поддържащ генериране на изображения"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash е най-ефективният модел на Google, предлагащ пълна функционалност."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview е най-малкият и най-ефективен модел на Google, проектиран за мащабна употреба."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview е моделът с най-добро съотношение цена-качество на Google, предлагащ пълна функционалност."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview е най-ефективният модел на Google, предлагащ пълна функционалност."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro е най-напредналият мисловен модел на Google, способен да разсъждава върху сложни проблеми в областта на кода, математиката и STEM, както и да анализира големи набори от данни, кодови бази и документи с дълъг контекст."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental е най-напредналият модел на мислене на Google, способен да разсъждава по сложни проблеми в код, математика и STEM области, както и да анализира големи набори от данни, кодови библиотеки и документи, използвайки дълъг контекст."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 ist das fortschrittlichste mehrsprachige Open-Source-Sprachmodell der Llama-Serie, das eine Leistung bietet, die mit einem 405B-Modell vergleichbar ist, und das zu extrem niedrigen Kosten. Es basiert auf der Transformer-Architektur und wurde durch überwachte Feinabstimmung (SFT) und verstärkendes Lernen mit menschlichem Feedback (RLHF) in Bezug auf Nützlichkeit und Sicherheit verbessert. Die auf Anweisungen optimierte Version ist speziell für mehrsprachige Dialoge optimiert und übertrifft in mehreren Branchenbenchmarks viele verfügbare Open-Source- und geschlossene Chat-Modelle. Das Wissensdatum endet im Dezember 2023."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "Ein völlig neu entwickeltes Inferenzmodell. Weltweit führend: 80K Denkketten x 1M Eingaben, Leistung auf Augenhöhe mit den besten Modellen im Ausland."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "In der MiniMax-01-Serie haben wir mutige Innovationen vorgenommen: Erstmals wurde die lineare Aufmerksamkeitsmechanismus in großem Maßstab implementiert, sodass die traditionelle Transformer-Architektur nicht mehr die einzige Wahl ist. Dieses Modell hat eine Parameteranzahl von bis zu 456 Milliarden, wobei eine Aktivierung 45,9 Milliarden beträgt. Die Gesamtleistung des Modells kann mit den besten Modellen im Ausland mithalten und kann gleichzeitig effizient den weltweit längsten Kontext von 4 Millionen Tokens verarbeiten, was 32-mal so viel wie GPT-4o und 20-mal so viel wie Claude-3.5-Sonnet ist."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 ist ein groß angelegtes hybrides Aufmerksamkeits-Inferenzmodell mit offenen Gewichten, das 456 Milliarden Parameter umfasst und etwa 45,9 Milliarden Parameter pro Token aktiviert. Das Modell unterstützt nativ einen ultralangen Kontext von 1 Million Tokens und spart durch den Blitz-Attention-Mechanismus bei Aufgaben mit 100.000 Tokens im Vergleich zu DeepSeek R1 75 % der Fließkommaoperationen ein. Gleichzeitig verwendet MiniMax-M1 eine MoE-Architektur (Mixture of Experts) und kombiniert den CISPO-Algorithmus mit einem hybriden Aufmerksamkeitsdesign für effizientes verstärkendes Lernen, was in der Langzeiteingabe-Inferenz und realen Software-Engineering-Szenarien branchenführende Leistung erzielt."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) ist ein hochpräzises Anweisungsmodell, das für komplexe Berechnungen geeignet ist."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Gemini 2.0 Flash Vorschau-Modell, unterstützt die Bildgenerierung"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash ist Googles kosteneffizientestes Modell und bietet umfassende Funktionen."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview ist Googles kleinstes und kosteneffizientestes Modell, speziell für den großflächigen Einsatz konzipiert."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview ist das kosteneffizienteste Modell von Google und bietet umfassende Funktionen."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview ist Googles kosteneffizientestes Modell mit umfassenden Funktionen."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Denkmodell, das komplexe Probleme in den Bereichen Code, Mathematik und MINT-Fächer lösen kann und große Datensätze, Codebasen und Dokumente mit langem Kontext analysiert."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und STEM zu analysieren. Es kann auch lange Kontexte nutzen, um große Datensätze, Codebasen und Dokumente zu analysieren."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 is the most advanced multilingual open-source large language model in the Llama series, offering performance comparable to a 405B model at a very low cost. Based on the Transformer architecture, it enhances usability and safety through supervised fine-tuning (SFT) and reinforcement learning from human feedback (RLHF). Its instruction-tuned version is optimized for multilingual dialogue and outperforms many open-source and closed chat models on various industry benchmarks. Knowledge cutoff date is December 2023."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "A brand-new self-developed inference model. Globally leading: 80K reasoning chains x 1M input, performance comparable to top overseas models."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "In the MiniMax-01 series of models, we have made bold innovations: for the first time, we have implemented a linear attention mechanism on a large scale, making the traditional Transformer architecture no longer the only option. This model has a parameter count of up to 456 billion, with a single activation of 45.9 billion. Its overall performance rivals that of top overseas models while efficiently handling the world's longest context of 4 million tokens, which is 32 times that of GPT-4o and 20 times that of Claude-3.5-Sonnet."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 is a large-scale hybrid attention inference model with open-source weights, featuring 456 billion parameters, with approximately 45.9 billion parameters activated per token. The model natively supports ultra-long contexts of up to 1 million tokens and, through lightning attention mechanisms, reduces floating-point operations by 75% compared to DeepSeek R1 in tasks generating 100,000 tokens. Additionally, MiniMax-M1 employs a Mixture of Experts (MoE) architecture, combining the CISPO algorithm with an efficient reinforcement learning training design based on hybrid attention, achieving industry-leading performance in long-input inference and real-world software engineering scenarios."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) is a high-precision instruction model suitable for complex computations."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Gemini 2.0 Flash preview model, supports image generation"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash is Google's most cost-effective model, offering comprehensive capabilities."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview is Google's smallest and most cost-efficient model, designed for large-scale usage."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview is Google's most cost-effective model, offering a comprehensive set of features."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview is Google's most cost-effective model, offering comprehensive capabilities."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro is Google's most advanced reasoning model, capable of tackling complex problems in coding, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long-context processing."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental is Google's most advanced thinking model, capable of reasoning about complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long context."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 es el modelo de lenguaje de código abierto multilingüe más avanzado de la serie Llama, que ofrece un rendimiento comparable al modelo de 405B a un costo extremadamente bajo. Basado en la estructura Transformer, y mejorado en utilidad y seguridad a través de ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF). Su versión ajustada por instrucciones está optimizada para diálogos multilingües, superando a muchos modelos de chat de código abierto y cerrados en múltiples benchmarks de la industria. La fecha límite de conocimiento es diciembre de 2023."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "Modelo de inferencia de desarrollo propio completamente nuevo. Líder mundial: 80K cadenas de pensamiento x 1M de entradas, con un rendimiento comparable a los modelos de vanguardia internacionales."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "En la serie de modelos MiniMax-01, hemos realizado una innovación audaz: la implementación a gran escala del mecanismo de atención lineal, donde la arquitectura Transformer tradicional ya no es la única opción. Este modelo tiene una cantidad de parámetros de hasta 456 mil millones, con 45.9 mil millones por activación. El rendimiento general del modelo es comparable a los mejores modelos internacionales, y puede manejar de manera eficiente contextos de hasta 4 millones de tokens, que es 32 veces más que GPT-4o y 20 veces más que Claude-3.5-Sonnet."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 es un modelo de inferencia de atención mixta a gran escala con pesos de código abierto, que cuenta con 456 mil millones de parámetros, activando aproximadamente 45.9 mil millones de parámetros por token. El modelo soporta de forma nativa contextos ultra largos de hasta 1 millón de tokens y, gracias a su mecanismo de atención relámpago, reduce en un 75 % las operaciones de punto flotante en tareas de generación de 100 mil tokens en comparación con DeepSeek R1. Además, MiniMax-M1 utiliza una arquitectura MoE (Mezcla de Expertos), combinando el algoritmo CISPO y un diseño de atención mixta para un entrenamiento eficiente mediante aprendizaje reforzado, logrando un rendimiento líder en la industria en inferencia con entradas largas y escenarios reales de ingeniería de software."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) es un modelo de instrucciones de alta precisión, adecuado para cálculos complejos."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Modelo de vista previa Gemini 2.0 Flash, que admite la generación de imágenes"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash es el modelo de mejor relación calidad-precio de Google, que ofrece funcionalidades completas."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview es el modelo más pequeño y con mejor relación calidad-precio de Google, diseñado para un uso a gran escala."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview es el modelo más rentable de Google, que ofrece una funcionalidad completa."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview es el modelo de mejor relación calidad-precio de Google, que ofrece funcionalidades completas."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y áreas STEM, así como de analizar grandes conjuntos de datos, bases de código y documentos utilizando contextos largos."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y campos STEM, además de utilizar contextos largos para analizar grandes conjuntos de datos, bibliotecas de código y documentos."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "لاما 3.3 پیشرفته‌ترین مدل زبان چند زبانه و متن باز در سری لاما است که با هزینه‌ای بسیار کم، عملکردی مشابه مدل 405B را ارائه می‌دهد. این مدل بر اساس ساختار ترنسفورمر طراحی شده و از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) بهبود یافته است تا کارایی و ایمنی آن افزایش یابد. نسخه تنظیم شده آن به طور خاص برای مکالمات چند زبانه بهینه‌سازی شده و در چندین معیار صنعتی، عملکردی بهتر از بسیاری از مدل‌های چت متن باز و بسته دارد. تاریخ قطع دانش آن تا دسامبر 2023 است."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "مدل استنتاج کاملاً توسعه‌یافته داخلی. پیشرو در جهان: ۸۰ هزار زنجیره فکری در برابر ۱ میلیون ورودی، عملکردی برابر با مدل‌های برتر خارجی."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "در سری مدل‌های MiniMax-01، ما نوآوری‌های جسورانه‌ای انجام داده‌ایم: برای اولین بار مکانیزم توجه خطی را به طور وسیع پیاده‌سازی کرده‌ایم و معماری سنتی Transformer دیگر تنها گزینه نیست. این مدل دارای 456 میلیارد پارامتر است که در یک بار فعال‌سازی 45.9 میلیارد است. عملکرد کلی این مدل با بهترین مدل‌های خارجی برابری می‌کند و در عین حال می‌تواند به طور مؤثر به متن‌های طولانی جهانی با 4 میلیون توکن رسیدگی کند، که 32 برابر GPT-4o و 20 برابر Claude-3.5-Sonnet است."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 یک مدل استنتاج بزرگ با وزن‌های متن‌باز و توجه ترکیبی است که دارای ۴۵۶ میلیارد پارامتر است و هر توکن می‌تواند حدود ۴۵.۹ میلیارد پارامتر را فعال کند. این مدل به طور بومی از زمینه بسیار طولانی ۱ میلیون توکن پشتیبانی می‌کند و با مکانیزم توجه سریع، در وظایف تولید ۱۰۰ هزار توکن نسبت به DeepSeek R1، ۷۵٪ از محاسبات نقطه شناور را صرفه‌جویی می‌کند. همچنین، MiniMax-M1 از معماری MoE (متخصصان ترکیبی) بهره می‌برد و با ترکیب الگوریتم CISPO و طراحی توجه ترکیبی در آموزش تقویتی کارآمد، عملکرد پیشرو در صنعت را در استنتاج ورودی‌های طولانی و سناریوهای واقعی مهندسی نرم‌افزار ارائه می‌دهد."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "مدل پیش‌نمایش Gemini 2.0 Flash، از تولید تصویر پشتیبانی می‌کند"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash مدل با بهترین نسبت قیمت به کارایی گوگل است که امکانات جامع را ارائه می‌دهد."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview کوچک‌ترین و مقرون‌به‌صرفه‌ترین مدل گوگل است که برای استفاده در مقیاس بزرگ طراحی شده است."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "پیش‌نمایش فلش Gemini 2.5 مدل با بهترین قیمت و کیفیت گوگل است که امکانات جامع و کاملی را ارائه می‌دهد."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview مقرون‌به‌صرفه‌ترین مدل گوگل است که امکانات جامع ارائه می‌دهد."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro پیشرفته‌ترین مدل تفکر گوگل است که قادر به استنتاج مسائل پیچیده در حوزه کد، ریاضیات و STEM بوده و با استفاده از زمینه طولانی، تحلیل مجموعه داده‌ها، کدها و مستندات بزرگ را انجام می‌دهد."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental پیشرفته‌ترین مدل تفکر گوگل است که قادر به استدلال در مورد مسائل پیچیده در زمینه‌های کد، ریاضیات و STEM می‌باشد و همچنین می‌تواند با استفاده از زمینه‌های طولانی، مجموعه‌های داده بزرگ، کتابخانه‌های کد و مستندات را تحلیل کند."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 est le modèle de langage open source multilingue le plus avancé de la série Llama, offrant des performances comparables à celles d'un modèle de 405B à un coût très faible. Basé sur une architecture Transformer, il a été amélioré en utilité et en sécurité grâce à un ajustement supervisé (SFT) et à un apprentissage par renforcement avec retour humain (RLHF). Sa version optimisée pour les instructions est spécialement conçue pour les dialogues multilingues et surpasse de nombreux modèles de chat open source et fermés sur plusieurs benchmarks industriels. La date limite des connaissances est décembre 2023."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "Modèle d'inférence entièrement développé en interne. Leader mondial : 80K chaînes de pensée x 1M d'entrées, des performances comparables aux meilleurs modèles internationaux."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "Dans la série de modèles MiniMax-01, nous avons réalisé une innovation audacieuse : la première mise en œuvre à grande échelle d'un mécanisme d'attention linéaire, rendant l'architecture Transformer traditionnelle non plus le seul choix. Ce modèle possède un nombre de paramètres atteignant 456 milliards, avec 45,9 milliards d'activations par instance. Les performances globales du modèle rivalisent avec celles des meilleurs modèles étrangers, tout en étant capable de traiter efficacement un contexte mondial de 4 millions de tokens, soit 32 fois celui de GPT-4o et 20 fois celui de Claude-3.5-Sonnet."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 est un modèle d'inférence à attention mixte à grande échelle avec poids open source, comptant 456 milliards de paramètres, activant environ 45,9 milliards de paramètres par token. Le modèle supporte nativement un contexte ultra-long de 1 million de tokens et, grâce au mécanisme d'attention éclair, réduit de 75 % les opérations en virgule flottante lors de tâches de génération de 100 000 tokens par rapport à DeepSeek R1. Par ailleurs, MiniMax-M1 utilise une architecture MoE (Experts Mixtes), combinant l'algorithme CISPO et une conception d'attention mixte pour un entraînement efficace par apprentissage par renforcement, offrant des performances de pointe dans l'inférence sur longues entrées et les scénarios réels d'ingénierie logicielle."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) est un modèle d'instructions de haute précision, adapté aux calculs complexes."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Modèle de prévisualisation Gemini 2.0 Flash, prenant en charge la génération d'images"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash est le modèle le plus rentable de Google, offrant des fonctionnalités complètes."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview est le modèle le plus compact et rentable de Google, conçu pour une utilisation à grande échelle."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview est le modèle le plus rentable de Google, offrant des fonctionnalités complètes."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview est le modèle le plus rentable de Google, offrant des fonctionnalités complètes."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro est le modèle de raisonnement le plus avancé de Google, capable de traiter des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, des bases de code et des documents avec un contexte étendu."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et dans les domaines STEM, tout en utilisant un long contexte pour analyser de grands ensembles de données, des bibliothèques de code et des documents."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 è il modello di linguaggio open source multilingue più avanzato della serie Llama, che offre prestazioni paragonabili a un modello da 405B a un costo estremamente ridotto. Basato su una struttura Transformer e migliorato tramite fine-tuning supervisionato (SFT) e apprendimento rinforzato con feedback umano (RLHF) per aumentarne l'utilità e la sicurezza. La sua versione ottimizzata per le istruzioni è progettata per dialoghi multilingue, superando molti modelli di chat open source e chiusi in vari benchmark di settore. La data di conoscenza è dicembre 2023."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "Modello di inferenza completamente sviluppato internamente. Leader mondiale: 80K catene di pensiero x 1M input, prestazioni paragonabili ai migliori modelli internazionali."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "Nella serie di modelli MiniMax-01, abbiamo fatto un'innovazione audace: per la prima volta abbiamo implementato su larga scala un meccanismo di attenzione lineare, rendendo l'architettura Transformer tradizionale non più l'unica opzione. Questo modello ha un numero di parametri che raggiunge i 456 miliardi, con un'attivazione singola di 45,9 miliardi. Le prestazioni complessive del modello sono paragonabili a quelle dei migliori modelli internazionali, mentre è in grado di gestire in modo efficiente contesti globali lunghi fino a 4 milioni di token, 32 volte rispetto a GPT-4o e 20 volte rispetto a Claude-3.5-Sonnet."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 è un modello di inferenza a grande scala con pesi open source e attenzione mista, con 456 miliardi di parametri, di cui circa 45,9 miliardi attivati per ogni token. Il modello supporta nativamente un contesto ultra-lungo di 1 milione di token e, grazie al meccanismo di attenzione lampo, riduce del 75% il carico computazionale in operazioni floating point rispetto a DeepSeek R1 in compiti di generazione con 100.000 token. Inoltre, MiniMax-M1 adotta un'architettura MoE (Mixture of Experts), combinando l'algoritmo CISPO e un design di attenzione mista per un addestramento efficiente tramite apprendimento rinforzato, raggiungendo prestazioni leader nel settore per inferenze con input lunghi e scenari reali di ingegneria software."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) è un modello di istruzioni ad alta precisione, adatto per calcoli complessi."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Gemini 2.0 Flash modello di anteprima, supporta la generazione di immagini"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash è il modello Google con il miglior rapporto qualità-prezzo, offrendo funzionalità complete."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview è il modello Google più piccolo e con il miglior rapporto qualità-prezzo, progettato per un utilizzo su larga scala."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview è il modello più conveniente di Google, che offre funzionalità complete."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview è il modello Google con il miglior rapporto qualità-prezzo, che offre funzionalità complete."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro è il modello di pensiero più avanzato di Google, capace di ragionare su codice, matematica e problemi complessi nei campi STEM, oltre a utilizzare contesti lunghi per analizzare grandi dataset, codebase e documenti."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi in codice, matematica e nei campi STEM, e di analizzare grandi set di dati, codebase e documenti utilizzando contesti lunghi."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3は、Llamaシリーズの最先端の多言語オープンソース大規模言語モデルで、非常に低コストで405Bモデルに匹敵する性能を体験できます。Transformer構造に基づき、監視付き微調整(SFT)と人間のフィードバックによる強化学習(RLHF)を通じて有用性と安全性を向上させています。その指示調整バージョンは多言語対話に最適化されており、さまざまな業界のベンチマークで多くのオープンソースおよびクローズドチャットモデルを上回る性能を発揮します。知識のカットオフ日は2023年12月です。"
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "新たに自社開発された推論モデル。世界最先端:80Kの思考チェーン×1Mの入力で、海外のトップモデルに匹敵する性能を実現。"
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "MiniMax-01シリーズモデルでは、大胆な革新を行いました:初めて大規模に線形注意メカニズムを実現し、従来のTransformerアーキテクチャが唯一の選択肢ではなくなりました。このモデルのパラメータ数は4560億に達し、単回のアクティベーションは459億です。モデルの総合性能は海外のトップモデルに匹敵し、世界最長の400万トークンのコンテキストを効率的に処理でき、GPT-4oの32倍、Claude-3.5-Sonnetの20倍です。"
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1はオープンソースの重みを持つ大規模混合注意力推論モデルで、4560億のパラメータを有し、各トークンで約459億のパラメータが活性化されます。モデルは100万トークンの超長文コンテキストをネイティブにサポートし、ライトニングアテンション機構により10万トークンの生成タスクでDeepSeek R1と比べて75%の浮動小数点演算量を削減します。また、MiniMax-M1はMoE(混合エキスパート)アーキテクチャを採用し、CISPOアルゴリズムと混合注意力設計による効率的な強化学習トレーニングを組み合わせ、長文入力推論および実際のソフトウェア工学シナリオで業界最高の性能を実現しています。"
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)は、高精度の指示モデルであり、複雑な計算に適しています。"
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Gemini 2.0 Flash プレビュー モデル、画像生成をサポート"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 FlashはGoogleのコストパフォーマンスに優れたモデルで、包括的な機能を提供します。"
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite PreviewはGoogleの最小かつコストパフォーマンスに優れたモデルで、大規模利用を目的に設計されています。"
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Previewは、Googleのコストパフォーマンスに優れたモデルで、包括的な機能を提供します。"
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash PreviewはGoogleのコストパフォーマンスに優れたモデルで、包括的な機能を提供します。"
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 ProはGoogleの最先端思考モデルで、コード、数学、STEM分野の複雑な問題の推論が可能であり、長文コンテキストを用いて大規模データセット、コードベース、ドキュメントの分析を行います。"
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimentalは、Googleの最先端の思考モデルであり、コード、数学、STEM分野の複雑な問題に対して推論を行うことができ、長いコンテキストを利用して大規模なデータセット、コードベース、文書を分析します。"
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3은 Llama 시리즈에서 가장 진보된 다국어 오픈 소스 대형 언어 모델로, 매우 낮은 비용으로 405B 모델의 성능을 경험할 수 있습니다. Transformer 구조를 기반으로 하며, 감독 미세 조정(SFT)과 인간 피드백 강화 학습(RLHF)을 통해 유용성과 안전성을 향상시켰습니다. 그 지시 조정 버전은 다국어 대화를 위해 최적화되어 있으며, 여러 산업 기준에서 많은 오픈 소스 및 폐쇄형 채팅 모델보다 우수한 성능을 보입니다. 지식 마감일은 2023년 12월입니다."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "완전히 새로 개발된 추론 모델입니다. 세계 최고 수준: 80K 사고 체인 x 1M 입력, 해외 최상위 모델과 견줄 만한 성능을 자랑합니다."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "MiniMax-01 시리즈 모델에서는 대담한 혁신을 이루었습니다: 대규모로 선형 주의 메커니즘을 처음으로 구현하였으며, 전통적인 Transformer 아키텍처가 더 이상 유일한 선택이 아닙니다. 이 모델의 파라미터 수는 4560억에 달하며, 단일 활성화는 45.9억입니다. 모델의 종합 성능은 해외 최고의 모델과 견줄 수 있으며, 전 세계에서 가장 긴 400만 토큰의 문맥을 효율적으로 처리할 수 있습니다. 이는 GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1은 오픈 소스 가중치를 가진 대규모 혼합 주의 추론 모델로, 4,560억 개의 파라미터를 보유하고 있으며, 각 토큰당 약 459억 개의 파라미터가 활성화됩니다. 모델은 100만 토큰의 초장기 문맥을 원활히 지원하며, 번개 주의 메커니즘을 통해 10만 토큰 생성 작업에서 DeepSeek R1 대비 75%의 부동 소수점 연산량을 절감합니다. 또한 MiniMax-M1은 MoE(혼합 전문가) 아키텍처를 채택하고, CISPO 알고리즘과 혼합 주의 설계가 결합된 효율적인 강화 학습 훈련을 통해 긴 입력 추론과 실제 소프트웨어 엔지니어링 환경에서 업계 선도적인 성능을 구현합니다."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)는 고정밀 지시 모델로, 복잡한 계산에 적합합니다."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Gemini 2.0 Flash 미리보기 모델로, 이미지 생성을 지원합니다."
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash는 구글에서 가장 가성비가 뛰어난 모델로, 포괄적인 기능을 제공합니다."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview는 구글의 가장 작고 가성비가 뛰어난 모델로, 대규모 사용을 위해 설계되었습니다."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview는 Google의 가장 가성비 높은 모델로, 포괄적인 기능을 제공합니다."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview는 Google의 최고의 가성비 모델로, 포괄적인 기능을 제공합니다."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro는 구글의 최첨단 사고 모델로, 코드, 수학 및 STEM 분야의 복잡한 문제를 추론할 수 있으며, 긴 문맥을 활용해 대규모 데이터셋, 코드베이스 및 문서를 분석합니다."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental은 Google의 최첨단 사고 모델로, 코드, 수학 및 STEM 분야의 복잡한 문제를 추론할 수 있으며, 긴 문맥을 활용하여 대규모 데이터 세트, 코드베이스 및 문서를 분석할 수 있습니다."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 is het meest geavanceerde meertalige open-source grote taalmiddel in de Llama-serie, dat prestaties biedt die vergelijkbaar zijn met die van een 405B-model tegen zeer lage kosten. Gebaseerd op de Transformer-structuur en verbeterd door middel van supervisie-fijnstelling (SFT) en versterkend leren met menselijke feedback (RLHF) voor nuttigheid en veiligheid. De instructie-geoptimaliseerde versie is speciaal geoptimaliseerd voor meertalige gesprekken en presteert beter dan veel open-source en gesloten chatmodellen op verschillende industriële benchmarks. Kennisafkapdatum is december 2023."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "Een gloednieuw zelfontwikkeld redeneermodel. Wereldwijd toonaangevend: 80K denkpatronen x 1M invoer, prestaties vergelijkbaar met topmodellen uit het buitenland."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "In de MiniMax-01-serie modellen hebben we gedurfde innovaties doorgevoerd: voor het eerst op grote schaal een lineaire aandachtmechanisme geïmplementeerd, waardoor de traditionele Transformer-architectuur niet langer de enige keuze is. Dit model heeft een parameterhoeveelheid van maar liefst 456 miljard, met een enkele activatie van 45,9 miljard. De algehele prestaties van het model zijn vergelijkbaar met die van de beste modellen in het buitenland, terwijl het efficiënt de wereldwijd langste context van 4 miljoen tokens kan verwerken, wat 32 keer de capaciteit van GPT-4o en 20 keer die van Claude-3.5-Sonnet is."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 is een open-source gewichtenschaalmodel met gemengde aandacht, met 456 miljard parameters, waarbij elke token ongeveer 45,9 miljard parameters activeert. Het model ondersteunt native een ultralange context van 1 miljoen tokens en bespaart dankzij het bliksemaandachtmechanisme 75% van de floating-point-bewerkingen bij generatietaken van 100.000 tokens vergeleken met DeepSeek R1. Tegelijkertijd maakt MiniMax-M1 gebruik van een MoE (Mixture of Experts) architectuur, gecombineerd met het CISPO-algoritme en een efficiënt versterkend leermodel met gemengde aandacht, wat leidt tot toonaangevende prestaties bij lange invoerredenering en echte software-engineering scenario's."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) is een hoogprecisie instructiemodel, geschikt voor complexe berekeningen."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Gemini 2.0 Flash previewmodel, ondersteunt beeldgeneratie"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash is het meest kosteneffectieve model van Google en biedt uitgebreide functionaliteiten."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview is het kleinste en meest kosteneffectieve model van Google, speciaal ontworpen voor grootschalig gebruik."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview is het meest kosteneffectieve model van Google, dat uitgebreide functionaliteit biedt."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview is het meest kosteneffectieve model van Google en biedt uitgebreide functionaliteiten."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro is het meest geavanceerde denkmodel van Google, in staat om complexe problemen op het gebied van code, wiskunde en STEM te redeneren, en grote datasets, codebases en documenten te analyseren met lange context."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental is Google's meest geavanceerde denkmodel, dat in staat is om te redeneren over complexe problemen in code, wiskunde en STEM-gebieden, en bovendien gebruik maakt van lange contexten om grote datasets, codebases en documenten te analyseren."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 to najnowocześniejszy wielojęzyczny otwarty model językowy z serii Llama, oferujący wydajność porównywalną z modelem 405B przy bardzo niskich kosztach. Oparty na strukturze Transformer, poprawiony dzięki nadzorowanemu dostrajaniu (SFT) oraz uczeniu ze wzmocnieniem opartym na ludzkiej opinii (RLHF), co zwiększa jego użyteczność i bezpieczeństwo. Jego wersja dostosowana do instrukcji została zoptymalizowana do wielojęzycznych dialogów, osiągając lepsze wyniki niż wiele dostępnych modeli czatu, zarówno otwartych, jak i zamkniętych, w wielu branżowych benchmarkach. Data graniczna wiedzy to grudzień 2023."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "Nowy, samodzielnie opracowany model inferencyjny. Globalny lider: 80K łańcuchów myślowych x 1M wejść, efektywność porównywalna z najlepszymi modelami zagranicznymi."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "W serii modeli MiniMax-01 wprowadziliśmy odważne innowacje: po raz pierwszy na dużą skalę zrealizowano mechanizm liniowej uwagi, tradycyjna architektura Transformera nie jest już jedynym wyborem. Liczba parametrów tego modelu wynosi aż 456 miliardów, z aktywacją wynoszącą 45,9 miliarda. Ogólna wydajność modelu dorównuje najlepszym modelom zagranicznym, jednocześnie efektywnie przetwarzając kontekst o długości do 4 milionów tokenów, co stanowi 32 razy więcej niż GPT-4o i 20 razy więcej niż Claude-3.5-Sonnet."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 to otwartoźródłowy model inferencyjny o dużej skali z mieszanym mechanizmem uwagi, posiadający 456 miliardów parametrów, z których około 45,9 miliarda jest aktywowanych na każdy token. Model natywnie obsługuje ultra-długi kontekst do 1 miliona tokenów i dzięki mechanizmowi błyskawicznej uwagi oszczędza 75% operacji zmiennoprzecinkowych w zadaniach generowania na 100 tysiącach tokenów w porównaniu do DeepSeek R1. Ponadto MiniMax-M1 wykorzystuje architekturę MoE (mieszani eksperci), łącząc algorytm CISPO z efektywnym treningiem wzmacniającym opartym na mieszanej uwadze, osiągając wiodącą w branży wydajność w inferencji długich wejść i rzeczywistych scenariuszach inżynierii oprogramowania."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) to model poleceń o wysokiej precyzji, idealny do złożonych obliczeń."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Model Gemini 2.0 Flash do generowania obrazów, wspierający generację obrazów"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash to najbardziej opłacalny model Google, oferujący wszechstronne funkcje."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview to najmniejszy i najbardziej opłacalny model Google, zaprojektowany z myślą o masowym zastosowaniu."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview to najbardziej opłacalny model Google, oferujący wszechstronne funkcje."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview to najbardziej opłacalny model Google, oferujący wszechstronne funkcje."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro to najnowocześniejszy model myślowy Google, zdolny do rozumowania nad złożonymi problemami w dziedzinach kodowania, matematyki i STEM oraz analizowania dużych zbiorów danych, repozytoriów kodu i dokumentacji przy użyciu długiego kontekstu."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental to najnowocześniejszy model myślenia Google, zdolny do wnioskowania w zakresie kodu, matematyki i złożonych problemów w dziedzinie STEM, a także do analizy dużych zbiorów danych, repozytoriów kodu i dokumentów, wykorzystując długi kontekst."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 é o modelo de linguagem de código aberto multilíngue mais avançado da série Llama, oferecendo desempenho comparável ao modelo de 405B a um custo extremamente baixo. Baseado na estrutura Transformer, e aprimorado por meio de ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para aumentar a utilidade e a segurança. Sua versão ajustada para instruções é otimizada para diálogos multilíngues, superando muitos modelos de chat de código aberto e fechados em vários benchmarks da indústria. A data limite de conhecimento é dezembro de 2023."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "Modelo de inferência totalmente desenvolvido internamente. Líder mundial: 80K cadeias de pensamento x 1M de entradas, desempenho comparável aos melhores modelos internacionais."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "Na série de modelos MiniMax-01, fizemos inovações ousadas: pela primeira vez, implementamos em larga escala um mecanismo de atenção linear, tornando a arquitetura Transformer tradicional não mais a única opção. Este modelo possui um total de 456 bilhões de parâmetros, com 45,9 bilhões ativados em uma única vez. O desempenho geral do modelo é comparável aos melhores modelos internacionais, enquanto lida eficientemente com contextos de até 4 milhões de tokens, 32 vezes mais que o GPT-4o e 20 vezes mais que o Claude-3.5-Sonnet."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 é um modelo de inferência de atenção mista em grande escala com pesos abertos, possuindo 456 bilhões de parâmetros, com cerca de 45,9 bilhões de parâmetros ativados por token. O modelo suporta nativamente contextos ultra longos de 1 milhão de tokens e, graças ao mecanismo de atenção relâmpago, economiza 75% do custo computacional em operações de ponto flutuante em tarefas de geração com 100 mil tokens, em comparação com o DeepSeek R1. Além disso, MiniMax-M1 utiliza a arquitetura MoE (Mistura de Especialistas), combinando o algoritmo CISPO e um design eficiente de atenção mista para treinamento reforçado, alcançando desempenho líder na indústria em inferência de entradas longas e cenários reais de engenharia de software."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) é um modelo de instrução de alta precisão, adequado para cálculos complexos."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Modelo de pré-visualização Gemini 2.0 Flash, suporta geração de imagens"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash é o modelo com melhor custo-benefício do Google, oferecendo funcionalidades abrangentes."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview é o modelo mais compacto e com melhor custo-benefício do Google, projetado para uso em larga escala."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "O Gemini 2.5 Flash Preview é o modelo mais acessível do Google, oferecendo uma gama completa de funcionalidades."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview é o modelo com melhor custo-benefício do Google, oferecendo funcionalidades abrangentes."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas complexos nas áreas de STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando contextos longos."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "O Gemini 2.5 Pro Experimental é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, repositórios de código e documentos utilizando contextos longos."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 — это самая современная многоязычная открытая языковая модель из серии Llama, которая позволяет получить производительность, сопоставимую с 405B моделями, по крайне низкой цене. Основана на структуре Transformer и улучшена с помощью контролируемой донастройки (SFT) и обучения с подкреплением на основе человеческой обратной связи (RLHF) для повышения полезности и безопасности. Ее версия с оптимизацией под инструкции специально разработана для многоязычных диалогов и показывает лучшие результаты по сравнению с многими открытыми и закрытыми чат-моделями на нескольких отраслевых бенчмарках. Дата окончания знаний — декабрь 2023 года."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "Совершенно новая собственная модель вывода. Мировой лидер: 80K цепочек мышления x 1M входов, эффективность сопоставима с ведущими зарубежными моделями."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "В серии моделей MiniMax-01 мы сделали смелые инновации: впервые в крупномасштабном масштабе реализован линейный механизм внимания, традиционная архитектура Transformer больше не является единственным выбором. Объем параметров этой модели достигает 456 миллиардов, из которых 45,9 миллиарда активируются за один раз. Комплексная производительность модели сопоставима с ведущими зарубежными моделями, при этом она может эффективно обрабатывать контекст длиной до 4 миллионов токенов, что в 32 раза больше, чем у GPT-4o, и в 20 раз больше, чем у Claude-3.5-Sonnet."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 — это масштабная модель вывода с гибридным вниманием и открытыми весами, содержащая 456 миллиардов параметров, при этом каждый токен активирует около 45,9 миллиарда параметров. Модель изначально поддерживает сверхдлинный контекст до 1 миллиона токенов и благодаря механизму молниеносного внимания экономит 75% вычислительных операций с плавающей точкой в задачах генерации на 100 тысяч токенов по сравнению с DeepSeek R1. Кроме того, MiniMax-M1 использует архитектуру MoE (смешанные эксперты), сочетая алгоритм CISPO и эффективное обучение с подкреплением с гибридным вниманием, достигая ведущих в отрасли показателей при выводе на длинных входах и в реальных сценариях программной инженерии."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) — это высокоточная модель команд, подходящая для сложных вычислений."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Модель предварительного просмотра Gemini 2.0 Flash, поддерживающая генерацию изображений"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash — самая экономичная модель Google, предоставляющая полный набор функций."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview — самая компактная и экономичная модель Google, разработанная для масштабного использования."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview — это наиболее выгодная модель от Google, предлагающая широкий спектр возможностей."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview — самая экономичная модель Google с полным набором функций."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro — самая передовая модель мышления Google, способная рассуждать над сложными задачами в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы с использованием длинного контекста."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental — это самая современная модель мышления от Google, способная рассуждать о сложных задачах в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы, используя длинный контекст."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3, Llama serisinin en gelişmiş çok dilli açık kaynak büyük dil modelidir ve 405B modelinin performansını çok düşük maliyetle deneyimlemenizi sağlar. Transformer yapısına dayanmaktadır ve yararlılığını ve güvenliğini artırmak için denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) kullanılmıştır. Talimat ayarlı versiyonu çok dilli diyaloglar için optimize edilmiştir ve birçok endüstri kıyaslamasında birçok açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir. Bilgi kesim tarihi 2023 yılı Aralık ayıdır."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "Tamamen kendi geliştirdiğimiz yeni çıkarım modeli. Küresel lider: 80K düşünce zinciri x 1M giriş, performansı uluslararası üst düzey modellerle eşdeğer."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "MiniMax-01 serisi modellerinde cesur yenilikler yaptık: ilk kez büyük ölçekli lineer dikkat mekanizmasını gerçekleştirdik, geleneksel Transformer mimarisi artık tek seçenek değil. Bu modelin parametre sayısı 456 milyara kadar çıkmakta, tek bir aktivasyonda 45.9 milyar. Modelin genel performansı, yurtdışındaki en iyi modellerle karşılaştırılabilirken, dünya genelinde 4 milyon token uzunluğundaki bağlamı verimli bir şekilde işleyebilir, bu da GPT-4o'nun 32 katı, Claude-3.5-Sonnet'in 20 katıdır."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1, açık kaynak ağırlıklı büyük ölçekli karma dikkat çıkarım modeli olup, 456 milyar parametreye sahiptir ve her Token yaklaşık 45.9 milyar parametreyi aktive eder. Model, doğal olarak 1 milyon Token uzunluğunda bağlamı destekler ve şimşek dikkat mekanizması sayesinde 100 bin Token üretim görevlerinde DeepSeek R1'e kıyasla %75 daha az kayan nokta işlemi kullanır. Ayrıca, MiniMax-M1 MoE (karışık uzman) mimarisini, CISPO algoritması ve karma dikkat tasarımı ile verimli pekiştirmeli öğrenme eğitimiyle birleştirerek uzun giriş çıkarımı ve gerçek yazılım mühendisliği senaryolarında sektör lideri performans sunar."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B), karmaşık hesaplamalar için yüksek hassasiyetli bir talimat modelidir."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Gemini 2.0 Flash önizleme modeli, görüntü üretimini destekler."
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash, Google'ın en yüksek maliyet-performans modelidir ve kapsamlı özellikler sunar."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Önizlemesi, Google'ın en küçük ve en yüksek maliyet-performans modelidir ve büyük ölçekli kullanım için tasarlanmıştır."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Önizleme, Google'ın en iyi fiyat-performans oranına sahip modelidir ve kapsamlı özellikler sunar."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Önizleme, Google'ın en yüksek maliyet-performans modelidir ve kapsamlı özellikler sunar."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro, Google'ın en gelişmiş düşünce modelidir; kodlama, matematik ve STEM alanlarındaki karmaşık problemleri çıkarım yapabilir ve uzun bağlam kullanarak büyük veri setleri, kod tabanları ve belgeleri analiz edebilir."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Deneysel, Google'ın en gelişmiş düşünce modeli olup, kod, matematik ve STEM alanlarındaki karmaşık sorunları akıl yürütebilmektedir. Ayrıca, uzun bağlamları kullanarak büyük veri setlerini, kod havuzlarını ve belgeleri analiz edebilir."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 là mô hình ngôn ngữ lớn mã nguồn mở đa ngôn ngữ tiên tiến nhất trong dòng Llama, mang đến trải nghiệm hiệu suất tương đương mô hình 405B với chi phí cực thấp. Dựa trên cấu trúc Transformer, và được cải thiện tính hữu ích và an toàn thông qua tinh chỉnh giám sát (SFT) và học tăng cường từ phản hồi của con người (RLHF). Phiên bản tinh chỉnh theo chỉ dẫn của nó được tối ưu hóa cho các cuộc đối thoại đa ngôn ngữ, thể hiện tốt hơn nhiều mô hình trò chuyện mã nguồn mở và đóng trong nhiều tiêu chuẩn ngành. Ngày cắt đứt kiến thức là tháng 12 năm 2023."
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "Mô hình suy luận tự phát triển hoàn toàn mới. Dẫn đầu toàn cầu: 80K chuỗi tư duy x 1 triệu đầu vào, hiệu quả sánh ngang các mô hình hàng đầu quốc tế."
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "Trong dòng mô hình MiniMax-01, chúng tôi đã thực hiện những đổi mới táo bạo: lần đầu tiên hiện thực hóa quy mô lớn cơ chế chú ý tuyến tính, kiến trúc Transformer truyền thống không còn là lựa chọn duy nhất. Mô hình này có số lượng tham số lên tới 4560 tỷ, trong đó kích hoạt một lần là 45,9 tỷ. Hiệu suất tổng hợp của mô hình tương đương với các mô hình hàng đầu quốc tế, đồng thời có khả năng xử lý hiệu quả ngữ cảnh dài nhất toàn cầu lên tới 4 triệu token, gấp 32 lần GPT-4o và 20 lần Claude-3.5-Sonnet."
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 là mô hình suy luận chú ý hỗn hợp quy mô lớn với trọng số mã nguồn mở, sở hữu 456 tỷ 600 triệu tham số, mỗi Token có thể kích hoạt khoảng 45,9 tỷ tham số. Mô hình hỗ trợ ngữ cảnh siêu dài lên đến 1 triệu Token một cách nguyên bản, và thông qua cơ chế chú ý chớp nhoáng, trong các tác vụ sinh 100.000 Token tiết kiệm 75% lượng phép tính dấu chấm động so với DeepSeek R1. Đồng thời, MiniMax-M1 áp dụng kiến trúc MoE (chuyên gia hỗn hợp), kết hợp thuật toán CISPO và thiết kế chú ý hỗn hợp trong huấn luyện tăng cường hiệu quả, đạt hiệu suất hàng đầu trong ngành khi suy luận đầu vào dài và các kịch bản kỹ thuật phần mềm thực tế."
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) là mô hình chỉ dẫn chính xác cao, phù hợp cho tính toán phức tạp."
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Mô hình xem trước Gemini 2.0 Flash, hỗ trợ tạo hình ảnh"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash là mô hình có hiệu suất chi phí tốt nhất của Google, cung cấp đầy đủ các chức năng."
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview là mô hình nhỏ nhất và có hiệu suất chi phí tốt nhất của Google, được thiết kế dành cho sử dụng quy mô lớn."
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview là mô hình có giá trị tốt nhất của Google, cung cấp đầy đủ các tính năng."
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview là mô hình có hiệu suất chi phí tốt nhất của Google, cung cấp các tính năng toàn diện."
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận các vấn đề phức tạp trong lĩnh vực mã nguồn, toán học và STEM, cũng như phân tích các bộ dữ liệu lớn, kho mã và tài liệu bằng ngữ cảnh dài."
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận về mã, toán học và các vấn đề phức tạp trong lĩnh vực STEM, đồng thời có thể phân tích các tập dữ liệu lớn, kho mã và tài liệu bằng cách sử dụng ngữ cảnh dài."
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月"
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "全新自研推理模型。全球领先:80K思维链 x 1M输入,效果比肩海外顶尖模型。"
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "在 MiniMax-01系列模型中,我们做了大胆创新:首次大规模实现线性注意力机制,传统 Transformer架构不再是唯一的选择。这个模型的参数量高达4560亿,其中单次激活459亿。模型综合性能比肩海外顶尖模型,同时能够高效处理全球最长400万token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。"
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 是开源权重的大规模混合注意力推理模型,拥有 4560 亿参数,每个 Token 可激活约 459 亿参数。模型原生支持 100 万 Token 的超长上下文,并通过闪电注意力机制,在 10 万 Token 的生成任务中相比 DeepSeek R1 节省 75% 的浮点运算量。同时,MiniMax-M1 采用 MoE(混合专家)架构,结合 CISPO 算法与混合注意力设计的高效强化学习训练,在长输入推理与真实软件工程场景中实现了业界领先的性能。"
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,适用于复杂计算。"
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Gemini 2.0 Flash 预览模型,支持图像生成"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash 是 Google 性价比最高的模型,提供全面的功能。"
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview 是 Google 最小、性价比最高的模型,专为大规模使用而设计。"
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview 是 Google 性价比最高的模型,提供全面的功能。"
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview 是 Google 性价比最高的模型,提供全面的功能。"
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,以及使用长上下文分析大型数据集、代码库和文档。"
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro Experimental 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,以及使用长上下文分析大型数据集、代码库和文档。"
1072
1087
  },
@@ -176,9 +176,15 @@
176
176
  "Meta-Llama-3.3-70B-Instruct": {
177
177
  "description": "Llama 3.3 是 Llama 系列最先進的多語言開源大型語言模型,以極低成本體驗媲美 405B 模型的性能。基於 Transformer 結構,並透過監督微調(SFT)和人類反饋強化學習(RLHF)提升有用性和安全性。其指令調優版本專為多語言對話優化,在多項行業基準上表現優於眾多開源和封閉聊天模型。知識截止日期為 2023 年 12 月"
178
178
  },
179
+ "MiniMax-M1": {
180
+ "description": "全新自研推理模型。全球領先:80K思維鏈 x 1M輸入,效果比肩海外頂尖模型。"
181
+ },
179
182
  "MiniMax-Text-01": {
180
183
  "description": "在 MiniMax-01系列模型中,我們做了大膽創新:首次大規模實現線性注意力機制,傳統 Transformer架構不再是唯一的選擇。這個模型的參數量高達4560億,其中單次激活459億。模型綜合性能比肩海外頂尖模型,同時能夠高效處理全球最長400萬token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。"
181
184
  },
185
+ "MiniMaxAI/MiniMax-M1-80k": {
186
+ "description": "MiniMax-M1 是開源權重的大規模混合注意力推理模型,擁有 4560 億參數,每個 Token 可激活約 459 億參數。模型原生支援 100 萬 Token 的超長上下文,並透過閃電注意力機制,在 10 萬 Token 的生成任務中相比 DeepSeek R1 節省 75% 的浮點運算量。同時,MiniMax-M1 採用 MoE(混合專家)架構,結合 CISPO 演算法與混合注意力設計的高效強化學習訓練,在長輸入推理與真實軟體工程場景中實現了業界領先的性能。"
187
+ },
182
188
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
183
189
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,適用於複雜計算。"
184
190
  },
@@ -1058,6 +1064,12 @@
1058
1064
  "gemini-2.0-flash-preview-image-generation": {
1059
1065
  "description": "Gemini 2.0 Flash 預覽模型,支持圖像生成"
1060
1066
  },
1067
+ "gemini-2.5-flash": {
1068
+ "description": "Gemini 2.5 Flash 是 Google 性價比最高的模型,提供全面的功能。"
1069
+ },
1070
+ "gemini-2.5-flash-lite-preview-06-17": {
1071
+ "description": "Gemini 2.5 Flash-Lite Preview 是 Google 最小、性價比最高的模型,專為大規模使用而設計。"
1072
+ },
1061
1073
  "gemini-2.5-flash-preview-04-17": {
1062
1074
  "description": "Gemini 2.5 Flash Preview 是 Google 性價比最高的模型,提供全面的功能。"
1063
1075
  },
@@ -1067,6 +1079,9 @@
1067
1079
  "gemini-2.5-flash-preview-05-20": {
1068
1080
  "description": "Gemini 2.5 Flash Preview 是 Google 性價比最高的模型,提供全面的功能。"
1069
1081
  },
1082
+ "gemini-2.5-pro": {
1083
+ "description": "Gemini 2.5 Pro 是 Google 最先進的思維模型,能夠對程式碼、數學和 STEM 領域的複雜問題進行推理,以及使用長上下文分析大型資料集、程式碼庫和文件。"
1084
+ },
1070
1085
  "gemini-2.5-pro-exp-03-25": {
1071
1086
  "description": "Gemini 2.5 Pro 實驗版是 Google 最先進的思維模型,能夠對代碼、數學和 STEM 領域的複雜問題進行推理,還能利用長上下文來分析大型數據集、代碼庫和文檔。"
1072
1087
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.94.13",
3
+ "version": "1.94.14",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",