@lobehub/lobehub 2.1.25 → 2.1.26
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v2.json +9 -0
- package/locales/bg-BG/models.json +44 -0
- package/locales/fr-FR/models.json +58 -0
- package/locales/it-IT/models.json +47 -0
- package/locales/pl-PL/models.json +47 -0
- package/locales/ru-RU/models.json +73 -0
- package/locales/tr-TR/models.json +42 -1
- package/locales/vi-VN/models.json +2 -0
- package/package.json +1 -1
package/CHANGELOG.md
CHANGED
|
@@ -2,6 +2,31 @@
|
|
|
2
2
|
|
|
3
3
|
# Changelog
|
|
4
4
|
|
|
5
|
+
### [Version 2.1.26](https://github.com/lobehub/lobe-chat/compare/v2.1.25...v2.1.26)
|
|
6
|
+
|
|
7
|
+
<sup>Released on **2026-02-10**</sup>
|
|
8
|
+
|
|
9
|
+
#### 💄 Styles
|
|
10
|
+
|
|
11
|
+
- **misc**: Update i18n.
|
|
12
|
+
|
|
13
|
+
<br/>
|
|
14
|
+
|
|
15
|
+
<details>
|
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
17
|
+
|
|
18
|
+
#### Styles
|
|
19
|
+
|
|
20
|
+
- **misc**: Update i18n, closes [#12227](https://github.com/lobehub/lobe-chat/issues/12227) ([37b06c4](https://github.com/lobehub/lobe-chat/commit/37b06c4))
|
|
21
|
+
|
|
22
|
+
</details>
|
|
23
|
+
|
|
24
|
+
<div align="right">
|
|
25
|
+
|
|
26
|
+
[](#readme-top)
|
|
27
|
+
|
|
28
|
+
</div>
|
|
29
|
+
|
|
5
30
|
### [Version 2.1.25](https://github.com/lobehub/lobe-chat/compare/v2.1.24...v2.1.25)
|
|
6
31
|
|
|
7
32
|
<sup>Released on **2026-02-09**</sup>
|
package/changelog/v2.json
CHANGED
|
@@ -358,6 +358,7 @@
|
|
|
358
358
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
|
359
359
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
|
360
360
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
|
|
361
|
+
"deepseek-chat.description": "Нов отворен модел, съчетаващ общи и програмни способности. Съхранява общия диалогов капацитет на чат модела и силните програмни умения на кодиращия модел, с по-добро съответствие с предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.",
|
|
361
362
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
|
|
362
363
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
|
363
364
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
|
@@ -380,6 +381,7 @@
|
|
|
380
381
|
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
|
|
381
382
|
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
|
|
382
383
|
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
|
|
384
|
+
"deepseek-reasoner.description": "Режимът на мислене DeepSeek V3.2 извежда верига от мисли преди крайния отговор за повишена точност.",
|
|
383
385
|
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
|
|
384
386
|
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
|
|
385
387
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
|
|
@@ -469,6 +471,7 @@
|
|
|
469
471
|
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K е модел с висока едновременност и висока стойност за мащабни онлайн услуги и корпоративни приложения.",
|
|
470
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
|
|
471
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с висока степен на контрол и качество. Генерира изображения от текстови подсказки.",
|
|
472
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
|
|
473
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
|
|
474
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
|
|
@@ -476,6 +479,8 @@
|
|
|
476
479
|
"fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
|
|
477
480
|
"fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
|
|
478
481
|
"fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, който поддържа семантични и визуални редакции, прецизно редактира китайски и английски текст и позволява висококачествени трансформации като смяна на стил и завъртане на обекти.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с впечатляващо визуализиране на китайски текст и разнообразни визуални стилове.",
|
|
479
484
|
"flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 1–4 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
|
|
480
485
|
"flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
|
|
481
486
|
"flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
|
|
@@ -520,6 +525,7 @@
|
|
|
520
525
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
|
|
521
526
|
"gemini-3-flash-preview.description": "Gemini 3 Flash е най-интелигентният модел, създаден за скорост, съчетаващ авангардна интелигентност с отлично търсене и обоснованост.",
|
|
522
527
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)е модел на Google за генериране на изображения, който също така поддържа мултимодален диалог.",
|
|
528
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения, който също поддържа мултимодален чат.",
|
|
523
529
|
"gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.",
|
|
524
530
|
"gemini-flash-latest.description": "Най-новата версия на Gemini Flash",
|
|
525
531
|
"gemini-flash-lite-latest.description": "Най-новата версия на Gemini Flash-Lite",
|
|
@@ -735,6 +741,44 @@
|
|
|
735
741
|
"irag-1.0.description": "ERNIE iRAG е модел за генериране, подсилен с извличане на изображения, предназначен за търсене на изображения, визуално-текстово извличане и създаване на съдържание.",
|
|
736
742
|
"jamba-large.description": "Нашият най-мощен и напреднал модел, създаден за комплексни корпоративни задачи с изключителна производителност.",
|
|
737
743
|
"jamba-mini.description": "Най-ефективният модел в своя клас, балансиращ скорост и качество с малък отпечатък.",
|
|
744
|
+
"jina-deepsearch-v1.description": "DeepSearch комбинира уеб търсене, четене и разсъждение за задълбочени изследвания. Представете си го като агент, който поема вашата изследователска задача, извършва широки търсения с множество итерации и едва след това предоставя отговор. Процесът включва непрекъснато проучване, разсъждение и многопластово решаване на проблеми, коренно различен от стандартните LLM, които отговарят въз основа на предварително обучение или традиционни RAG системи, разчитащи на еднократно повърхностно търсене.",
|
|
745
|
+
"kimi-k2-0711-preview.description": "kimi-k2 е MoE базов модел с мощни способности за програмиране и агентни задачи (1T общи параметри, 32B активни), надминаващ други водещи отворени модели в области като разсъждение, програмиране, математика и агентни бенчмаркове.",
|
|
746
|
+
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview предлага прозорец на контекста от 256k, по-силно агентно програмиране, по-добро качество на front-end код и подобрено разбиране на контекста.",
|
|
747
|
+
"kimi-k2-instruct.description": "Kimi K2 Instruct е официалният модел за разсъждение на Kimi с дълъг контекст за код, въпроси и отговори и други.",
|
|
748
|
+
"kimi-k2-thinking-turbo.description": "Високоскоростен вариант на K2 с дълбоко мислене, 256k контекст, силно дълбоко разсъждение и скорост на изход от 60–100 токена/сек.",
|
|
749
|
+
"kimi-k2-thinking.description": "kimi-k2-thinking е мисловен модел на Moonshot AI с общи агентни и разсъждателни способности. Отличава се с дълбоко разсъждение и може да решава трудни задачи чрез многостъпкова употреба на инструменти.",
|
|
750
|
+
"kimi-k2-turbo-preview.description": "kimi-k2 е MoE базов модел с мощни способности за програмиране и агентни задачи (1T общи параметри, 32B активни), надминаващ други водещи отворени модели в области като разсъждение, програмиране, математика и агентни бенчмаркове.",
|
|
751
|
+
"kimi-k2.5.description": "Kimi K2.5 е най-способният модел на Kimi, предоставящ водещи резултати с отворен код в агентни задачи, програмиране и визуално разбиране. Поддържа мултимодални входове и режими с и без мислене.",
|
|
752
|
+
"kimi-k2.description": "Kimi-K2 е MoE базов модел от Moonshot AI с мощни способности за програмиране и агентни задачи, с общо 1T параметри и 32B активни. В бенчмаркове за общо разсъждение, програмиране, математика и агентни задачи надминава други водещи отворени модели.",
|
|
753
|
+
"kimi-k2:1t.description": "Kimi K2 е голям MoE LLM от Moonshot AI с 1T общи параметри и 32B активни на всяко преминаване. Оптимизиран е за агентни способности, включително напреднало използване на инструменти, разсъждение и синтез на код.",
|
|
754
|
+
"kimi-latest.description": "Kimi Latest използва най-новия модел на Kimi и може да включва експериментални функции. Поддържа разбиране на изображения и автоматично избира модели за таксуване 8k/32k/128k според дължината на контекста.",
|
|
755
|
+
"kuaishou/kat-coder-pro-v1.description": "KAT-Coder-Pro-V1 (ограничено безплатен) се фокусира върху разбиране на код и автоматизация за ефективни кодиращи агенти.",
|
|
756
|
+
"learnlm-1.5-pro-experimental.description": "LearnLM е експериментален, задачно-ориентиран модел, обучен според принципите на науката за учене, за да следва системни инструкции в образователни сценарии, действайки като експертен преподавател.",
|
|
757
|
+
"learnlm-2.0-flash-experimental.description": "LearnLM е експериментален, задачно-ориентиран модел, обучен според принципите на науката за учене, за да следва системни инструкции в образователни сценарии, действайки като експертен преподавател.",
|
|
758
|
+
"lite.description": "Spark Lite е лек LLM с ултраниска латентност и ефективна обработка. Напълно безплатен е и поддържа търсене в реално време в уеб. Бързите му отговори се представят добре на устройства с ниска изчислителна мощност и при фина настройка на модели, осигурявайки висока ефективност на разходите и интелигентно изживяване, особено за въпроси и отговори, генериране на съдържание и търсене.",
|
|
759
|
+
"llama-3.1-70b-versatile.description": "Llama 3.1 70B предоставя по-силно AI разсъждение за сложни приложения, поддържайки тежки изчисления с висока ефективност и точност.",
|
|
760
|
+
"llama-3.1-8b-instant.description": "Llama 3.1 8B е високоефективен модел с бързо генериране на текст, идеален за мащабни, икономични приложения.",
|
|
761
|
+
"llama-3.1-instruct.description": "Llama 3.1, настроен за инструкции, е оптимизиран за чат и надминава много отворени чат модели в общи индустриални бенчмаркове.",
|
|
762
|
+
"llama-3.2-11b-vision-instruct.description": "Силно визуално разсъждение върху изображения с висока резолюция, подходящо за приложения за визуално разбиране.",
|
|
763
|
+
"llama-3.2-11b-vision-preview.description": "Llama 3.2 е проектиран за задачи, съчетаващи визия и текст, отличаващ се в надписи на изображения и визуални въпроси и отговори, свързващ езиковото генериране и визуалното разсъждение.",
|
|
764
|
+
"llama-3.2-90b-vision-instruct.description": "Разширено визуално разсъждение за приложения с агенти за визуално разбиране.",
|
|
765
|
+
"llama-3.2-90b-vision-preview.description": "Llama 3.2 е проектиран за задачи, съчетаващи визия и текст, отличаващ се в надписи на изображения и визуални въпроси и отговори, свързващ езиковото генериране и визуалното разсъждение.",
|
|
766
|
+
"llama-3.2-vision-instruct.description": "Llama 3.2-Vision, настроен за инструкции, е оптимизиран за визуално разпознаване, визуално разсъждение, надписи и общи въпроси и отговори върху изображения.",
|
|
767
|
+
"llama-3.3-70b-versatile.description": "Meta Llama 3.3 е многоезичен LLM с 70B параметри (текст вход/изход), предлагащ предварително обучени и настроени за инструкции варианти. Текстовият модел, настроен за инструкции, е оптимизиран за многоезичен диалог и надминава много отворени и затворени чат модели в общи индустриални бенчмаркове.",
|
|
768
|
+
"llama-3.3-70b.description": "Llama 3.3 70B: среден до голям модел от серията Llama, балансиращ между разсъждение и производителност.",
|
|
769
|
+
"llama-3.3-instruct.description": "Llama 3.3, настроен за инструкции, е оптимизиран за чат и надминава много отворени чат модели в общи индустриални бенчмаркове.",
|
|
770
|
+
"llama3-70b-8192.description": "Meta Llama 3 70B предлага изключителна способност за справяне със сложност за взискателни проекти.",
|
|
771
|
+
"llama3-8b-8192.description": "Meta Llama 3 8B осигурява силно разсъждение за разнообразни сценарии.",
|
|
772
|
+
"llama3-groq-70b-8192-tool-use-preview.description": "Llama 3 Groq 70B Tool Use предоставя силно извикване на инструменти за ефективно справяне със сложни задачи.",
|
|
773
|
+
"llama3-groq-8b-8192-tool-use-preview.description": "Llama 3 Groq 8B Tool Use е оптимизиран за ефективно използване на инструменти с бързи паралелни изчисления.",
|
|
774
|
+
"llama3.1-8b.description": "Llama 3.1 8B: малък, с ниска латентност вариант на Llama за леки онлайн изводи и чат.",
|
|
775
|
+
"llama3.1.description": "Llama 3.1 е водещият модел на Meta, мащабиран до 405B параметри за сложен диалог, многоезичен превод и анализ на данни.",
|
|
776
|
+
"llama3.1:405b.description": "Llama 3.1 е водещият модел на Meta, мащабиран до 405B параметри за сложен диалог, многоезичен превод и анализ на данни.",
|
|
777
|
+
"llama3.1:70b.description": "Llama 3.1 е водещият модел на Meta, мащабиран до 405B параметри за сложен диалог, многоезичен превод и анализ на данни.",
|
|
778
|
+
"llava-v1.5-7b-4096-preview.description": "LLaVA 1.5 7B съчетава визуална обработка за генериране на сложни изходи от визуални входове.",
|
|
779
|
+
"llava.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
|
|
780
|
+
"llava:13b.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
|
|
781
|
+
"llava:34b.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
|
|
738
782
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
|
|
739
783
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
|
|
740
784
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
|
|
@@ -891,6 +891,12 @@
|
|
|
891
891
|
"mistral/mistral-embed.description": "Un modèle général d’embedding de texte pour la recherche sémantique, la similarité, le clustering et les flux de travail RAG.",
|
|
892
892
|
"mistral/mistral-large.description": "Mistral Large est idéal pour les tâches complexes nécessitant un raisonnement poussé ou une spécialisation — génération de texte synthétique, génération de code, RAG ou agents.",
|
|
893
893
|
"mistral/mistral-small.description": "Mistral Small est idéal pour les tâches simples et groupables comme la classification, le support client ou la génération de texte, offrant d’excellentes performances à un prix abordable.",
|
|
894
|
+
"mistral/mixtral-8x22b-instruct.description": "Modèle Instruct 8x22B. 8x22B est un modèle MoE ouvert proposé par Mistral.",
|
|
895
|
+
"mistral/pixtral-12b.description": "Un modèle 12B combinant compréhension d’images et texte.",
|
|
896
|
+
"mistral/pixtral-large.description": "Pixtral Large est le deuxième modèle de notre gamme multimodale, avec une compréhension d’image de pointe. Il gère les documents, graphiques et images naturelles tout en conservant l’excellente compréhension textuelle de Mistral Large 2.",
|
|
897
|
+
"mistralai/Mistral-7B-Instruct-v0.1.description": "Mistral (7B) Instruct est reconnu pour ses performances solides sur de nombreuses tâches linguistiques.",
|
|
898
|
+
"mistralai/Mistral-7B-Instruct-v0.2.description": "Mistral (7B) Instruct v0.2 améliore la gestion des instructions et la précision des résultats.",
|
|
899
|
+
"mistralai/Mistral-7B-Instruct-v0.3.description": "Mistral (7B) Instruct v0.3 offre un calcul efficace et une compréhension linguistique robuste pour de nombreux cas d’usage.",
|
|
894
900
|
"mistralai/Mistral-7B-v0.1.description": "Mistral 7B est un modèle compact mais performant, idéal pour le traitement par lots et les tâches simples comme la classification et la génération de texte, avec un raisonnement solide.",
|
|
895
901
|
"mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct (141B) est un très grand modèle de langage conçu pour les charges de travail intensives.",
|
|
896
902
|
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46,7B) offre une grande capacité pour le traitement de données à grande échelle.",
|
|
@@ -921,6 +927,58 @@
|
|
|
921
927
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B est un LLM personnalisé par NVIDIA pour améliorer l’utilité. Il obtient d’excellents résultats sur Arena Hard, AlpacaEval 2 LC et GPT-4-Turbo MT-Bench, se classant n°1 sur les trois benchmarks d’alignement automatique au 1er octobre 2024. Il est entraîné à partir de Llama-3.1-70B-Instruct avec RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward et des invites HelpSteer2-Preference.",
|
|
922
928
|
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Un modèle de langage distinctif offrant une précision et une efficacité exceptionnelles.",
|
|
923
929
|
"nvidia/llama-3.1-nemotron-70b-instruct.description": "Llama-3.1-Nemotron-70B-Instruct est un modèle personnalisé par NVIDIA conçu pour améliorer l’utilité des réponses des LLM.",
|
|
930
|
+
"o1-mini.description": "Plus petit et plus rapide que o1-preview, avec un coût réduit de 80 %, performant en génération de code et sur les tâches à contexte court.",
|
|
931
|
+
"o1-preview.description": "Axé sur le raisonnement avancé et la résolution de problèmes complexes, notamment en mathématiques et en sciences. Idéal pour les applications nécessitant une compréhension approfondie du contexte et des flux de travail autonomes.",
|
|
932
|
+
"o1-pro.description": "La série o1 est entraînée par apprentissage par renforcement pour réfléchir avant de répondre et gérer un raisonnement complexe. o1-pro utilise plus de ressources pour une réflexion approfondie et des réponses de qualité constante.",
|
|
933
|
+
"o1.description": "o1 est le nouveau modèle de raisonnement d’OpenAI avec entrée texte + image et sortie texte, adapté aux tâches complexes nécessitant une vaste base de connaissances. Il dispose d’une fenêtre de contexte de 200K et d’une base de connaissances arrêtée en octobre 2023.",
|
|
934
|
+
"o3-2025-04-16.description": "o3 est le nouveau modèle de raisonnement d’OpenAI avec entrée texte + image et sortie texte, conçu pour les tâches complexes nécessitant une large base de connaissances.",
|
|
935
|
+
"o3-deep-research.description": "o3-deep-research est notre modèle de recherche avancée le plus performant pour les tâches complexes en plusieurs étapes. Il peut effectuer des recherches sur le web et accéder à vos données via les connecteurs MCP.",
|
|
936
|
+
"o3-mini.description": "o3-mini est notre dernier modèle de raisonnement compact, offrant une intelligence supérieure tout en conservant les mêmes coûts et latences que o1-mini.",
|
|
937
|
+
"o3-pro-2025-06-10.description": "o3 Pro est le nouveau modèle de raisonnement d’OpenAI avec entrée texte + image et sortie texte, conçu pour les tâches complexes nécessitant une vaste base de connaissances.",
|
|
938
|
+
"o3-pro.description": "o3-pro utilise davantage de ressources pour une réflexion plus poussée et fournit des réponses de meilleure qualité de manière constante ; disponible uniquement via l’API Responses.",
|
|
939
|
+
"o3.description": "o3 est un modèle polyvalent puissant qui établit une nouvelle référence en mathématiques, sciences, programmation et raisonnement visuel. Il excelle en rédaction technique et en suivi d’instructions, et peut analyser texte, code et images pour résoudre des problèmes en plusieurs étapes.",
|
|
940
|
+
"o4-mini-2025-04-16.description": "o4-mini est un modèle de raisonnement OpenAI avec entrée texte + image et sortie texte, adapté aux tâches complexes nécessitant une vaste base de connaissances, avec une fenêtre de contexte de 200K.",
|
|
941
|
+
"o4-mini-deep-research.description": "o4-mini-deep-research est un modèle de recherche avancée plus rapide et plus abordable pour les tâches complexes en plusieurs étapes. Il peut effectuer des recherches sur le web et accéder à vos données via les connecteurs MCP.",
|
|
942
|
+
"o4-mini.description": "o4-mini est le dernier modèle compact de la série o, optimisé pour un raisonnement rapide et efficace, avec de hautes performances en codage et en vision.",
|
|
943
|
+
"open-codestral-mamba.description": "Codestral Mamba est un modèle linguistique Mamba 2 axé sur la génération de code, prenant en charge des tâches avancées de programmation et de raisonnement.",
|
|
944
|
+
"open-mistral-7b.description": "Mistral 7B est un modèle compact mais performant, efficace pour le traitement par lots et les tâches simples comme la classification et la génération de texte, avec un bon raisonnement.",
|
|
945
|
+
"open-mistral-nemo.description": "Mistral Nemo est un modèle 12B co-développé avec Nvidia, offrant de solides performances en raisonnement et en codage, avec une intégration facile.",
|
|
946
|
+
"open-mixtral-8x22b.description": "Mixtral 8x22B est un modèle MoE de grande taille pour les tâches complexes, offrant un raisonnement puissant et un débit élevé.",
|
|
947
|
+
"open-mixtral-8x7b.description": "Mixtral 8x7B est un modèle MoE clairsemé qui accélère l’inférence, adapté aux tâches multilingues et à la génération de code.",
|
|
948
|
+
"openai/gpt-3.5-turbo-instruct.description": "Capacités similaires aux modèles de l’ère GPT-3, compatible avec les points de terminaison de complétion hérités plutôt que le chat.",
|
|
949
|
+
"openai/gpt-3.5-turbo.description": "Le modèle GPT-3.5 le plus performant et économique d’OpenAI, optimisé pour le chat tout en restant efficace pour les complétions classiques.",
|
|
950
|
+
"openai/gpt-4-turbo.description": "gpt-4-turbo d’OpenAI possède une vaste base de connaissances générales et une expertise par domaine, suit des instructions complexes en langage naturel et résout avec précision des problèmes difficiles. Sa base de connaissances s’arrête en avril 2023 avec une fenêtre de contexte de 128k.",
|
|
951
|
+
"openai/gpt-4.1-mini.description": "GPT-4.1 Mini offre une latence réduite et un meilleur rapport qualité-prix pour les charges de travail à contexte moyen.",
|
|
952
|
+
"openai/gpt-4.1-nano.description": "GPT-4.1 Nano est une option ultra-économique et à faible latence pour les chats courts à haute fréquence ou la classification.",
|
|
953
|
+
"openai/gpt-4.1.description": "La série GPT-4.1 propose des fenêtres de contexte plus larges et des capacités renforcées en ingénierie et en raisonnement.",
|
|
954
|
+
"openai/gpt-4o-mini.description": "GPT-4o-mini est une variante rapide et compacte de GPT-4o pour les usages multimodaux à faible latence.",
|
|
955
|
+
"openai/gpt-4o.description": "La famille GPT-4o est le modèle Omni d’OpenAI avec entrée texte + image et sortie texte.",
|
|
956
|
+
"openai/gpt-5-chat.description": "GPT-5 Chat est une variante de GPT-5 optimisée pour les conversations avec une latence réduite pour une meilleure interactivité.",
|
|
957
|
+
"openai/gpt-5-codex.description": "GPT-5-Codex est une variante de GPT-5 optimisée pour la programmation et les flux de travail de code à grande échelle.",
|
|
958
|
+
"openai/gpt-5-mini.description": "GPT-5 Mini est une version plus petite de GPT-5 pour les scénarios à faible latence et faible coût.",
|
|
959
|
+
"openai/gpt-5-nano.description": "GPT-5 Nano est la variante ultra-compacte pour les scénarios avec des contraintes strictes de coût et de latence.",
|
|
960
|
+
"openai/gpt-5-pro.description": "GPT-5 Pro est le modèle phare d’OpenAI, offrant un raisonnement renforcé, une génération de code avancée et des fonctionnalités de niveau entreprise, avec routage à l’exécution et politiques de sécurité renforcées.",
|
|
961
|
+
"openai/gpt-5.1-chat.description": "GPT-5.1 Chat est le modèle léger de la famille GPT-5.1, optimisé pour les conversations à faible latence tout en conservant un bon raisonnement et une exécution précise des instructions.",
|
|
962
|
+
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini est une version plus petite et plus rapide de GPT-5.1-Codex, idéale pour les scénarios de codage sensibles à la latence et au coût.",
|
|
963
|
+
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex est une variante de GPT-5.1 optimisée pour l’ingénierie logicielle et les flux de travail de codage, adaptée aux refactorisations importantes, au débogage complexe et aux tâches de codage autonomes longues.",
|
|
964
|
+
"openai/gpt-5.1.description": "GPT-5.1 est le dernier modèle phare de la série GPT-5, avec des améliorations significatives en raisonnement général, suivi d’instructions et fluidité conversationnelle, adapté à un large éventail de tâches.",
|
|
965
|
+
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat est la variante ChatGPT pour découvrir les dernières améliorations conversationnelles.",
|
|
966
|
+
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro : une variante GPT-5.2 plus intelligente et plus précise (uniquement via l’API Responses), adaptée aux problèmes complexes et au raisonnement multi-tours prolongé.",
|
|
967
|
+
"openai/gpt-5.2.description": "GPT-5.2 est un modèle phare pour le codage et les flux de travail agentiques, avec un raisonnement renforcé et des performances sur contexte long.",
|
|
968
|
+
"openai/gpt-5.description": "GPT-5 est le modèle haute performance d’OpenAI pour un large éventail de tâches de production et de recherche.",
|
|
969
|
+
"openai/gpt-oss-120b.description": "Un LLM polyvalent très performant avec un raisonnement fort et contrôlable.",
|
|
970
|
+
"openai/gpt-oss-20b.description": "Un modèle linguistique compact à poids ouverts, optimisé pour une faible latence et les environnements à ressources limitées, y compris les déploiements locaux et en périphérie.",
|
|
971
|
+
"openai/o1-mini.description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour le codage, les mathématiques et les sciences. Il dispose d’un contexte de 128K et d’une base de connaissances arrêtée en octobre 2023.",
|
|
972
|
+
"openai/o1-preview.description": "o1 est le nouveau modèle de raisonnement d’OpenAI pour les tâches complexes nécessitant une vaste base de connaissances. Il dispose d’un contexte de 128K et d’une base de connaissances arrêtée en octobre 2023.",
|
|
973
|
+
"openai/o1.description": "OpenAI o1 est un modèle de raisonnement phare conçu pour les problèmes complexes nécessitant une réflexion approfondie, offrant un raisonnement solide et une précision accrue sur les tâches en plusieurs étapes.",
|
|
974
|
+
"openai/o3-mini-high.description": "o3-mini (raisonnement élevé) offre une intelligence supérieure tout en conservant les mêmes objectifs de coût et de latence que o1-mini.",
|
|
975
|
+
"openai/o3-mini.description": "o3-mini est le dernier modèle de raisonnement compact d’OpenAI, offrant une intelligence supérieure tout en conservant les mêmes objectifs de coût et de latence que o1-mini.",
|
|
976
|
+
"openai/o3.description": "OpenAI o3 est le modèle de raisonnement le plus puissant, établissant un nouveau SOTA en codage, mathématiques, sciences et perception visuelle. Il excelle dans les requêtes complexes et multi-facettes, et est particulièrement performant dans l’analyse d’images, de graphiques et de diagrammes.",
|
|
977
|
+
"openai/o4-mini-high.description": "o4-mini niveau de raisonnement élevé, optimisé pour un raisonnement rapide et efficace avec de solides performances en codage et en vision.",
|
|
978
|
+
"openai/o4-mini.description": "OpenAI o4-mini est un modèle de raisonnement compact et efficace pour les scénarios à faible latence.",
|
|
979
|
+
"openai/text-embedding-3-large.description": "Le modèle d’embedding le plus performant d’OpenAI pour les tâches en anglais et en langues étrangères.",
|
|
980
|
+
"openai/text-embedding-3-small.description": "Une variante améliorée et plus performante du modèle d’embedding ada d’OpenAI.",
|
|
981
|
+
"openai/text-embedding-ada-002.description": "Modèle d’embedding textuel hérité d’OpenAI.",
|
|
924
982
|
"pixtral-12b-2409.description": "Pixtral excelle dans la compréhension de graphiques/images, les questions-réponses sur documents, le raisonnement multimodal et le suivi d'instructions. Il traite les images à leur résolution et ratio d'origine, et gère un nombre illimité d'images dans une fenêtre de contexte de 128K.",
|
|
925
983
|
"pixtral-large-latest.description": "Pixtral Large est un modèle multimodal ouvert de 124 milliards de paramètres basé sur Mistral Large 2, le deuxième de notre famille multimodale, avec une compréhension d'image de pointe.",
|
|
926
984
|
"pro-128k.description": "Spark Pro 128K offre une très grande capacité de contexte, jusqu'à 128K, idéale pour les documents longs nécessitant une analyse complète du texte et une cohérence à long terme, avec une logique fluide et un support de citations variées dans des discussions complexes.",
|
|
@@ -1035,6 +1035,8 @@
|
|
|
1035
1035
|
"qwen/qwen-2-7b-instruct:free.description": "Qwen2 è una nuova famiglia di modelli linguistici di grandi dimensioni con maggiore capacità di comprensione e generazione.",
|
|
1036
1036
|
"qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL è l’ultima iterazione di Qwen-VL, con prestazioni all’avanguardia nei benchmark visivi come MathVista, DocVQA, RealWorldQA e MTVQA. Comprende oltre 20 minuti di video per domande-risposte, dialoghi e creazione di contenuti di alta qualità. Gestisce anche ragionamento complesso e decisioni, integrandosi con dispositivi mobili e robot per agire in base al contesto visivo e alle istruzioni testuali. Oltre a cinese e inglese, legge testi in immagini in molte lingue, tra cui la maggior parte delle lingue europee, giapponese, coreano, arabo e vietnamita.",
|
|
1037
1037
|
"qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct è uno degli ultimi rilasci LLM di Alibaba Cloud. Il modello da 72B offre miglioramenti significativi in programmazione e matematica, supporta oltre 29 lingue (inclusi cinese e inglese) e migliora notevolmente l’esecuzione di istruzioni, la comprensione di dati strutturati e l’output strutturato (in particolare JSON).",
|
|
1038
|
+
"qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct è uno degli ultimi modelli LLM rilasciati da Alibaba Cloud. Il modello da 32 miliardi di parametri offre miglioramenti significativi nel coding e nella matematica, supporta oltre 29 lingue (incluso il cinese e l’inglese) e migliora notevolmente la comprensione delle istruzioni, dei dati strutturati e la generazione di output strutturati (in particolare in formato JSON).",
|
|
1039
|
+
"qwen/qwen2.5-7b-instruct.description": "Un modello LLM bilingue per cinese e inglese, adatto a linguaggio, programmazione, matematica e ragionamento.",
|
|
1038
1040
|
"qwen/qwen2.5-coder-32b-instruct.description": "Un avanzato LLM per la generazione, il ragionamento e la correzione del codice nei principali linguaggi di programmazione.",
|
|
1039
1041
|
"qwen/qwen2.5-coder-7b-instruct.description": "Un solido modello di codice di medie dimensioni con contesto da 32K, eccellente nella programmazione multilingue.",
|
|
1040
1042
|
"qwen/qwen3-14b.description": "Qwen3-14B è la variante da 14B per il ragionamento generale e scenari di chat.",
|
|
@@ -1052,7 +1054,52 @@
|
|
|
1052
1054
|
"qwen/qwen3-coder.description": "Qwen3-Coder è la famiglia di modelli Qwen3 per la generazione di codice, eccellente nella comprensione e generazione di codice su documenti lunghi.",
|
|
1053
1055
|
"qwen/qwen3-max-preview.description": "Qwen3 Max (anteprima) è la variante Max per ragionamento avanzato e integrazione con strumenti.",
|
|
1054
1056
|
"qwen/qwen3-max.description": "Qwen3 Max è il modello di ragionamento di fascia alta della serie Qwen3, progettato per ragionamento multilingue e integrazione con strumenti.",
|
|
1057
|
+
"qwen/qwen3-vl-plus.description": "Qwen3 VL-Plus è la variante di Qwen3 potenziata per la visione, con capacità migliorate di ragionamento multimodale e elaborazione video.",
|
|
1058
|
+
"qwen2.5-14b-instruct-1m.description": "Modello open-source Qwen2.5 da 72 miliardi di parametri.",
|
|
1059
|
+
"qwen2.5-14b-instruct.description": "Modello open-source Qwen2.5 da 14 miliardi di parametri.",
|
|
1060
|
+
"qwen2.5-32b-instruct.description": "Modello open-source Qwen2.5 da 32 miliardi di parametri.",
|
|
1061
|
+
"qwen2.5-72b-instruct.description": "Modello open-source Qwen2.5 da 72 miliardi di parametri.",
|
|
1062
|
+
"qwen2.5-7b-instruct.description": "Qwen2.5 7B Instruct è un modello open-source maturo per chat e generazione in scenari multipli.",
|
|
1063
|
+
"qwen2.5-coder-1.5b-instruct.description": "Modello di codice open-source Qwen.",
|
|
1064
|
+
"qwen2.5-coder-14b-instruct.description": "Modello di codice open-source Qwen.",
|
|
1065
|
+
"qwen2.5-coder-32b-instruct.description": "Modello di codice open-source Qwen.",
|
|
1066
|
+
"qwen2.5-coder-7b-instruct.description": "Modello di codice open-source Qwen.",
|
|
1067
|
+
"qwen2.5-coder-instruct.description": "Qwen2.5-Coder è l’ultimo modello LLM della famiglia Qwen focalizzato sul codice (precedentemente CodeQwen).",
|
|
1068
|
+
"qwen2.5-instruct.description": "Qwen2.5 è l’ultima serie di modelli LLM Qwen, con versioni base e ottimizzate per istruzioni che vanno da 0,5 a 72 miliardi di parametri.",
|
|
1069
|
+
"qwen2.5-math-1.5b-instruct.description": "Qwen-Math offre elevate capacità di risoluzione di problemi matematici.",
|
|
1070
|
+
"qwen2.5-math-72b-instruct.description": "Qwen-Math offre elevate capacità di risoluzione di problemi matematici.",
|
|
1071
|
+
"qwen2.5-math-7b-instruct.description": "Qwen-Math offre elevate capacità di risoluzione di problemi matematici.",
|
|
1072
|
+
"qwen2.5-omni-7b.description": "I modelli Qwen-Omni supportano input multimodali (video, audio, immagini, testo) e output in formato audio e testo.",
|
|
1073
|
+
"qwen2.5-vl-32b-instruct.description": "Qwen2.5 VL 32B Instruct è un modello multimodale open-source adatto a implementazioni private e utilizzo in scenari multipli.",
|
|
1074
|
+
"qwen2.5-vl-72b-instruct.description": "Miglioramenti nella comprensione delle istruzioni, matematica, problem solving e programmazione, con riconoscimento avanzato degli oggetti. Supporta localizzazione precisa di elementi visivi in vari formati, comprensione di video lunghi (fino a 10 minuti) con temporizzazione a livello di secondo, ordinamento temporale e comprensione della velocità, e agenti in grado di controllare sistemi operativi o dispositivi mobili tramite parsing e localizzazione. Eccellente estrazione di informazioni chiave e output in formato JSON. Questa è la versione da 72 miliardi, la più potente della serie.",
|
|
1075
|
+
"qwen2.5-vl-7b-instruct.description": "Qwen2.5 VL 7B Instruct è un modello multimodale leggero che bilancia costi di implementazione e capacità di riconoscimento.",
|
|
1076
|
+
"qwen2.5-vl-instruct.description": "Qwen2.5-VL è l’ultimo modello visione-linguaggio della famiglia Qwen.",
|
|
1077
|
+
"qwen2.5.description": "Qwen2.5 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
|
|
1078
|
+
"qwen2.5:0.5b.description": "Qwen2.5 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
|
|
1079
|
+
"qwen2.5:1.5b.description": "Qwen2.5 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
|
|
1080
|
+
"qwen2.5:72b.description": "Qwen2.5 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
|
|
1081
|
+
"qwen2.description": "Qwen2 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
|
|
1082
|
+
"qwen2:0.5b.description": "Qwen2 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
|
|
1083
|
+
"qwen2:1.5b.description": "Qwen2 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
|
|
1084
|
+
"qwen2:72b.description": "Qwen2 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
|
|
1085
|
+
"qwen3-0.6b.description": "Qwen3 0.6B è un modello entry-level per ragionamento semplice e ambienti molto limitati.",
|
|
1086
|
+
"qwen3-1.7b.description": "Qwen3 1.7B è un modello ultra-leggero per implementazioni su dispositivi edge.",
|
|
1087
|
+
"qwen3-14b.description": "Qwen3 14B è un modello di medie dimensioni per domande e risposte multilingue e generazione di testo.",
|
|
1088
|
+
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 è un modello di punta per una vasta gamma di compiti di generazione e ragionamento.",
|
|
1089
|
+
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 è un modello ultra-large per ragionamento complesso.",
|
|
1090
|
+
"qwen3-235b-a22b.description": "Qwen3 è un modello Tongyi Qwen di nuova generazione con miglioramenti significativi nel ragionamento, capacità generali, agenti e prestazioni multilingue, e supporta il cambio di modalità di pensiero.",
|
|
1091
|
+
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 è un modello di medie-grandi dimensioni per generazione di alta qualità e domande e risposte.",
|
|
1092
|
+
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 è un modello di medie-grandi dimensioni che bilancia accuratezza e costi.",
|
|
1093
|
+
"qwen3-30b-a3b.description": "Qwen3 30B A3B è un modello generale di medie-grandi dimensioni che bilancia costi e qualità.",
|
|
1094
|
+
"qwen3-32b.description": "Qwen3 32B è adatto a compiti generali che richiedono una comprensione più profonda.",
|
|
1095
|
+
"qwen3-4b.description": "Qwen3 4B è adatto ad applicazioni di piccole e medie dimensioni e inferenza locale.",
|
|
1096
|
+
"qwen3-8b.description": "Qwen3 8B è un modello leggero con implementazione flessibile per carichi di lavoro ad alta concorrenza.",
|
|
1097
|
+
"qwen3-coder-30b-a3b-instruct.description": "Modello di codice open-source Qwen. L’ultimo qwen3-coder-30b-a3b-instruct si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con l’ambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.",
|
|
1098
|
+
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct è un modello di punta per la programmazione multilingue e la comprensione di codice complesso.",
|
|
1099
|
+
"qwen3-coder-flash.description": "Modello di codice Qwen. La serie Qwen3-Coder si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con l’ambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.",
|
|
1100
|
+
"qwen3-coder-plus.description": "Modello di codice Qwen. La serie Qwen3-Coder si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con l’ambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.",
|
|
1055
1101
|
"qwen3-coder:480b.description": "Modello ad alte prestazioni di Alibaba per attività di agenti e programmazione, con supporto a contesti lunghi.",
|
|
1102
|
+
"qwen3-max-2026-01-23.description": "I modelli Qwen3 Max offrono miglioramenti significativi rispetto alla serie 2.5 in capacità generali, comprensione di cinese/inglese, esecuzione di istruzioni complesse, compiti soggettivi aperti, capacità multilingue e utilizzo di strumenti, con meno allucinazioni. L’ultima versione migliora la programmazione agentica e l’uso di strumenti rispetto a qwen3-max-preview. Raggiunge lo stato dell’arte in vari ambiti e si rivolge a esigenze agentiche più complesse.",
|
|
1056
1103
|
"qwen3-max-preview.description": "Il modello Qwen con le migliori prestazioni per compiti complessi e multi-step. La versione preview supporta il ragionamento.",
|
|
1057
1104
|
"qwen3-max.description": "I modelli Qwen3 Max offrono miglioramenti significativi rispetto alla serie 2.5 in capacità generali, comprensione di cinese/inglese, esecuzione di istruzioni complesse, compiti soggettivi aperti, abilità multilingue e uso di strumenti, con meno allucinazioni. L'ultima versione qwen3-max migliora la programmazione agentica e l'uso degli strumenti rispetto a qwen3-max-preview. Questa release raggiunge lo stato dell’arte e risponde a esigenze agentiche più complesse.",
|
|
1058
1105
|
"qwen3-next-80b-a3b-instruct.description": "Modello open-source di nuova generazione Qwen3 senza capacità di ragionamento. Rispetto alla versione precedente (Qwen3-235B-A22B-Instruct-2507), offre una migliore comprensione del cinese, un ragionamento logico più forte e una generazione di testo migliorata.",
|
|
@@ -850,6 +850,53 @@
|
|
|
850
850
|
"meta/llama-3.3-70b.description": "Idealne połączenie wydajności i efektywności. Zbudowany z myślą o wysokowydajnej konwersacyjnej AI w tworzeniu treści, aplikacjach biznesowych i badaniach, z silnym rozumieniem języka do streszczania, klasyfikacji, analizy sentymentu i generowania kodu.",
|
|
851
851
|
"meta/llama-4-maverick.description": "Rodzina Llama 4 to natywne modele multimodalne wspierające tekst i doświadczenia multimodalne, wykorzystujące MoE do wiodącego rozumienia tekstu i obrazu. Llama 4 Maverick to model 17B z 128 ekspertami, udostępniany przez DeepInfra.",
|
|
852
852
|
"meta/llama-4-scout.description": "Rodzina Llama 4 to natywne modele multimodalne wspierające tekst i doświadczenia multimodalne, wykorzystujące MoE do wiodącego rozumienia tekstu i obrazu. Llama 4 Scout to model 17B z 16 ekspertami, udostępniany przez DeepInfra.",
|
|
853
|
+
"microsoft/Phi-3-medium-128k-instruct.description": "Ten sam model Phi-3-medium z większym oknem kontekstu, przeznaczony do zadań RAG lub promptów few-shot.",
|
|
854
|
+
"microsoft/Phi-3-medium-4k-instruct.description": "Model z 14 miliardami parametrów, oferujący wyższą jakość niż Phi-3-mini, skoncentrowany na danych wymagających intensywnego rozumowania.",
|
|
855
|
+
"microsoft/Phi-3-mini-128k-instruct.description": "Ten sam model Phi-3-mini z większym oknem kontekstu, przeznaczony do zadań RAG lub promptów few-shot.",
|
|
856
|
+
"microsoft/Phi-3-mini-4k-instruct.description": "Najmniejszy członek rodziny Phi-3, zoptymalizowany pod kątem jakości i niskich opóźnień.",
|
|
857
|
+
"microsoft/Phi-3-small-128k-instruct.description": "Ten sam model Phi-3-small z większym oknem kontekstu, przeznaczony do zadań RAG lub promptów few-shot.",
|
|
858
|
+
"microsoft/Phi-3-small-8k-instruct.description": "Model z 7 miliardami parametrów, oferujący wyższą jakość niż Phi-3-mini, skoncentrowany na danych wymagających intensywnego rozumowania.",
|
|
859
|
+
"microsoft/Phi-3.5-mini-instruct.description": "Zaktualizowana wersja modelu Phi-3-mini.",
|
|
860
|
+
"microsoft/Phi-3.5-vision-instruct.description": "Zaktualizowana wersja modelu Phi-3-vision.",
|
|
861
|
+
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 to model językowy od Microsoft AI, który wyróżnia się w złożonych dialogach, zadaniach wielojęzycznych, rozumowaniu i zastosowaniach asystenckich.",
|
|
862
|
+
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B to najbardziej zaawansowany model Wizard od Microsoft AI, oferujący konkurencyjną wydajność.",
|
|
863
|
+
"mimo-v2-flash.description": "MiMo-V2-Flash: wydajny model do rozumowania, programowania i podstaw agentów.",
|
|
864
|
+
"minicpm-v.description": "MiniCPM-V to nowej generacji model multimodalny od OpenBMB, oferujący doskonałe rozpoznawanie tekstu (OCR) i zrozumienie multimodalne w szerokim zakresie zastosowań.",
|
|
865
|
+
"minimax-m2.1.description": "MiniMax-M2.1 to najnowsza wersja serii MiniMax, zoptymalizowana pod kątem programowania wielojęzycznego i złożonych zadań w rzeczywistych warunkach. Jako model AI-native, MiniMax-M2.1 oferuje znaczną poprawę wydajności, wsparcie dla frameworków agentów i adaptację do wielu scenariuszy, pomagając firmom i użytkownikom szybciej wdrażać AI-native styl pracy i życia.",
|
|
866
|
+
"minimax-m2.description": "MiniMax M2 to wydajny duży model językowy zaprojektowany specjalnie do programowania i przepływów pracy agentów.",
|
|
867
|
+
"minimax/minimax-m2.1.description": "MiniMax-M2.1 to lekki, nowoczesny duży model językowy zoptymalizowany do programowania, przepływów proxy i nowoczesnego rozwoju aplikacji, oferujący czystsze, bardziej zwięzłe wyniki i szybszy czas reakcji.",
|
|
868
|
+
"minimax/minimax-m2.description": "MiniMax-M2 to model o wysokiej wartości, który doskonale sprawdza się w zadaniach programistycznych i agentowych w wielu scenariuszach inżynieryjnych.",
|
|
869
|
+
"minimaxai/minimax-m2.description": "MiniMax-M2 to kompaktowy, szybki i opłacalny model MoE (230B ogółem, 10B aktywnych), zaprojektowany z myślą o najwyższej wydajności w programowaniu i zadaniach agentowych, przy zachowaniu silnej inteligencji ogólnej. Doskonale radzi sobie z edycją wielu plików, pętlami uruchamiania i poprawiania kodu, walidacją testów i złożonymi łańcuchami narzędzi.",
|
|
870
|
+
"ministral-3b-latest.description": "Ministral 3B to flagowy model edge firmy Mistral.",
|
|
871
|
+
"ministral-8b-latest.description": "Ministral 8B to bardzo opłacalny model edge od Mistral.",
|
|
872
|
+
"mistral-ai/Mistral-Large-2411.description": "Flagowy model Mistral do złożonych zadań wymagających rozumowania na dużą skalę lub specjalizacji (generowanie tekstu syntetycznego, kodu, RAG lub agentów).",
|
|
873
|
+
"mistral-ai/Mistral-Nemo.description": "Mistral Nemo to nowoczesny LLM z zaawansowanym rozumowaniem, wiedzą ogólną i umiejętnościami programistycznymi w swojej klasie.",
|
|
874
|
+
"mistral-ai/mistral-small-2503.description": "Mistral Small nadaje się do każdego zadania językowego wymagającego wysokiej wydajności i niskiego opóźnienia.",
|
|
875
|
+
"mistral-large-instruct.description": "Mistral-Large-Instruct-2407 to zaawansowany gęsty LLM z 123 miliardami parametrów, oferujący najnowocześniejsze rozumowanie, wiedzę i programowanie.",
|
|
876
|
+
"mistral-large-latest.description": "Mistral Large to flagowy model, silny w zadaniach wielojęzycznych, złożonym rozumowaniu i generowaniu kodu — idealny do zastosowań klasy premium.",
|
|
877
|
+
"mistral-large.description": "Mixtral Large to flagowy model Mistral, łączący generowanie kodu, matematykę i rozumowanie z oknem kontekstu 128K.",
|
|
878
|
+
"mistral-medium-latest.description": "Mistral Medium 3 oferuje najnowocześniejszą wydajność przy 8× niższych kosztach i upraszcza wdrażanie w przedsiębiorstwach.",
|
|
879
|
+
"mistral-nemo-instruct.description": "Mistral-Nemo-Instruct-2407 to wersja dostrojona do instrukcji modelu Mistral-Nemo-Base-2407.",
|
|
880
|
+
"mistral-nemo.description": "Mistral Nemo to wydajny model 12B od Mistral AI i NVIDIA.",
|
|
881
|
+
"mistral-small-latest.description": "Mistral Small to opłacalna, szybka i niezawodna opcja do tłumaczeń, streszczeń i analizy sentymentu.",
|
|
882
|
+
"mistral-small.description": "Mistral Small nadaje się do każdego zadania językowego wymagającego wysokiej wydajności i niskiego opóźnienia.",
|
|
883
|
+
"mistral.description": "Mistral to model 7B od Mistral AI, odpowiedni do różnorodnych zadań językowych.",
|
|
884
|
+
"mistral/codestral-embed.description": "Model do osadzania kodu, przeznaczony do indeksowania baz kodu i repozytoriów w celu wspierania asystentów programistycznych.",
|
|
885
|
+
"mistral/codestral.description": "Mistral Codestral 25.01 to nowoczesny model programistyczny zoptymalizowany pod kątem niskich opóźnień i częstego użycia. Obsługuje ponad 80 języków i doskonale radzi sobie z FIM, poprawą kodu i generowaniem testów.",
|
|
886
|
+
"mistral/devstral-small.description": "Devstral to agentowy LLM do zadań inżynierii oprogramowania, idealny dla agentów programistycznych.",
|
|
887
|
+
"mistral/magistral-medium.description": "Złożone myślenie wspierane przez głębokie zrozumienie i przejrzyste rozumowanie, które można śledzić i weryfikować. Utrzymuje wysoką jakość rozumowania międzyjęzykowego, nawet w trakcie zadania.",
|
|
888
|
+
"mistral/magistral-small.description": "Złożone myślenie wspierane przez głębokie zrozumienie i przejrzyste rozumowanie, które można śledzić i weryfikować. Utrzymuje wysoką jakość rozumowania międzyjęzykowego, nawet w trakcie zadania.",
|
|
889
|
+
"mistral/ministral-3b.description": "Kompaktowy, wydajny model do zadań lokalnych, takich jak asystenci i analiza lokalna, oferujący niskie opóźnienia.",
|
|
890
|
+
"mistral/ministral-8b.description": "Bardziej wydajny model z szybszym i oszczędnym wykorzystaniem pamięci, idealny do złożonych przepływów pracy i wymagających zastosowań edge.",
|
|
891
|
+
"mistral/mistral-embed.description": "Ogólny model osadzania tekstu do wyszukiwania semantycznego, podobieństwa, klasteryzacji i przepływów RAG.",
|
|
892
|
+
"mistral/mistral-large.description": "Mistral Large jest idealny do złożonych zadań wymagających silnego rozumowania lub specjalizacji — generowanie tekstu syntetycznego, kodu, RAG lub agentów.",
|
|
893
|
+
"mistral/mistral-small.description": "Mistral Small jest idealny do prostych, przetwarzalnych zadań, takich jak klasyfikacja, obsługa klienta lub generowanie tekstu, oferując świetną wydajność w przystępnej cenie.",
|
|
894
|
+
"mistral/mixtral-8x22b-instruct.description": "Model Instruct 8x22B. 8x22B to otwarty model MoE udostępniany przez Mistral.",
|
|
895
|
+
"mistral/pixtral-12b.description": "Model 12B z rozumieniem obrazu i tekstu.",
|
|
896
|
+
"mistral/pixtral-large.description": "Pixtral Large to drugi model z naszej rodziny multimodalnej z zaawansowanym rozumieniem obrazu. Obsługuje dokumenty, wykresy i obrazy naturalne, zachowując wiodące rozumienie tekstu modelu Mistral Large 2.",
|
|
897
|
+
"mistralai/Mistral-7B-Instruct-v0.1.description": "Mistral (7B) Instruct znany jest z wysokiej wydajności w wielu zadaniach językowych.",
|
|
898
|
+
"mistralai/Mistral-7B-Instruct-v0.2.description": "Mistral (7B) Instruct v0.2 poprawia obsługę instrukcji i dokładność wyników.",
|
|
899
|
+
"mistralai/Mistral-7B-Instruct-v0.3.description": "Mistral (7B) Instruct v0.3 oferuje wydajne obliczenia i silne zrozumienie języka w wielu zastosowaniach.",
|
|
853
900
|
"mistralai/Mistral-7B-v0.1.description": "Mistral 7B to kompaktowy, ale wydajny model, doskonały do przetwarzania wsadowego i prostych zadań, takich jak klasyfikacja i generowanie tekstu, z solidnym rozumowaniem.",
|
|
854
901
|
"mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct (141B) to bardzo duży model językowy przeznaczony do obsługi wymagających obciążeń.",
|
|
855
902
|
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46,7B) oferuje wysoką wydajność w przetwarzaniu danych na dużą skalę.",
|
|
@@ -1034,6 +1034,31 @@
|
|
|
1034
1034
|
"qwen/qwen-2-7b-instruct.description": "Qwen2 — это новая серия языковых моделей Qwen. Qwen2 7B — это модель на основе трансформеров, превосходно справляющаяся с пониманием языка, многоязычностью, программированием, математикой и рассуждением.",
|
|
1035
1035
|
"qwen/qwen-2-7b-instruct:free.description": "Qwen2 — это новая серия крупных языковых моделей с улучшенным пониманием и генерацией.",
|
|
1036
1036
|
"qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL — последняя итерация Qwen-VL, достигшая передовых результатов на визуальных бенчмарках, таких как MathVista, DocVQA, RealWorldQA и MTVQA. Понимает видео продолжительностью более 20 минут для качественного видео Q&A, диалогов и создания контента. Также справляется со сложным рассуждением и принятием решений, интегрируется с мобильными устройствами и роботами для действий на основе визуального контекста и текстовых инструкций. Помимо английского и китайского, распознаёт текст на изображениях на многих языках, включая большинство европейских, японский, корейский, арабский и вьетнамский.",
|
|
1037
|
+
"qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct — одна из новейших LLM-моделей от Alibaba Cloud. Модель с 72 миллиардами параметров демонстрирует значительные улучшения в программировании и математике, поддерживает более 29 языков (включая китайский и английский), а также существенно улучшает следование инструкциям, понимание структурированных данных и генерацию структурированного вывода (особенно в формате JSON).",
|
|
1038
|
+
"qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct — одна из новейших LLM-моделей от Alibaba Cloud. Модель с 32 миллиардами параметров демонстрирует значительные улучшения в программировании и математике, поддерживает более 29 языков (включая китайский и английский), а также существенно улучшает следование инструкциям, понимание структурированных данных и генерацию структурированного вывода (особенно в формате JSON).",
|
|
1039
|
+
"qwen/qwen2.5-7b-instruct.description": "Двуязычная LLM-модель для китайского и английского языков, охватывающая задачи перевода, программирования, математики и логического мышления.",
|
|
1040
|
+
"qwen/qwen2.5-coder-32b-instruct.description": "Продвинутая LLM-модель для генерации, анализа и исправления кода на популярных языках программирования.",
|
|
1041
|
+
"qwen/qwen2.5-coder-7b-instruct.description": "Мощная среднеразмерная модель для программирования с контекстом до 32K, отлично справляется с многоязычным кодированием.",
|
|
1042
|
+
"qwen/qwen3-14b.description": "Qwen3-14B — вариант модели с 14 миллиардами параметров, предназначенный для общего логического вывода и диалоговых сценариев.",
|
|
1043
|
+
"qwen/qwen3-14b:free.description": "Qwen3-14B — плотная каузальная LLM-модель с 14,8 миллиардами параметров, созданная для сложного логического вывода и эффективного общения. Переключается между режимом мышления (для математики, программирования и логики) и обычным режимом общения. Дообучена для следования инструкциям, использования инструментов и креативного письма на более чем 100 языках и диалектах. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
|
|
1044
|
+
"qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507 — вариант серии Qwen3, оптимизированный для многоязычного использования инструкций и сценариев с длинным контекстом.",
|
|
1045
|
+
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 — вариант модели Qwen3, усиленный для выполнения сложных математических и логических задач.",
|
|
1046
|
+
"qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B — модель MoE с 235 миллиардами параметров от Qwen, из которых 22 миллиарда активны при каждом проходе. Переключается между режимом мышления (для сложного логического вывода, математики и программирования) и обычным режимом общения. Обеспечивает высокую точность логических рассуждений, поддержку более 100 языков и диалектов, продвинутое следование инструкциям и использование инструментов. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
|
|
1047
|
+
"qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B — модель MoE с 235 миллиардами параметров от Qwen, из которых 22 миллиарда активны при каждом проходе. Переключается между режимом мышления (для сложного логического вывода, математики и программирования) и обычным режимом общения. Обеспечивает высокую точность логических рассуждений, поддержку более 100 языков и диалектов, продвинутое следование инструкциям и использование инструментов. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
|
|
1048
|
+
"qwen/qwen3-30b-a3b.description": "Qwen3 — новейшее поколение LLM-моделей Qwen с плотной и MoE-архитектурами, превосходящее в логике, многоязычии и агентных задачах. Уникальная возможность переключения между режимом мышления и обычным режимом общения обеспечивает универсальную и высококачественную работу.\n\nQwen3 значительно превосходит предыдущие модели, такие как QwQ и Qwen2.5, демонстрируя отличные результаты в математике, программировании, логике, креативном письме и интерактивных диалогах. Вариант Qwen3-30B-A3B содержит 30,5 миллиарда параметров (3,3 миллиарда активных), 48 слоев, 128 экспертов (8 активных на задачу) и поддерживает контекст до 131K с помощью YaRN, устанавливая новый стандарт среди открытых моделей.",
|
|
1049
|
+
"qwen/qwen3-30b-a3b:free.description": "Qwen3 — новейшее поколение LLM-моделей Qwen с плотной и MoE-архитектурами, превосходящее в логике, многоязычии и агентных задачах. Уникальная возможность переключения между режимом мышления и обычным режимом общения обеспечивает универсальную и высококачественную работу.\n\nQwen3 значительно превосходит предыдущие модели, такие как QwQ и Qwen2.5, демонстрируя отличные результаты в математике, программировании, логике, креативном письме и интерактивных диалогах. Вариант Qwen3-30B-A3B содержит 30,5 миллиарда параметров (3,3 миллиарда активных), 48 слоев, 128 экспертов (8 активных на задачу) и поддерживает контекст до 131K с помощью YaRN, устанавливая новый стандарт среди открытых моделей.",
|
|
1050
|
+
"qwen/qwen3-32b.description": "Qwen3-32B — плотная каузальная LLM-модель с 32,8 миллиардами параметров, оптимизированная для сложного логического вывода и эффективного общения. Переключается между режимом мышления (для математики, программирования и логики) и обычным режимом общения. Отлично справляется с инструкциями, использованием инструментов и креативным письмом на более чем 100 языках и диалектах. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
|
|
1051
|
+
"qwen/qwen3-32b:free.description": "Qwen3-32B — плотная каузальная LLM-модель с 32,8 миллиардами параметров, оптимизированная для сложного логического вывода и эффективного общения. Переключается между режимом мышления (для математики, программирования и логики) и обычным режимом общения. Отлично справляется с инструкциями, использованием инструментов и креативным письмом на более чем 100 языках и диалектах. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
|
|
1052
|
+
"qwen/qwen3-8b:free.description": "Qwen3-8B — плотная каузальная LLM-модель с 8,2 миллиардами параметров, предназначенная для задач, требующих логического мышления, и эффективного общения. Переключается между режимом мышления (для математики, программирования и логики) и обычным режимом общения. Дообучена для следования инструкциям, интеграции с инструментами и креативного письма на более чем 100 языках и диалектах. Поддерживает контекст до 32K и масштабируется до 131K с помощью YaRN.",
|
|
1053
|
+
"qwen/qwen3-coder-plus.description": "Qwen3-Coder-Plus — модель-агент для программирования из серии Qwen, оптимизированная для сложного использования инструментов и длительных сессий.",
|
|
1054
|
+
"qwen/qwen3-coder.description": "Qwen3-Coder — семейство моделей Qwen3 для генерации кода, сильное в понимании и генерации кода в длинных документах.",
|
|
1055
|
+
"qwen/qwen3-max-preview.description": "Qwen3 Max (предпросмотр) — вариант Max для продвинутого логического вывода и интеграции инструментов.",
|
|
1056
|
+
"qwen/qwen3-max.description": "Qwen3 Max — флагманская модель логического вывода в серии Qwen3, предназначенная для многоязычного логического анализа и интеграции инструментов.",
|
|
1057
|
+
"qwen/qwen3-vl-plus.description": "Qwen3 VL-Plus — визуально-усиленный вариант Qwen3 с улучшенным мультимодальным логическим выводом и обработкой видео.",
|
|
1058
|
+
"qwen2.5-14b-instruct-1m.description": "Открытая модель Qwen2.5 с 72 миллиардами параметров.",
|
|
1059
|
+
"qwen2.5-14b-instruct.description": "Открытая модель Qwen2.5 с 14 миллиардами параметров.",
|
|
1060
|
+
"qwen2.5-32b-instruct.description": "Открытая модель Qwen2.5 с 32 миллиардами параметров.",
|
|
1061
|
+
"qwen2.5-72b-instruct.description": "Открытая модель Qwen2.5 с 72 миллиардами параметров.",
|
|
1037
1062
|
"qwen2.5-7b-instruct.description": "Qwen2.5 7B Instruct — зрелая модель с открытым исходным кодом для инструкционного обучения, подходящая для многосценарного общения и генерации.",
|
|
1038
1063
|
"qwen2.5-coder-1.5b-instruct.description": "Открытая модель кода Qwen.",
|
|
1039
1064
|
"qwen2.5-coder-14b-instruct.description": "Открытая модель кода Qwen.",
|
|
@@ -1062,6 +1087,7 @@
|
|
|
1062
1087
|
"qwen3-14b.description": "Qwen3 14B — модель среднего размера для многоязычного ответа на вопросы и генерации текста.",
|
|
1063
1088
|
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 — флагманская инструкционная модель для широкого спектра задач генерации и рассуждения.",
|
|
1064
1089
|
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 — сверхкрупная модель для сложных задач рассуждения.",
|
|
1090
|
+
"qwen3-235b-a22b.description": "Qwen3 — модель нового поколения Tongyi Qwen с существенными улучшениями в логике, общей способности, агентных функциях и многоязычной поддержке, с возможностью переключения режимов мышления.",
|
|
1065
1091
|
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 — инструкционная модель среднего размера для высококачественной генерации и ответов на вопросы.",
|
|
1066
1092
|
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 — модель среднего размера для рассуждений, сочетающая точность и эффективность.",
|
|
1067
1093
|
"qwen3-30b-a3b.description": "Qwen3 30B A3B — универсальная модель среднего размера, сочетающая качество и стоимость.",
|
|
@@ -1073,6 +1099,7 @@
|
|
|
1073
1099
|
"qwen3-coder-flash.description": "Модель кода Qwen. Новейшая серия Qwen3-Coder основана на Qwen3 и обладает мощными возможностями кодирующего агента, использования инструментов и взаимодействия со средой для автономного программирования, с отличной производительностью кода и общей функциональностью.",
|
|
1074
1100
|
"qwen3-coder-plus.description": "Модель кода Qwen. Новейшая серия Qwen3-Coder основана на Qwen3 и обладает мощными возможностями кодирующего агента, использования инструментов и взаимодействия со средой для автономного программирования, с отличной производительностью кода и общей функциональностью.",
|
|
1075
1101
|
"qwen3-coder:480b.description": "Высокопроизводительная модель от Alibaba с длинным контекстом для задач агентов и программирования.",
|
|
1102
|
+
"qwen3-max-2026-01-23.description": "Модели Qwen3 Max значительно превосходят серию 2.5 по общей способности, пониманию китайского/английского, следованию сложным инструкциям, выполнению субъективных задач, многоязычности и использованию инструментов, с меньшим количеством галлюцинаций. Последняя версия qwen3-max улучшает агентное программирование и использование инструментов по сравнению с qwen3-max-preview. Эта версия достигает уровня SOTA и ориентирована на более сложные агентные задачи.",
|
|
1076
1103
|
"qwen3-max-preview.description": "Лучшая модель Qwen для сложных многошаговых задач. Превью-версия поддерживает рассуждение.",
|
|
1077
1104
|
"qwen3-max.description": "Модели Qwen3 Max значительно превосходят серию 2.5 по общим возможностям, пониманию китайского и английского языков, следованию сложным инструкциям, выполнению открытых задач, многоязычности и использованию инструментов, с меньшим количеством галлюцинаций. Последняя версия qwen3-max улучшает программирование агентов и использование инструментов по сравнению с qwen3-max-preview. Эта версия достигает SOTA в своей области и ориентирована на более сложные потребности агентов.",
|
|
1078
1105
|
"qwen3-next-80b-a3b-instruct.description": "Модель следующего поколения Qwen3 без рассуждений с открытым исходным кодом. По сравнению с предыдущей версией (Qwen3-235B-A22B-Instruct-2507), улучшено понимание китайского языка, логическое мышление и генерация текста.",
|
|
@@ -1089,6 +1116,47 @@
|
|
|
1089
1116
|
"qwen3-vl-flash.description": "Qwen3 VL Flash: легковесная, высокоскоростная версия рассуждений для задач с низкой задержкой или высоким объемом запросов.",
|
|
1090
1117
|
"qwen3-vl-plus.description": "Qwen VL — модель генерации текста с пониманием изображений. Поддерживает OCR, а также умеет обобщать и рассуждать, например, извлекать атрибуты с фото товаров или решать задачи по изображениям.",
|
|
1091
1118
|
"qwen3.description": "Qwen3 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.",
|
|
1119
|
+
"qwq-32b-preview.description": "QwQ — экспериментальная исследовательская модель от Qwen, ориентированная на улучшенный логический вывод.",
|
|
1120
|
+
"qwq-32b.description": "QwQ — модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, она обеспечивает более глубокое мышление и логический анализ, значительно повышая производительность на сложных задачах. QwQ-32B — среднеразмерная модель, сопоставимая с ведущими моделями, такими как DeepSeek-R1 и o1-mini.",
|
|
1121
|
+
"qwq-plus.description": "Модель логического вывода QwQ, обученная на основе Qwen2.5 с использованием RL, значительно улучшает логический анализ. Основные метрики в математике/коде (AIME 24/25, LiveCodeBench) и на общих бенчмарках (IFEval, LiveBench) достигают уровня DeepSeek-R1.",
|
|
1122
|
+
"qwq.description": "QwQ — модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, она обладает способностями к мышлению и логике, которые значительно улучшают производительность на сложных задачах. QwQ-32B — среднеразмерная модель, успешно конкурирующая с ведущими моделями, такими как DeepSeek-R1 и o1-mini.",
|
|
1123
|
+
"qwq_32b.description": "Среднеразмерная модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, способности QwQ к мышлению и логике значительно повышают производительность на сложных задачах.",
|
|
1124
|
+
"r1-1776.description": "R1-1776 — дообученный вариант DeepSeek R1, предназначенный для предоставления нецензурированной, объективной и достоверной информации.",
|
|
1125
|
+
"solar-mini-ja.description": "Solar Mini (Ja) расширяет возможности Solar Mini с акцентом на японский язык, сохраняя при этом высокую эффективность и производительность на английском и корейском.",
|
|
1126
|
+
"solar-mini.description": "Solar Mini — компактная LLM-модель, превосходящая GPT-3.5, с мощной многоязычной поддержкой английского и корейского языков, предлагающая эффективное решение с малым объемом.",
|
|
1127
|
+
"solar-pro.description": "Solar Pro — интеллектуальная LLM-модель от Upstage, ориентированная на следование инструкциям на одном GPU, с результатами IFEval выше 80. В настоящее время поддерживает английский язык; полный релиз с расширенной языковой поддержкой и увеличенным контекстом запланирован на ноябрь 2024 года.",
|
|
1128
|
+
"sonar-deep-research.description": "Deep Research проводит всесторонние экспертные исследования и преобразует их в доступные и практичные отчеты.",
|
|
1129
|
+
"sonar-pro.description": "Продвинутый поисковый продукт с привязкой к источникам для сложных запросов и уточнений.",
|
|
1130
|
+
"sonar-reasoning-pro.description": "Продвинутый поисковый продукт с привязкой к источникам для сложных запросов и уточнений.",
|
|
1131
|
+
"sonar-reasoning.description": "Продвинутый поисковый продукт с привязкой к источникам для сложных запросов и уточнений.",
|
|
1132
|
+
"sonar.description": "Легковесный продукт с привязкой к поиску, быстрее и дешевле, чем Sonar Pro.",
|
|
1133
|
+
"spark-x.description": "Обновления X1.5: (1) добавлен динамический режим мышления, управляемый полем `thinking`; (2) увеличенная длина контекста: 64K на вход и 64K на выход; (3) поддержка FunctionCall.",
|
|
1134
|
+
"stable-diffusion-3-medium.description": "Последняя модель преобразования текста в изображение от Stability AI. Эта версия значительно улучшает качество изображений, понимание текста и разнообразие стилей, точнее интерпретирует сложные текстовые запросы и генерирует более точные и разнообразные изображения.",
|
|
1135
|
+
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo использует метод диффузионной дистилляции (ADD) для ускорения модели stable-diffusion-3.5-large.",
|
|
1136
|
+
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large — модель преобразования текста в изображение с 800 миллионами параметров (MMDiT), обеспечивающая высокое качество и соответствие запросам, поддерживает изображения до 1 мегапикселя и эффективно работает на потребительском оборудовании.",
|
|
1137
|
+
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 инициализирована из контрольной точки v1.2 и дообучена в течение 595 тыс. шагов на наборе данных \"laion-aesthetics v2 5+\" с разрешением 512x512, снижая влияние текстовой настройки на 10% для улучшения выборки без классификатора.",
|
|
1138
|
+
"stable-diffusion-xl-base-1.0.description": "Открытая модель преобразования текста в изображение от Stability AI с передовыми возможностями генерации креативных изображений. Обладает высоким уровнем понимания инструкций и поддерживает обратное определение запросов для точной генерации.",
|
|
1139
|
+
"stable-diffusion-xl.description": "stable-diffusion-xl значительно превосходит версию v1.5 и соответствует лучшим открытым моделям преобразования текста в изображение. Улучшения включают в себя в 3 раза большую архитектуру UNet, модуль уточнения для повышения качества изображений и более эффективные методы обучения.",
|
|
1140
|
+
"step-1-128k.description": "Оптимальный баланс между производительностью и стоимостью для общих сценариев.",
|
|
1141
|
+
"step-1-256k.description": "Обработка сверхдлинного контекста, идеально подходит для анализа длинных документов.",
|
|
1142
|
+
"step-1-32k.description": "Поддержка диалогов средней длины для широкого круга задач.",
|
|
1143
|
+
"step-1-8k.description": "Небольшая модель, подходящая для легких задач.",
|
|
1144
|
+
"step-1-flash.description": "Высокоскоростная модель, подходящая для общения в реальном времени.",
|
|
1145
|
+
"step-1.5v-mini.description": "Мощные возможности понимания видео.",
|
|
1146
|
+
"step-1o-turbo-vision.description": "Продвинутое понимание изображений, превосходит 1o в математике и программировании. Меньше по размеру и быстрее по скорости вывода.",
|
|
1147
|
+
"step-1o-vision-32k.description": "Продвинутое понимание изображений с лучшей визуальной производительностью, чем серия Step-1V.",
|
|
1148
|
+
"step-1v-32k.description": "Поддержка визуального ввода для более насыщенного мультимодального взаимодействия.",
|
|
1149
|
+
"step-1v-8k.description": "Небольшая визуальная модель для базовых задач с изображениями и текстом.",
|
|
1150
|
+
"step-1x-edit.description": "Модель для редактирования изображений, модифицирует и улучшает изображения на основе текста и примеров. Поддерживает различные форматы ввода и генерирует правки в соответствии с намерением пользователя.",
|
|
1151
|
+
"step-1x-medium.description": "Модель с мощной генерацией изображений по текстовому описанию. Благодаря поддержке китайского языка, лучше понимает и визуализирует китайские описания. Генерирует изображения высокого разрешения и качества, поддерживает перенос стиля.",
|
|
1152
|
+
"step-2-16k-exp.description": "Экспериментальная сборка Step-2 с новейшими функциями и обновлениями. Не рекомендуется для продакшена.",
|
|
1153
|
+
"step-2-16k.description": "Поддержка взаимодействия с большим контекстом для сложных диалогов.",
|
|
1154
|
+
"step-2-mini.description": "Построена на архитектуре MFA следующего поколения, обеспечивает производительность уровня Step-1 при значительно меньших затратах, с высокой пропускной способностью и низкой задержкой. Отлично справляется с общими задачами и программированием.",
|
|
1155
|
+
"step-2x-large.description": "Модель нового поколения StepFun для генерации изображений, создает изображения высокого качества по текстовому описанию. Обеспечивает реалистичную текстуру и качественную отрисовку текста на китайском и английском языках.",
|
|
1156
|
+
"step-3.description": "Модель с мощным визуальным восприятием и сложным логическим выводом, точно обрабатывает знания из разных областей, анализ математики и изображений, а также широкий спектр повседневных визуальных задач.",
|
|
1157
|
+
"step-r1-v-mini.description": "Модель логического вывода с продвинутым пониманием изображений, способна обрабатывать изображения и текст, а затем генерировать текст после глубокого анализа. Отлично справляется с визуальной логикой, математикой, программированием и текстовыми задачами, поддерживает контекст до 100K.",
|
|
1158
|
+
"stepfun-ai/step3.description": "Step3 — передовая мультимодальная модель логического вывода от StepFun, построенная на архитектуре MoE с 321 миллиардами параметров (38 миллиардов активных). Эффективна по затратам на декодирование и обеспечивает высококлассный логико-визуальный анализ. Благодаря архитектурам MFA и AFD работает эффективно как на флагманских, так и на недорогих ускорителях. Предобучена на более чем 20 триллионах текстов и 4 триллионах пар изображение-текст на разных языках. Достигает лидирующих результатов среди открытых моделей в математике, программировании и мультимодальных задачах.",
|
|
1159
|
+
"taichu_llm.description": "Обучена на огромном объеме высококачественных данных, обладает улучшенным пониманием текста, генерацией контента и ведением диалога.",
|
|
1092
1160
|
"taichu_o1.description": "taichu_o1 — это модель нового поколения для рассуждений, использующая мультимодальное взаимодействие и обучение с подкреплением для достижения человекоподобного хода мыслей. Она поддерживает моделирование сложных решений, демонстрирует логические цепочки и обеспечивает высокую точность, идеально подходя для стратегического анализа и глубокого мышления.",
|
|
1093
1161
|
"taichu_vl.description": "Объединяет понимание изображений, перенос знаний и логическую атрибуцию, превосходно справляясь с задачами вопрос-ответ по изображению и тексту.",
|
|
1094
1162
|
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct использует 80 миллиардов параметров, из которых активно 13 миллиардов, обеспечивая производительность, сопоставимую с более крупными моделями. Поддерживает гибридное быстрое/медленное рассуждение, стабильное понимание длинных текстов и лидирующие возможности агентов на BFCL-v3 и τ-Bench. Поддержка GQA и мульти-квантованных форматов обеспечивает эффективный вывод.",
|
|
@@ -1106,6 +1174,10 @@
|
|
|
1106
1174
|
"tts-1.description": "Последняя модель синтеза речи, оптимизированная для скорости в реальном времени.",
|
|
1107
1175
|
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) настроена для точного выполнения инструкций с высокой языковой производительностью.",
|
|
1108
1176
|
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet поднимает отраслевой стандарт, превосходя конкурентов и Claude 3 Opus по широкому спектру оценок, сохраняя при этом средний уровень скорости и стоимости.",
|
|
1177
|
+
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, улучшена по всем навыкам и превосходит предыдущую флагманскую модель Claude 3 Opus по многим интеллектуальным метрикам.",
|
|
1178
|
+
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, с молниеносной скоростью и расширенным мышлением.",
|
|
1179
|
+
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 — самая интеллектуальная модель от Anthropic для создания агентов и программирования.",
|
|
1180
|
+
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
|
|
1109
1181
|
"v0-1.0-md.description": "v0-1.0-md — устаревшая модель, доступная через API v0.",
|
|
1110
1182
|
"v0-1.5-lg.description": "v0-1.5-lg подходит для задач, требующих продвинутого мышления и рассуждений.",
|
|
1111
1183
|
"v0-1.5-md.description": "v0-1.5-md подходит для повседневных задач и генерации пользовательских интерфейсов.",
|
|
@@ -1149,6 +1221,7 @@
|
|
|
1149
1221
|
"z-ai/glm-4.5-air.description": "GLM 4.5 Air — легковесный вариант GLM 4.5 для сценариев с ограниченным бюджетом, при этом сохраняет сильные способности к рассуждению.",
|
|
1150
1222
|
"z-ai/glm-4.5.description": "GLM 4.5 — флагманская модель Z.AI с гибридным рассуждением, оптимизированная для инженерных задач и задач с длинным контекстом.",
|
|
1151
1223
|
"z-ai/glm-4.6.description": "GLM 4.6 — флагманская модель Z.AI с расширенной длиной контекста и улучшенными возможностями программирования.",
|
|
1224
|
+
"z-ai/glm-4.7.description": "GLM-4.7 — флагманская модель от Zhipu с улучшенными общими возможностями, более естественными и простыми ответами, а также более захватывающим опытом письма.",
|
|
1152
1225
|
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air — базовая модель для агентных приложений с архитектурой Mixture-of-Experts. Оптимизирована для использования инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, интегрируется с агентами кода, такими как Claude Code и Roo Code. Использует гибридное рассуждение для решения как сложных, так и повседневных задач.",
|
|
1153
1226
|
"zai-org/GLM-4.5.description": "GLM-4.5 — базовая модель, созданная для агентных приложений с архитектурой Mixture-of-Experts. Глубоко оптимизирована для использования инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, интегрируется с агентами кода, такими как Claude Code и Roo Code. Использует гибридное рассуждение для решения как сложных, так и повседневных задач.",
|
|
1154
1227
|
"zai-org/GLM-4.5V.description": "GLM-4.5V — последняя мультимодальная модель Zhipu AI, построенная на флагманской текстовой модели GLM-4.5-Air (106B всего, 12B активно) с архитектурой MoE для высокой производительности при низкой стоимости. Следует пути GLM-4.1V-Thinking и добавляет 3D-RoPE для улучшения пространственного 3D-рассуждения. Оптимизирована через предобучение, SFT и RL, обрабатывает изображения, видео и длинные документы, занимает лидирующие позиции среди открытых моделей на 41 мультимодальном бенчмарке. Переключатель Thinking mode позволяет пользователям выбирать между скоростью и глубиной.",
|
|
@@ -1174,6 +1174,10 @@
|
|
|
1174
1174
|
"tts-1.description": "Gerçek zamanlı hız için optimize edilmiş en yeni metinden konuşmaya modelidir.",
|
|
1175
1175
|
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B), güçlü dil performansıyla hassas yönerge görevleri için ayarlanmıştır.",
|
|
1176
1176
|
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet, sektördeki standardı yükselterek rakiplerini ve Claude 3 Opus'u genel değerlendirmelerde geride bırakırken orta seviye hız ve maliyeti korur.",
|
|
1177
|
+
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet, Anthropic'in en hızlı yeni nesil modelidir. Claude 3 Haiku'ya kıyasla yeteneklerde gelişme gösterir ve birçok zeka testinde önceki amiral gemisi Claude 3 Opus'u geride bırakır.",
|
|
1178
|
+
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en zeki Haiku modelidir; yıldırım hızında çalışır ve gelişmiş düşünme yeteneğine sahiptir.",
|
|
1179
|
+
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6, ajan geliştirme ve kodlama için Anthropic'in en zeki modelidir.",
|
|
1180
|
+
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5, şimdiye kadarki en zeki Anthropic modelidir.",
|
|
1177
1181
|
"v0-1.0-md.description": "v0 API üzerinden sunulan eski bir modeldir.",
|
|
1178
1182
|
"v0-1.5-lg.description": "Gelişmiş düşünme veya akıl yürütme görevleri için uygundur.",
|
|
1179
1183
|
"v0-1.5-md.description": "Günlük görevler ve kullanıcı arayüzü üretimi için uygundur.",
|
|
@@ -1188,5 +1192,42 @@
|
|
|
1188
1192
|
"wanx2.1-t2i-turbo.description": "Hızlı üretim, güçlü genel kalite ve yüksek değerle tam anlamıyla yükseltilmiş sürüm. Tongyi Wanxiang 2.1 Speed sürümüne karşılık gelir.",
|
|
1189
1193
|
"whisper-1.description": "Çok dilli ASR, konuşma çevirisi ve dil tanıma destekleyen genel bir konuşma tanıma modelidir.",
|
|
1190
1194
|
"wizardlm2.description": "WizardLM 2, Microsoft AI tarafından geliştirilen, karmaşık diyalog, çok dilli görevler, akıl yürütme ve asistanlarda üstün performans gösteren bir dil modelidir.",
|
|
1191
|
-
"wizardlm2:8x22b.description": "WizardLM 2, Microsoft AI tarafından geliştirilen, karmaşık diyalog, çok dilli görevler, akıl yürütme ve asistanlarda üstün performans gösteren bir dil modelidir."
|
|
1195
|
+
"wizardlm2:8x22b.description": "WizardLM 2, Microsoft AI tarafından geliştirilen, karmaşık diyalog, çok dilli görevler, akıl yürütme ve asistanlarda üstün performans gösteren bir dil modelidir.",
|
|
1196
|
+
"x-ai/grok-4-fast-non-reasoning.description": "Grok 4 Fast (Akıl Yürütmesiz), xAI’nin yüksek verimli, düşük maliyetli çok modlu modelidir (2M bağlam penceresini destekler). Gecikme ve maliyet hassasiyeti olan, model içi akıl yürütme gerektirmeyen senaryolar için uygundur. Akıl yürütmeli versiyonuyla birlikte sunulur ve gerektiğinde API'deki reasoning parametresiyle akıl yürütme etkinleştirilebilir. İstemler ve tamamlamalar, xAI veya OpenRouter tarafından gelecekteki modelleri geliştirmek için kullanılabilir.",
|
|
1197
|
+
"x-ai/grok-4-fast.description": "Grok 4 Fast, xAI’nin yüksek verimli, düşük maliyetli modelidir (2M bağlam penceresini destekler) ve yüksek eşzamanlılık ile uzun bağlam gerektiren kullanım senaryoları için idealdir.",
|
|
1198
|
+
"x-ai/grok-4.1-fast-non-reasoning.description": "Grok 4 Fast (Akıl Yürütmesiz), xAI’nin yüksek verimli, düşük maliyetli çok modlu modelidir (2M bağlam penceresini destekler). Gecikme ve maliyet hassasiyeti olan, model içi akıl yürütme gerektirmeyen senaryolar için uygundur. Akıl yürütmeli versiyonuyla birlikte sunulur ve gerektiğinde API'deki reasoning parametresiyle akıl yürütme etkinleştirilebilir. İstemler ve tamamlamalar, xAI veya OpenRouter tarafından gelecekteki modelleri geliştirmek için kullanılabilir.",
|
|
1199
|
+
"x-ai/grok-4.1-fast.description": "Grok 4 Fast, xAI’nin yüksek verimli, düşük maliyetli modelidir (2M bağlam penceresini destekler) ve yüksek eşzamanlılık ile uzun bağlam gerektiren kullanım senaryoları için idealdir.",
|
|
1200
|
+
"x-ai/grok-4.description": "Grok 4, güçlü akıl yürütme ve çok modlu yeteneklere sahip xAI'nin amiral gemisi akıl yürütme modelidir.",
|
|
1201
|
+
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1, okunabilir ve mühendis dostu çıktılar sunan xAI'nin hızlı kodlama modelidir.",
|
|
1202
|
+
"xai/grok-2-vision.description": "Grok 2 Vision, görsel görevlerde üstün performans gösterir; görsel matematiksel akıl yürütme (MathVista) ve belge soru-cevap (DocVQA) alanlarında SOTA başarım sunar. Belgeler, grafikler, çizelgeler, ekran görüntüleri ve fotoğrafları işler.",
|
|
1203
|
+
"xai/grok-2.description": "Grok 2, ileri düzey akıl yürütme, güçlü sohbet, kodlama ve mantıksal performans sunan öncü bir modeldir; LMSYS sıralamasında Claude 3.5 Sonnet ve GPT-4 Turbo'nun üzerindedir.",
|
|
1204
|
+
"xai/grok-3-fast.description": "xAI’nin amiral gemisi modeli; veri çıkarımı, kodlama ve özetleme gibi kurumsal kullanım senaryolarında üstün performans gösterir. Finans, sağlık, hukuk ve bilim alanlarında derin alan bilgisine sahiptir. Hızlı varyantı, daha hızlı yanıtlar için yüksek hızlı altyapıda çalışır ve token başına daha yüksek maliyetlidir.",
|
|
1205
|
+
"xai/grok-3-mini-fast.description": "xAI’nin hafif modeli, yanıt vermeden önce düşünür; derin alan bilgisi gerektirmeyen basit veya mantıksal görevler için idealdir. Ham akıl yürütme izleri mevcuttur. Hızlı varyantı, daha hızlı yanıtlar için yüksek hızlı altyapıda çalışır ve token başına daha yüksek maliyetlidir.",
|
|
1206
|
+
"xai/grok-3-mini.description": "xAI’nin hafif modeli, yanıt vermeden önce düşünür; derin alan bilgisi gerektirmeyen basit veya mantıksal görevler için idealdir. Ham akıl yürütme izleri mevcuttur.",
|
|
1207
|
+
"xai/grok-3.description": "xAI’nin amiral gemisi modeli; veri çıkarımı, kodlama ve özetleme gibi kurumsal kullanım senaryolarında üstün performans gösterir. Finans, sağlık, hukuk ve bilim alanlarında derin alan bilgisine sahiptir.",
|
|
1208
|
+
"xai/grok-4.description": "xAI’nin en yeni amiral gemisi modeli; doğal dil, matematik ve akıl yürütmede benzersiz performans sunar—çok yönlü kullanım için idealdir.",
|
|
1209
|
+
"yi-large-fc.description": "Geliştirilmiş araç çağırma özelliğine sahip yi-large temelli model; ajan ve iş akışı senaryoları için uygundur.",
|
|
1210
|
+
"yi-large-preview.description": "Erken sürüm; daha yeni olan yi-large önerilir.",
|
|
1211
|
+
"yi-large-rag.description": "Gerçek zamanlı web aramasıyla bilgi getirme ve üretimi birleştiren, kesin yanıtlar sunan gelişmiş bir yi-large tabanlı hizmettir.",
|
|
1212
|
+
"yi-large-turbo.description": "Kalite, hız ve maliyet arasında güçlü bir denge sağlayacak şekilde ayarlanmış, olağanüstü değer ve performans sunar.",
|
|
1213
|
+
"yi-large.description": "Güçlü soru-cevap ve metin üretimi yeteneklerine sahip, 100 milyar parametreli yeni bir model.",
|
|
1214
|
+
"yi-lightning-lite.description": "Hafif bir sürüm; yi-lightning önerilir.",
|
|
1215
|
+
"yi-lightning.description": "Daha hızlı çıkarım ve yüksek kaliteli çıktı sunan en yeni yüksek performanslı model.",
|
|
1216
|
+
"yi-medium-200k.description": "Derinlemesine uzun biçimli anlama ve üretim için 200K bağlam uzunluğuna sahip model.",
|
|
1217
|
+
"yi-medium.description": "Talimat takibi için optimize edilmiş, dengeli yetenek ve değer sunan orta boyutlu ayarlanmış model.",
|
|
1218
|
+
"yi-spark.description": "Geliştirilmiş matematik ve kodlama yeteneklerine sahip, kompakt ve hızlı model.",
|
|
1219
|
+
"yi-vision-v2.description": "Çoklu görsel analiz ve çoklu görüntü anlama yetenekleriyle karmaşık görevler için bir görsel model.",
|
|
1220
|
+
"yi-vision.description": "Görüntü anlama ve analizde güçlü, karmaşık görevler için bir görsel model.",
|
|
1221
|
+
"z-ai/glm-4.5-air.description": "GLM 4.5 Air, güçlü akıl yürütme yeteneğini korurken maliyet hassasiyeti olan senaryolar için hafif bir GLM 4.5 varyantıdır.",
|
|
1222
|
+
"z-ai/glm-4.5.description": "GLM 4.5, mühendislik ve uzun bağlam görevleri için optimize edilmiş hibrit akıl yürütme yeteneğine sahip Z.AI’nin amiral gemisi modelidir.",
|
|
1223
|
+
"z-ai/glm-4.6.description": "GLM 4.6, Z.AI'nin genişletilmiş bağlam uzunluğu ve kodlama yeteneğine sahip amiral gemisi modelidir.",
|
|
1224
|
+
"z-ai/glm-4.7.description": "GLM-4.7, Zhipu'nun en yeni amiral gemisi modelidir; genel yeteneklerde gelişme, daha doğal ve sade yanıtlar ile daha etkileyici bir yazım deneyimi sunar.",
|
|
1225
|
+
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air, Mixture-of-Experts mimarisi kullanan ajan uygulamaları için temel bir modeldir. Araç kullanımı, web tarama, yazılım mühendisliği ve ön yüz kodlama için optimize edilmiştir ve Claude Code ile Roo Code gibi kod ajanlarıyla entegre çalışır. Karmaşık akıl yürütme ve günlük senaryoları hibrit akıl yürütme ile ele alır.",
|
|
1226
|
+
"zai-org/GLM-4.5.description": "GLM-4.5, Mixture-of-Experts mimarisi kullanan ajan uygulamaları için geliştirilmiş temel bir modeldir. Araç kullanımı, web tarama, yazılım mühendisliği ve ön yüz kodlama için derinlemesine optimize edilmiştir ve Claude Code ile Roo Code gibi kod ajanlarıyla entegre çalışır. Karmaşık akıl yürütme ve günlük senaryoları hibrit akıl yürütme ile ele alır.",
|
|
1227
|
+
"zai-org/GLM-4.5V.description": "GLM-4.5V, GLM-4.5-Air amiral gemisi metin modeli (106B toplam, 12B aktif) üzerine inşa edilmiş Zhipu AI’nin en yeni VLM modelidir. Daha düşük maliyetle yüksek performans sunan MoE mimarisi kullanır. GLM-4.1V-Thinking yolunu izler ve 3D-RoPE ile 3B mekansal akıl yürütmeyi geliştirir. Ön eğitim, SFT ve RL ile optimize edilmiştir; görüntü, video ve uzun belgeleri işler ve 41 açık çok modlu benchmark’ta en üst sıralarda yer alır. Düşünme modu geçişi, hız ve derinlik arasında denge sağlar.",
|
|
1228
|
+
"zai-org/GLM-4.6.description": "GLM-4.5'e kıyasla, GLM-4.6 bağlam uzunluğunu 128K'dan 200K'ya çıkararak daha karmaşık ajan görevlerini destekler. Kodlama testlerinde daha yüksek puan alır ve Claude Code, Cline, Roo Code ve Kilo Code gibi uygulamalarda daha güçlü gerçek dünya performansı gösterir. Akıl yürütme geliştirilmiş ve araç kullanımı desteklenmiştir, bu da genel yetenekleri güçlendirir. Ajan çerçevelerine daha iyi entegre olur, araç/arama ajanlarını geliştirir ve daha insani yazım tarzı ile rol yapma doğallığı sunar.",
|
|
1229
|
+
"zai/glm-4.5-air.description": "GLM-4.5 ve GLM-4.5-Air, ajan uygulamaları için geliştirilmiş en yeni amiral gemisi modellerimizdir ve her ikisi de MoE mimarisi kullanır. GLM-4.5, toplamda 355B ve her geçişte 32B aktif parametreye sahiptir; GLM-4.5-Air ise daha hafif olup 106B toplam ve 12B aktif parametreye sahiptir.",
|
|
1230
|
+
"zai/glm-4.5.description": "GLM-4.5 serisi, ajanlar için tasarlanmıştır. Amiral gemisi GLM-4.5, 355B toplam (32B aktif) parametre ile akıl yürütme, kodlama ve ajan becerilerini birleştirir ve hibrit akıl yürütme sistemi olarak çift çalışma modları sunar.",
|
|
1231
|
+
"zai/glm-4.5v.description": "GLM-4.5V, GLM-4.5-Air üzerine inşa edilmiştir; kanıtlanmış GLM-4.1V-Thinking tekniklerini devralır ve güçlü 106B parametreli MoE mimarisiyle ölçeklenir.",
|
|
1232
|
+
"zenmux/auto.description": "ZenMux otomatik yönlendirme, isteğinize göre desteklenen seçenekler arasından en iyi değer ve performansa sahip modeli seçer."
|
|
1192
1233
|
}
|
|
@@ -358,6 +358,7 @@
|
|
|
358
358
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.",
|
|
359
359
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.",
|
|
360
360
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 là mô hình thị giác-ngôn ngữ MoE dựa trên DeepSeekMoE-27B với kích hoạt thưa, đạt hiệu suất cao với chỉ 4.5B tham số hoạt động. Mô hình vượt trội trong QA thị giác, OCR, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh.",
|
|
361
|
+
"deepseek-chat.description": "Một mô hình mã nguồn mở mới kết hợp khả năng tổng quát và lập trình. Nó giữ lại khả năng đối thoại chung của mô hình trò chuyện và khả năng lập trình mạnh mẽ của mô hình lập trình viên, với sự điều chỉnh sở thích tốt hơn. DeepSeek-V2.5 cũng cải thiện khả năng viết và tuân thủ hướng dẫn.",
|
|
361
362
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B là mô hình ngôn ngữ lập trình được huấn luyện trên 2 nghìn tỷ token (87% mã nguồn, 13% văn bản tiếng Trung/Anh). Mô hình này hỗ trợ cửa sổ ngữ cảnh 16K và nhiệm vụ điền vào giữa đoạn mã, cung cấp khả năng hoàn thành mã ở cấp độ dự án và chèn đoạn mã chính xác.",
|
|
362
363
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.",
|
|
363
364
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.",
|
|
@@ -380,6 +381,7 @@
|
|
|
380
381
|
"deepseek-r1-fast-online.description": "Phiên bản đầy đủ DeepSeek R1 nhanh với tìm kiếm web thời gian thực, kết hợp khả năng 671B và phản hồi nhanh hơn.",
|
|
381
382
|
"deepseek-r1-online.description": "Phiên bản đầy đủ DeepSeek R1 với 671B tham số và tìm kiếm web thời gian thực, mang lại khả năng hiểu và tạo nội dung mạnh mẽ hơn.",
|
|
382
383
|
"deepseek-r1.description": "DeepSeek-R1 sử dụng dữ liệu khởi động lạnh trước khi áp dụng học tăng cường và đạt hiệu suất tương đương OpenAI-o1 trong các tác vụ toán học, lập trình và suy luận.",
|
|
384
|
+
"deepseek-reasoner.description": "Chế độ tư duy DeepSeek V3.2 tạo ra chuỗi suy nghĩ trước khi đưa ra câu trả lời cuối cùng để nâng cao độ chính xác.",
|
|
383
385
|
"deepseek-v2.description": "DeepSeek V2 là mô hình MoE hiệu quả cho xử lý tiết kiệm chi phí.",
|
|
384
386
|
"deepseek-v2:236b.description": "DeepSeek V2 236B là mô hình tập trung vào mã nguồn của DeepSeek với khả năng tạo mã mạnh mẽ.",
|
|
385
387
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật về lập trình, khả năng kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài.",
|
package/package.json
CHANGED
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
{
|
|
2
2
|
"name": "@lobehub/lobehub",
|
|
3
|
-
"version": "2.1.
|
|
3
|
+
"version": "2.1.26",
|
|
4
4
|
"description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
|
5
5
|
"keywords": [
|
|
6
6
|
"framework",
|