@lobehub/lobehub 2.1.24 → 2.1.26

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (47) hide show
  1. package/CHANGELOG.md +42 -0
  2. package/changelog/v2.json +14 -0
  3. package/docs/development/database-schema.dbml +43 -14
  4. package/locales/bg-BG/models.json +44 -0
  5. package/locales/fr-FR/models.json +58 -0
  6. package/locales/it-IT/models.json +47 -0
  7. package/locales/pl-PL/models.json +47 -0
  8. package/locales/ru-RU/models.json +73 -0
  9. package/locales/tr-TR/models.json +42 -1
  10. package/locales/vi-VN/models.json +2 -0
  11. package/package.json +1 -1
  12. package/packages/database/migrations/0078_added_id_nanoid_for_replacing_id.sql +7 -0
  13. package/packages/database/migrations/0079_update_id_nanoid_from_casted_id.sql +7 -0
  14. package/packages/database/migrations/0080_add_constraint_unique_not_null_to_id_nanoid.sql +27 -0
  15. package/packages/database/migrations/0081_switch_forgien_key_to_id_nanoid.sql +37 -0
  16. package/packages/database/migrations/0082_set_id_nanoid_as_primary.sql +20 -0
  17. package/packages/database/migrations/0083_remove_id_seq_identity_column.sql +7 -0
  18. package/packages/database/migrations/0084_rename_id_nanoid_to_id.sql +53 -0
  19. package/packages/database/migrations/0085_remove_id_unique_constraint.sql +7 -0
  20. package/packages/database/migrations/meta/0078_snapshot.json +11515 -0
  21. package/packages/database/migrations/meta/0079_snapshot.json +11515 -0
  22. package/packages/database/migrations/meta/0080_snapshot.json +11554 -0
  23. package/packages/database/migrations/meta/0081_snapshot.json +11554 -0
  24. package/packages/database/migrations/meta/0082_snapshot.json +11554 -0
  25. package/packages/database/migrations/meta/0083_snapshot.json +11435 -0
  26. package/packages/database/migrations/meta/0084_snapshot.json +11435 -0
  27. package/packages/database/migrations/meta/0085_snapshot.json +11396 -0
  28. package/packages/database/migrations/meta/_journal.json +56 -0
  29. package/packages/database/src/models/__tests__/apiKey.test.ts +18 -6
  30. package/packages/database/src/models/apiKey.ts +5 -5
  31. package/packages/database/src/schemas/apiKey.ts +6 -2
  32. package/packages/database/src/schemas/ragEvals.ts +27 -20
  33. package/packages/database/src/schemas/rbac.ts +15 -15
  34. package/packages/database/src/server/models/ragEval/dataset.ts +3 -3
  35. package/packages/database/src/server/models/ragEval/datasetRecord.ts +5 -5
  36. package/packages/database/src/server/models/ragEval/evaluation.ts +3 -3
  37. package/packages/database/src/server/models/ragEval/evaluationRecord.ts +6 -6
  38. package/packages/types/src/apiKey.ts +1 -1
  39. package/packages/types/src/eval/dataset.ts +2 -2
  40. package/packages/types/src/eval/evaluation.ts +3 -3
  41. package/src/app/[variants]/(main)/settings/apikey/features/ApiKey.tsx +2 -2
  42. package/src/server/routers/async/ragEval.ts +1 -1
  43. package/src/server/routers/lambda/apiKey.ts +3 -3
  44. package/src/server/routers/lambda/ragEval.ts +10 -10
  45. package/src/services/ragEval.ts +10 -10
  46. package/src/store/library/slices/ragEval/actions/dataset.ts +3 -3
  47. package/src/store/library/slices/ragEval/actions/evaluation.ts +3 -3
package/CHANGELOG.md CHANGED
@@ -2,6 +2,48 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 2.1.26](https://github.com/lobehub/lobe-chat/compare/v2.1.25...v2.1.26)
6
+
7
+ <sup>Released on **2026-02-10**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Update i18n.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Update i18n, closes [#12227](https://github.com/lobehub/lobe-chat/issues/12227) ([37b06c4](https://github.com/lobehub/lobe-chat/commit/37b06c4))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
30
+ ### [Version 2.1.25](https://github.com/lobehub/lobe-chat/compare/v2.1.24...v2.1.25)
31
+
32
+ <sup>Released on **2026-02-09**</sup>
33
+
34
+ <br/>
35
+
36
+ <details>
37
+ <summary><kbd>Improvements and Fixes</kbd></summary>
38
+
39
+ </details>
40
+
41
+ <div align="right">
42
+
43
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
44
+
45
+ </div>
46
+
5
47
  ### [Version 2.1.24](https://github.com/lobehub/lobe-chat/compare/v2.1.23...v2.1.24)
6
48
 
7
49
  <sup>Released on **2026-02-09**</sup>
package/changelog/v2.json CHANGED
@@ -1,4 +1,18 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Update i18n."
6
+ ]
7
+ },
8
+ "date": "2026-02-10",
9
+ "version": "2.1.26"
10
+ },
11
+ {
12
+ "children": {},
13
+ "date": "2026-02-09",
14
+ "version": "2.1.25"
15
+ },
2
16
  {
3
17
  "children": {
4
18
  "fixes": [
@@ -102,6 +102,31 @@ table agent_cron_jobs {
102
102
  }
103
103
  }
104
104
 
105
+ table agent_skills {
106
+ id text [pk, not null]
107
+ name text [not null]
108
+ description text [not null]
109
+ identifier text [not null]
110
+ source text [not null]
111
+ manifest jsonb [not null, default: `{}`]
112
+ content text
113
+ editor_data jsonb
114
+ resources jsonb [default: `{}`]
115
+ zip_file_hash varchar(64)
116
+ user_id text [not null]
117
+ accessed_at "timestamp with time zone" [not null, default: `now()`]
118
+ created_at "timestamp with time zone" [not null, default: `now()`]
119
+ updated_at "timestamp with time zone" [not null, default: `now()`]
120
+
121
+ indexes {
122
+ (user_id, name) [name: 'agent_skills_user_name_idx', unique]
123
+ identifier [name: 'agent_skills_identifier_idx']
124
+ user_id [name: 'agent_skills_user_id_idx']
125
+ source [name: 'agent_skills_source_idx']
126
+ zip_file_hash [name: 'agent_skills_zip_hash_idx']
127
+ }
128
+ }
129
+
105
130
  table ai_models {
106
131
  id varchar(150) [not null]
107
132
  display_name varchar(200)
@@ -155,7 +180,7 @@ table ai_providers {
155
180
  }
156
181
 
157
182
  table api_keys {
158
- id integer [pk, not null]
183
+ id text [pk, not null]
159
184
  name varchar(256) [not null]
160
185
  key varchar(256) [not null, unique]
161
186
  enabled boolean [default: true]
@@ -938,8 +963,8 @@ table unstructured_chunks {
938
963
  }
939
964
 
940
965
  table rag_eval_dataset_records {
941
- id integer [pk, not null]
942
- dataset_id integer [not null]
966
+ id text [pk, not null]
967
+ dataset_id text [not null]
943
968
  ideal text
944
969
  question text
945
970
  reference_files text[]
@@ -955,7 +980,7 @@ table rag_eval_dataset_records {
955
980
  }
956
981
 
957
982
  table rag_eval_datasets {
958
- id integer [pk, not null]
983
+ id text [pk, not null]
959
984
  description text
960
985
  name text [not null]
961
986
  knowledge_base_id text
@@ -970,13 +995,13 @@ table rag_eval_datasets {
970
995
  }
971
996
 
972
997
  table rag_eval_evaluations {
973
- id integer [pk, not null]
998
+ id text [pk, not null]
974
999
  name text [not null]
975
1000
  description text
976
1001
  eval_records_url text
977
1002
  status text
978
1003
  error jsonb
979
- dataset_id integer [not null]
1004
+ dataset_id text [not null]
980
1005
  knowledge_base_id text
981
1006
  language_model text
982
1007
  embedding_model text
@@ -991,7 +1016,7 @@ table rag_eval_evaluations {
991
1016
  }
992
1017
 
993
1018
  table rag_eval_evaluation_records {
994
- id integer [pk, not null]
1019
+ id text [pk, not null]
995
1020
  question text [not null]
996
1021
  answer text
997
1022
  context text[]
@@ -1002,8 +1027,8 @@ table rag_eval_evaluation_records {
1002
1027
  embedding_model text
1003
1028
  question_embedding_id uuid
1004
1029
  duration integer
1005
- dataset_record_id integer [not null]
1006
- evaluation_id integer [not null]
1030
+ dataset_record_id text [not null]
1031
+ evaluation_id text [not null]
1007
1032
  user_id text
1008
1033
  accessed_at "timestamp with time zone" [not null, default: `now()`]
1009
1034
  created_at "timestamp with time zone" [not null, default: `now()`]
@@ -1015,7 +1040,7 @@ table rag_eval_evaluation_records {
1015
1040
  }
1016
1041
 
1017
1042
  table rbac_permissions {
1018
- id integer [pk, not null]
1043
+ id text [pk, not null]
1019
1044
  code text [not null, unique]
1020
1045
  name text [not null]
1021
1046
  description text
@@ -1027,8 +1052,8 @@ table rbac_permissions {
1027
1052
  }
1028
1053
 
1029
1054
  table rbac_role_permissions {
1030
- role_id integer [not null]
1031
- permission_id integer [not null]
1055
+ role_id text [not null]
1056
+ permission_id text [not null]
1032
1057
  created_at "timestamp with time zone" [not null, default: `now()`]
1033
1058
 
1034
1059
  indexes {
@@ -1039,7 +1064,7 @@ table rbac_role_permissions {
1039
1064
  }
1040
1065
 
1041
1066
  table rbac_roles {
1042
- id integer [pk, not null]
1067
+ id text [pk, not null]
1043
1068
  name text [not null, unique]
1044
1069
  display_name text [not null]
1045
1070
  description text
@@ -1053,7 +1078,7 @@ table rbac_roles {
1053
1078
 
1054
1079
  table rbac_user_roles {
1055
1080
  user_id text [not null]
1056
- role_id integer [not null]
1081
+ role_id text [not null]
1057
1082
  created_at "timestamp with time zone" [not null, default: `now()`]
1058
1083
  expires_at "timestamp with time zone"
1059
1084
 
@@ -1523,6 +1548,10 @@ table user_memory_persona_documents {
1523
1548
  }
1524
1549
  }
1525
1550
 
1551
+ ref: agent_skills.user_id - users.id
1552
+
1553
+ ref: agent_skills.zip_file_hash - global_files.hash_id
1554
+
1526
1555
  ref: accounts.user_id > users.id
1527
1556
 
1528
1557
  ref: passkey.userId > users.id
@@ -358,6 +358,7 @@
358
358
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
359
359
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
360
360
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
361
+ "deepseek-chat.description": "Нов отворен модел, съчетаващ общи и програмни способности. Съхранява общия диалогов капацитет на чат модела и силните програмни умения на кодиращия модел, с по-добро съответствие с предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.",
361
362
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
362
363
  "deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
363
364
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
@@ -380,6 +381,7 @@
380
381
  "deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
381
382
  "deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
382
383
  "deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
384
+ "deepseek-reasoner.description": "Режимът на мислене DeepSeek V3.2 извежда верига от мисли преди крайния отговор за повишена точност.",
383
385
  "deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
384
386
  "deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
385
387
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
@@ -469,6 +471,7 @@
469
471
  "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K е модел с висока едновременност и висока стойност за мащабни онлайн услуги и корпоративни приложения.",
470
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
471
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с висока степен на контрол и качество. Генерира изображения от текстови подсказки.",
472
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
473
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
474
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
@@ -476,6 +479,8 @@
476
479
  "fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
477
480
  "fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
478
481
  "fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
482
+ "fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, който поддържа семантични и визуални редакции, прецизно редактира китайски и английски текст и позволява висококачествени трансформации като смяна на стил и завъртане на обекти.",
483
+ "fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с впечатляващо визуализиране на китайски текст и разнообразни визуални стилове.",
479
484
  "flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 1–4 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
480
485
  "flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
481
486
  "flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
@@ -520,6 +525,7 @@
520
525
  "gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
521
526
  "gemini-3-flash-preview.description": "Gemini 3 Flash е най-интелигентният модел, създаден за скорост, съчетаващ авангардна интелигентност с отлично търсене и обоснованост.",
522
527
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)е модел на Google за генериране на изображения, който също така поддържа мултимодален диалог.",
528
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения, който също поддържа мултимодален чат.",
523
529
  "gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.",
524
530
  "gemini-flash-latest.description": "Най-новата версия на Gemini Flash",
525
531
  "gemini-flash-lite-latest.description": "Най-новата версия на Gemini Flash-Lite",
@@ -735,6 +741,44 @@
735
741
  "irag-1.0.description": "ERNIE iRAG е модел за генериране, подсилен с извличане на изображения, предназначен за търсене на изображения, визуално-текстово извличане и създаване на съдържание.",
736
742
  "jamba-large.description": "Нашият най-мощен и напреднал модел, създаден за комплексни корпоративни задачи с изключителна производителност.",
737
743
  "jamba-mini.description": "Най-ефективният модел в своя клас, балансиращ скорост и качество с малък отпечатък.",
744
+ "jina-deepsearch-v1.description": "DeepSearch комбинира уеб търсене, четене и разсъждение за задълбочени изследвания. Представете си го като агент, който поема вашата изследователска задача, извършва широки търсения с множество итерации и едва след това предоставя отговор. Процесът включва непрекъснато проучване, разсъждение и многопластово решаване на проблеми, коренно различен от стандартните LLM, които отговарят въз основа на предварително обучение или традиционни RAG системи, разчитащи на еднократно повърхностно търсене.",
745
+ "kimi-k2-0711-preview.description": "kimi-k2 е MoE базов модел с мощни способности за програмиране и агентни задачи (1T общи параметри, 32B активни), надминаващ други водещи отворени модели в области като разсъждение, програмиране, математика и агентни бенчмаркове.",
746
+ "kimi-k2-0905-preview.description": "kimi-k2-0905-preview предлага прозорец на контекста от 256k, по-силно агентно програмиране, по-добро качество на front-end код и подобрено разбиране на контекста.",
747
+ "kimi-k2-instruct.description": "Kimi K2 Instruct е официалният модел за разсъждение на Kimi с дълъг контекст за код, въпроси и отговори и други.",
748
+ "kimi-k2-thinking-turbo.description": "Високоскоростен вариант на K2 с дълбоко мислене, 256k контекст, силно дълбоко разсъждение и скорост на изход от 60–100 токена/сек.",
749
+ "kimi-k2-thinking.description": "kimi-k2-thinking е мисловен модел на Moonshot AI с общи агентни и разсъждателни способности. Отличава се с дълбоко разсъждение и може да решава трудни задачи чрез многостъпкова употреба на инструменти.",
750
+ "kimi-k2-turbo-preview.description": "kimi-k2 е MoE базов модел с мощни способности за програмиране и агентни задачи (1T общи параметри, 32B активни), надминаващ други водещи отворени модели в области като разсъждение, програмиране, математика и агентни бенчмаркове.",
751
+ "kimi-k2.5.description": "Kimi K2.5 е най-способният модел на Kimi, предоставящ водещи резултати с отворен код в агентни задачи, програмиране и визуално разбиране. Поддържа мултимодални входове и режими с и без мислене.",
752
+ "kimi-k2.description": "Kimi-K2 е MoE базов модел от Moonshot AI с мощни способности за програмиране и агентни задачи, с общо 1T параметри и 32B активни. В бенчмаркове за общо разсъждение, програмиране, математика и агентни задачи надминава други водещи отворени модели.",
753
+ "kimi-k2:1t.description": "Kimi K2 е голям MoE LLM от Moonshot AI с 1T общи параметри и 32B активни на всяко преминаване. Оптимизиран е за агентни способности, включително напреднало използване на инструменти, разсъждение и синтез на код.",
754
+ "kimi-latest.description": "Kimi Latest използва най-новия модел на Kimi и може да включва експериментални функции. Поддържа разбиране на изображения и автоматично избира модели за таксуване 8k/32k/128k според дължината на контекста.",
755
+ "kuaishou/kat-coder-pro-v1.description": "KAT-Coder-Pro-V1 (ограничено безплатен) се фокусира върху разбиране на код и автоматизация за ефективни кодиращи агенти.",
756
+ "learnlm-1.5-pro-experimental.description": "LearnLM е експериментален, задачно-ориентиран модел, обучен според принципите на науката за учене, за да следва системни инструкции в образователни сценарии, действайки като експертен преподавател.",
757
+ "learnlm-2.0-flash-experimental.description": "LearnLM е експериментален, задачно-ориентиран модел, обучен според принципите на науката за учене, за да следва системни инструкции в образователни сценарии, действайки като експертен преподавател.",
758
+ "lite.description": "Spark Lite е лек LLM с ултраниска латентност и ефективна обработка. Напълно безплатен е и поддържа търсене в реално време в уеб. Бързите му отговори се представят добре на устройства с ниска изчислителна мощност и при фина настройка на модели, осигурявайки висока ефективност на разходите и интелигентно изживяване, особено за въпроси и отговори, генериране на съдържание и търсене.",
759
+ "llama-3.1-70b-versatile.description": "Llama 3.1 70B предоставя по-силно AI разсъждение за сложни приложения, поддържайки тежки изчисления с висока ефективност и точност.",
760
+ "llama-3.1-8b-instant.description": "Llama 3.1 8B е високоефективен модел с бързо генериране на текст, идеален за мащабни, икономични приложения.",
761
+ "llama-3.1-instruct.description": "Llama 3.1, настроен за инструкции, е оптимизиран за чат и надминава много отворени чат модели в общи индустриални бенчмаркове.",
762
+ "llama-3.2-11b-vision-instruct.description": "Силно визуално разсъждение върху изображения с висока резолюция, подходящо за приложения за визуално разбиране.",
763
+ "llama-3.2-11b-vision-preview.description": "Llama 3.2 е проектиран за задачи, съчетаващи визия и текст, отличаващ се в надписи на изображения и визуални въпроси и отговори, свързващ езиковото генериране и визуалното разсъждение.",
764
+ "llama-3.2-90b-vision-instruct.description": "Разширено визуално разсъждение за приложения с агенти за визуално разбиране.",
765
+ "llama-3.2-90b-vision-preview.description": "Llama 3.2 е проектиран за задачи, съчетаващи визия и текст, отличаващ се в надписи на изображения и визуални въпроси и отговори, свързващ езиковото генериране и визуалното разсъждение.",
766
+ "llama-3.2-vision-instruct.description": "Llama 3.2-Vision, настроен за инструкции, е оптимизиран за визуално разпознаване, визуално разсъждение, надписи и общи въпроси и отговори върху изображения.",
767
+ "llama-3.3-70b-versatile.description": "Meta Llama 3.3 е многоезичен LLM с 70B параметри (текст вход/изход), предлагащ предварително обучени и настроени за инструкции варианти. Текстовият модел, настроен за инструкции, е оптимизиран за многоезичен диалог и надминава много отворени и затворени чат модели в общи индустриални бенчмаркове.",
768
+ "llama-3.3-70b.description": "Llama 3.3 70B: среден до голям модел от серията Llama, балансиращ между разсъждение и производителност.",
769
+ "llama-3.3-instruct.description": "Llama 3.3, настроен за инструкции, е оптимизиран за чат и надминава много отворени чат модели в общи индустриални бенчмаркове.",
770
+ "llama3-70b-8192.description": "Meta Llama 3 70B предлага изключителна способност за справяне със сложност за взискателни проекти.",
771
+ "llama3-8b-8192.description": "Meta Llama 3 8B осигурява силно разсъждение за разнообразни сценарии.",
772
+ "llama3-groq-70b-8192-tool-use-preview.description": "Llama 3 Groq 70B Tool Use предоставя силно извикване на инструменти за ефективно справяне със сложни задачи.",
773
+ "llama3-groq-8b-8192-tool-use-preview.description": "Llama 3 Groq 8B Tool Use е оптимизиран за ефективно използване на инструменти с бързи паралелни изчисления.",
774
+ "llama3.1-8b.description": "Llama 3.1 8B: малък, с ниска латентност вариант на Llama за леки онлайн изводи и чат.",
775
+ "llama3.1.description": "Llama 3.1 е водещият модел на Meta, мащабиран до 405B параметри за сложен диалог, многоезичен превод и анализ на данни.",
776
+ "llama3.1:405b.description": "Llama 3.1 е водещият модел на Meta, мащабиран до 405B параметри за сложен диалог, многоезичен превод и анализ на данни.",
777
+ "llama3.1:70b.description": "Llama 3.1 е водещият модел на Meta, мащабиран до 405B параметри за сложен диалог, многоезичен превод и анализ на данни.",
778
+ "llava-v1.5-7b-4096-preview.description": "LLaVA 1.5 7B съчетава визуална обработка за генериране на сложни изходи от визуални входове.",
779
+ "llava.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
780
+ "llava:13b.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
781
+ "llava:34b.description": "LLaVA е мултимодален модел, комбиниращ визуален енкодер и Vicuna за силно разбиране на визия и език.",
738
782
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
739
783
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
740
784
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
@@ -891,6 +891,12 @@
891
891
  "mistral/mistral-embed.description": "Un modèle général d’embedding de texte pour la recherche sémantique, la similarité, le clustering et les flux de travail RAG.",
892
892
  "mistral/mistral-large.description": "Mistral Large est idéal pour les tâches complexes nécessitant un raisonnement poussé ou une spécialisation — génération de texte synthétique, génération de code, RAG ou agents.",
893
893
  "mistral/mistral-small.description": "Mistral Small est idéal pour les tâches simples et groupables comme la classification, le support client ou la génération de texte, offrant d’excellentes performances à un prix abordable.",
894
+ "mistral/mixtral-8x22b-instruct.description": "Modèle Instruct 8x22B. 8x22B est un modèle MoE ouvert proposé par Mistral.",
895
+ "mistral/pixtral-12b.description": "Un modèle 12B combinant compréhension d’images et texte.",
896
+ "mistral/pixtral-large.description": "Pixtral Large est le deuxième modèle de notre gamme multimodale, avec une compréhension d’image de pointe. Il gère les documents, graphiques et images naturelles tout en conservant l’excellente compréhension textuelle de Mistral Large 2.",
897
+ "mistralai/Mistral-7B-Instruct-v0.1.description": "Mistral (7B) Instruct est reconnu pour ses performances solides sur de nombreuses tâches linguistiques.",
898
+ "mistralai/Mistral-7B-Instruct-v0.2.description": "Mistral (7B) Instruct v0.2 améliore la gestion des instructions et la précision des résultats.",
899
+ "mistralai/Mistral-7B-Instruct-v0.3.description": "Mistral (7B) Instruct v0.3 offre un calcul efficace et une compréhension linguistique robuste pour de nombreux cas d’usage.",
894
900
  "mistralai/Mistral-7B-v0.1.description": "Mistral 7B est un modèle compact mais performant, idéal pour le traitement par lots et les tâches simples comme la classification et la génération de texte, avec un raisonnement solide.",
895
901
  "mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct (141B) est un très grand modèle de langage conçu pour les charges de travail intensives.",
896
902
  "mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46,7B) offre une grande capacité pour le traitement de données à grande échelle.",
@@ -921,6 +927,58 @@
921
927
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B est un LLM personnalisé par NVIDIA pour améliorer l’utilité. Il obtient d’excellents résultats sur Arena Hard, AlpacaEval 2 LC et GPT-4-Turbo MT-Bench, se classant n°1 sur les trois benchmarks d’alignement automatique au 1er octobre 2024. Il est entraîné à partir de Llama-3.1-70B-Instruct avec RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward et des invites HelpSteer2-Preference.",
922
928
  "nvidia/llama-3.1-nemotron-51b-instruct.description": "Un modèle de langage distinctif offrant une précision et une efficacité exceptionnelles.",
923
929
  "nvidia/llama-3.1-nemotron-70b-instruct.description": "Llama-3.1-Nemotron-70B-Instruct est un modèle personnalisé par NVIDIA conçu pour améliorer l’utilité des réponses des LLM.",
930
+ "o1-mini.description": "Plus petit et plus rapide que o1-preview, avec un coût réduit de 80 %, performant en génération de code et sur les tâches à contexte court.",
931
+ "o1-preview.description": "Axé sur le raisonnement avancé et la résolution de problèmes complexes, notamment en mathématiques et en sciences. Idéal pour les applications nécessitant une compréhension approfondie du contexte et des flux de travail autonomes.",
932
+ "o1-pro.description": "La série o1 est entraînée par apprentissage par renforcement pour réfléchir avant de répondre et gérer un raisonnement complexe. o1-pro utilise plus de ressources pour une réflexion approfondie et des réponses de qualité constante.",
933
+ "o1.description": "o1 est le nouveau modèle de raisonnement d’OpenAI avec entrée texte + image et sortie texte, adapté aux tâches complexes nécessitant une vaste base de connaissances. Il dispose d’une fenêtre de contexte de 200K et d’une base de connaissances arrêtée en octobre 2023.",
934
+ "o3-2025-04-16.description": "o3 est le nouveau modèle de raisonnement d’OpenAI avec entrée texte + image et sortie texte, conçu pour les tâches complexes nécessitant une large base de connaissances.",
935
+ "o3-deep-research.description": "o3-deep-research est notre modèle de recherche avancée le plus performant pour les tâches complexes en plusieurs étapes. Il peut effectuer des recherches sur le web et accéder à vos données via les connecteurs MCP.",
936
+ "o3-mini.description": "o3-mini est notre dernier modèle de raisonnement compact, offrant une intelligence supérieure tout en conservant les mêmes coûts et latences que o1-mini.",
937
+ "o3-pro-2025-06-10.description": "o3 Pro est le nouveau modèle de raisonnement d’OpenAI avec entrée texte + image et sortie texte, conçu pour les tâches complexes nécessitant une vaste base de connaissances.",
938
+ "o3-pro.description": "o3-pro utilise davantage de ressources pour une réflexion plus poussée et fournit des réponses de meilleure qualité de manière constante ; disponible uniquement via l’API Responses.",
939
+ "o3.description": "o3 est un modèle polyvalent puissant qui établit une nouvelle référence en mathématiques, sciences, programmation et raisonnement visuel. Il excelle en rédaction technique et en suivi d’instructions, et peut analyser texte, code et images pour résoudre des problèmes en plusieurs étapes.",
940
+ "o4-mini-2025-04-16.description": "o4-mini est un modèle de raisonnement OpenAI avec entrée texte + image et sortie texte, adapté aux tâches complexes nécessitant une vaste base de connaissances, avec une fenêtre de contexte de 200K.",
941
+ "o4-mini-deep-research.description": "o4-mini-deep-research est un modèle de recherche avancée plus rapide et plus abordable pour les tâches complexes en plusieurs étapes. Il peut effectuer des recherches sur le web et accéder à vos données via les connecteurs MCP.",
942
+ "o4-mini.description": "o4-mini est le dernier modèle compact de la série o, optimisé pour un raisonnement rapide et efficace, avec de hautes performances en codage et en vision.",
943
+ "open-codestral-mamba.description": "Codestral Mamba est un modèle linguistique Mamba 2 axé sur la génération de code, prenant en charge des tâches avancées de programmation et de raisonnement.",
944
+ "open-mistral-7b.description": "Mistral 7B est un modèle compact mais performant, efficace pour le traitement par lots et les tâches simples comme la classification et la génération de texte, avec un bon raisonnement.",
945
+ "open-mistral-nemo.description": "Mistral Nemo est un modèle 12B co-développé avec Nvidia, offrant de solides performances en raisonnement et en codage, avec une intégration facile.",
946
+ "open-mixtral-8x22b.description": "Mixtral 8x22B est un modèle MoE de grande taille pour les tâches complexes, offrant un raisonnement puissant et un débit élevé.",
947
+ "open-mixtral-8x7b.description": "Mixtral 8x7B est un modèle MoE clairsemé qui accélère l’inférence, adapté aux tâches multilingues et à la génération de code.",
948
+ "openai/gpt-3.5-turbo-instruct.description": "Capacités similaires aux modèles de l’ère GPT-3, compatible avec les points de terminaison de complétion hérités plutôt que le chat.",
949
+ "openai/gpt-3.5-turbo.description": "Le modèle GPT-3.5 le plus performant et économique d’OpenAI, optimisé pour le chat tout en restant efficace pour les complétions classiques.",
950
+ "openai/gpt-4-turbo.description": "gpt-4-turbo d’OpenAI possède une vaste base de connaissances générales et une expertise par domaine, suit des instructions complexes en langage naturel et résout avec précision des problèmes difficiles. Sa base de connaissances s’arrête en avril 2023 avec une fenêtre de contexte de 128k.",
951
+ "openai/gpt-4.1-mini.description": "GPT-4.1 Mini offre une latence réduite et un meilleur rapport qualité-prix pour les charges de travail à contexte moyen.",
952
+ "openai/gpt-4.1-nano.description": "GPT-4.1 Nano est une option ultra-économique et à faible latence pour les chats courts à haute fréquence ou la classification.",
953
+ "openai/gpt-4.1.description": "La série GPT-4.1 propose des fenêtres de contexte plus larges et des capacités renforcées en ingénierie et en raisonnement.",
954
+ "openai/gpt-4o-mini.description": "GPT-4o-mini est une variante rapide et compacte de GPT-4o pour les usages multimodaux à faible latence.",
955
+ "openai/gpt-4o.description": "La famille GPT-4o est le modèle Omni d’OpenAI avec entrée texte + image et sortie texte.",
956
+ "openai/gpt-5-chat.description": "GPT-5 Chat est une variante de GPT-5 optimisée pour les conversations avec une latence réduite pour une meilleure interactivité.",
957
+ "openai/gpt-5-codex.description": "GPT-5-Codex est une variante de GPT-5 optimisée pour la programmation et les flux de travail de code à grande échelle.",
958
+ "openai/gpt-5-mini.description": "GPT-5 Mini est une version plus petite de GPT-5 pour les scénarios à faible latence et faible coût.",
959
+ "openai/gpt-5-nano.description": "GPT-5 Nano est la variante ultra-compacte pour les scénarios avec des contraintes strictes de coût et de latence.",
960
+ "openai/gpt-5-pro.description": "GPT-5 Pro est le modèle phare d’OpenAI, offrant un raisonnement renforcé, une génération de code avancée et des fonctionnalités de niveau entreprise, avec routage à l’exécution et politiques de sécurité renforcées.",
961
+ "openai/gpt-5.1-chat.description": "GPT-5.1 Chat est le modèle léger de la famille GPT-5.1, optimisé pour les conversations à faible latence tout en conservant un bon raisonnement et une exécution précise des instructions.",
962
+ "openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini est une version plus petite et plus rapide de GPT-5.1-Codex, idéale pour les scénarios de codage sensibles à la latence et au coût.",
963
+ "openai/gpt-5.1-codex.description": "GPT-5.1-Codex est une variante de GPT-5.1 optimisée pour l’ingénierie logicielle et les flux de travail de codage, adaptée aux refactorisations importantes, au débogage complexe et aux tâches de codage autonomes longues.",
964
+ "openai/gpt-5.1.description": "GPT-5.1 est le dernier modèle phare de la série GPT-5, avec des améliorations significatives en raisonnement général, suivi d’instructions et fluidité conversationnelle, adapté à un large éventail de tâches.",
965
+ "openai/gpt-5.2-chat.description": "GPT-5.2 Chat est la variante ChatGPT pour découvrir les dernières améliorations conversationnelles.",
966
+ "openai/gpt-5.2-pro.description": "GPT-5.2 Pro : une variante GPT-5.2 plus intelligente et plus précise (uniquement via l’API Responses), adaptée aux problèmes complexes et au raisonnement multi-tours prolongé.",
967
+ "openai/gpt-5.2.description": "GPT-5.2 est un modèle phare pour le codage et les flux de travail agentiques, avec un raisonnement renforcé et des performances sur contexte long.",
968
+ "openai/gpt-5.description": "GPT-5 est le modèle haute performance d’OpenAI pour un large éventail de tâches de production et de recherche.",
969
+ "openai/gpt-oss-120b.description": "Un LLM polyvalent très performant avec un raisonnement fort et contrôlable.",
970
+ "openai/gpt-oss-20b.description": "Un modèle linguistique compact à poids ouverts, optimisé pour une faible latence et les environnements à ressources limitées, y compris les déploiements locaux et en périphérie.",
971
+ "openai/o1-mini.description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour le codage, les mathématiques et les sciences. Il dispose d’un contexte de 128K et d’une base de connaissances arrêtée en octobre 2023.",
972
+ "openai/o1-preview.description": "o1 est le nouveau modèle de raisonnement d’OpenAI pour les tâches complexes nécessitant une vaste base de connaissances. Il dispose d’un contexte de 128K et d’une base de connaissances arrêtée en octobre 2023.",
973
+ "openai/o1.description": "OpenAI o1 est un modèle de raisonnement phare conçu pour les problèmes complexes nécessitant une réflexion approfondie, offrant un raisonnement solide et une précision accrue sur les tâches en plusieurs étapes.",
974
+ "openai/o3-mini-high.description": "o3-mini (raisonnement élevé) offre une intelligence supérieure tout en conservant les mêmes objectifs de coût et de latence que o1-mini.",
975
+ "openai/o3-mini.description": "o3-mini est le dernier modèle de raisonnement compact d’OpenAI, offrant une intelligence supérieure tout en conservant les mêmes objectifs de coût et de latence que o1-mini.",
976
+ "openai/o3.description": "OpenAI o3 est le modèle de raisonnement le plus puissant, établissant un nouveau SOTA en codage, mathématiques, sciences et perception visuelle. Il excelle dans les requêtes complexes et multi-facettes, et est particulièrement performant dans l’analyse d’images, de graphiques et de diagrammes.",
977
+ "openai/o4-mini-high.description": "o4-mini niveau de raisonnement élevé, optimisé pour un raisonnement rapide et efficace avec de solides performances en codage et en vision.",
978
+ "openai/o4-mini.description": "OpenAI o4-mini est un modèle de raisonnement compact et efficace pour les scénarios à faible latence.",
979
+ "openai/text-embedding-3-large.description": "Le modèle d’embedding le plus performant d’OpenAI pour les tâches en anglais et en langues étrangères.",
980
+ "openai/text-embedding-3-small.description": "Une variante améliorée et plus performante du modèle d’embedding ada d’OpenAI.",
981
+ "openai/text-embedding-ada-002.description": "Modèle d’embedding textuel hérité d’OpenAI.",
924
982
  "pixtral-12b-2409.description": "Pixtral excelle dans la compréhension de graphiques/images, les questions-réponses sur documents, le raisonnement multimodal et le suivi d'instructions. Il traite les images à leur résolution et ratio d'origine, et gère un nombre illimité d'images dans une fenêtre de contexte de 128K.",
925
983
  "pixtral-large-latest.description": "Pixtral Large est un modèle multimodal ouvert de 124 milliards de paramètres basé sur Mistral Large 2, le deuxième de notre famille multimodale, avec une compréhension d'image de pointe.",
926
984
  "pro-128k.description": "Spark Pro 128K offre une très grande capacité de contexte, jusqu'à 128K, idéale pour les documents longs nécessitant une analyse complète du texte et une cohérence à long terme, avec une logique fluide et un support de citations variées dans des discussions complexes.",
@@ -1035,6 +1035,8 @@
1035
1035
  "qwen/qwen-2-7b-instruct:free.description": "Qwen2 è una nuova famiglia di modelli linguistici di grandi dimensioni con maggiore capacità di comprensione e generazione.",
1036
1036
  "qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL è l’ultima iterazione di Qwen-VL, con prestazioni all’avanguardia nei benchmark visivi come MathVista, DocVQA, RealWorldQA e MTVQA. Comprende oltre 20 minuti di video per domande-risposte, dialoghi e creazione di contenuti di alta qualità. Gestisce anche ragionamento complesso e decisioni, integrandosi con dispositivi mobili e robot per agire in base al contesto visivo e alle istruzioni testuali. Oltre a cinese e inglese, legge testi in immagini in molte lingue, tra cui la maggior parte delle lingue europee, giapponese, coreano, arabo e vietnamita.",
1037
1037
  "qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct è uno degli ultimi rilasci LLM di Alibaba Cloud. Il modello da 72B offre miglioramenti significativi in programmazione e matematica, supporta oltre 29 lingue (inclusi cinese e inglese) e migliora notevolmente l’esecuzione di istruzioni, la comprensione di dati strutturati e l’output strutturato (in particolare JSON).",
1038
+ "qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct è uno degli ultimi modelli LLM rilasciati da Alibaba Cloud. Il modello da 32 miliardi di parametri offre miglioramenti significativi nel coding e nella matematica, supporta oltre 29 lingue (incluso il cinese e l’inglese) e migliora notevolmente la comprensione delle istruzioni, dei dati strutturati e la generazione di output strutturati (in particolare in formato JSON).",
1039
+ "qwen/qwen2.5-7b-instruct.description": "Un modello LLM bilingue per cinese e inglese, adatto a linguaggio, programmazione, matematica e ragionamento.",
1038
1040
  "qwen/qwen2.5-coder-32b-instruct.description": "Un avanzato LLM per la generazione, il ragionamento e la correzione del codice nei principali linguaggi di programmazione.",
1039
1041
  "qwen/qwen2.5-coder-7b-instruct.description": "Un solido modello di codice di medie dimensioni con contesto da 32K, eccellente nella programmazione multilingue.",
1040
1042
  "qwen/qwen3-14b.description": "Qwen3-14B è la variante da 14B per il ragionamento generale e scenari di chat.",
@@ -1052,7 +1054,52 @@
1052
1054
  "qwen/qwen3-coder.description": "Qwen3-Coder è la famiglia di modelli Qwen3 per la generazione di codice, eccellente nella comprensione e generazione di codice su documenti lunghi.",
1053
1055
  "qwen/qwen3-max-preview.description": "Qwen3 Max (anteprima) è la variante Max per ragionamento avanzato e integrazione con strumenti.",
1054
1056
  "qwen/qwen3-max.description": "Qwen3 Max è il modello di ragionamento di fascia alta della serie Qwen3, progettato per ragionamento multilingue e integrazione con strumenti.",
1057
+ "qwen/qwen3-vl-plus.description": "Qwen3 VL-Plus è la variante di Qwen3 potenziata per la visione, con capacità migliorate di ragionamento multimodale e elaborazione video.",
1058
+ "qwen2.5-14b-instruct-1m.description": "Modello open-source Qwen2.5 da 72 miliardi di parametri.",
1059
+ "qwen2.5-14b-instruct.description": "Modello open-source Qwen2.5 da 14 miliardi di parametri.",
1060
+ "qwen2.5-32b-instruct.description": "Modello open-source Qwen2.5 da 32 miliardi di parametri.",
1061
+ "qwen2.5-72b-instruct.description": "Modello open-source Qwen2.5 da 72 miliardi di parametri.",
1062
+ "qwen2.5-7b-instruct.description": "Qwen2.5 7B Instruct è un modello open-source maturo per chat e generazione in scenari multipli.",
1063
+ "qwen2.5-coder-1.5b-instruct.description": "Modello di codice open-source Qwen.",
1064
+ "qwen2.5-coder-14b-instruct.description": "Modello di codice open-source Qwen.",
1065
+ "qwen2.5-coder-32b-instruct.description": "Modello di codice open-source Qwen.",
1066
+ "qwen2.5-coder-7b-instruct.description": "Modello di codice open-source Qwen.",
1067
+ "qwen2.5-coder-instruct.description": "Qwen2.5-Coder è l’ultimo modello LLM della famiglia Qwen focalizzato sul codice (precedentemente CodeQwen).",
1068
+ "qwen2.5-instruct.description": "Qwen2.5 è l’ultima serie di modelli LLM Qwen, con versioni base e ottimizzate per istruzioni che vanno da 0,5 a 72 miliardi di parametri.",
1069
+ "qwen2.5-math-1.5b-instruct.description": "Qwen-Math offre elevate capacità di risoluzione di problemi matematici.",
1070
+ "qwen2.5-math-72b-instruct.description": "Qwen-Math offre elevate capacità di risoluzione di problemi matematici.",
1071
+ "qwen2.5-math-7b-instruct.description": "Qwen-Math offre elevate capacità di risoluzione di problemi matematici.",
1072
+ "qwen2.5-omni-7b.description": "I modelli Qwen-Omni supportano input multimodali (video, audio, immagini, testo) e output in formato audio e testo.",
1073
+ "qwen2.5-vl-32b-instruct.description": "Qwen2.5 VL 32B Instruct è un modello multimodale open-source adatto a implementazioni private e utilizzo in scenari multipli.",
1074
+ "qwen2.5-vl-72b-instruct.description": "Miglioramenti nella comprensione delle istruzioni, matematica, problem solving e programmazione, con riconoscimento avanzato degli oggetti. Supporta localizzazione precisa di elementi visivi in vari formati, comprensione di video lunghi (fino a 10 minuti) con temporizzazione a livello di secondo, ordinamento temporale e comprensione della velocità, e agenti in grado di controllare sistemi operativi o dispositivi mobili tramite parsing e localizzazione. Eccellente estrazione di informazioni chiave e output in formato JSON. Questa è la versione da 72 miliardi, la più potente della serie.",
1075
+ "qwen2.5-vl-7b-instruct.description": "Qwen2.5 VL 7B Instruct è un modello multimodale leggero che bilancia costi di implementazione e capacità di riconoscimento.",
1076
+ "qwen2.5-vl-instruct.description": "Qwen2.5-VL è l’ultimo modello visione-linguaggio della famiglia Qwen.",
1077
+ "qwen2.5.description": "Qwen2.5 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
1078
+ "qwen2.5:0.5b.description": "Qwen2.5 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
1079
+ "qwen2.5:1.5b.description": "Qwen2.5 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
1080
+ "qwen2.5:72b.description": "Qwen2.5 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
1081
+ "qwen2.description": "Qwen2 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
1082
+ "qwen2:0.5b.description": "Qwen2 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
1083
+ "qwen2:1.5b.description": "Qwen2 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
1084
+ "qwen2:72b.description": "Qwen2 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.",
1085
+ "qwen3-0.6b.description": "Qwen3 0.6B è un modello entry-level per ragionamento semplice e ambienti molto limitati.",
1086
+ "qwen3-1.7b.description": "Qwen3 1.7B è un modello ultra-leggero per implementazioni su dispositivi edge.",
1087
+ "qwen3-14b.description": "Qwen3 14B è un modello di medie dimensioni per domande e risposte multilingue e generazione di testo.",
1088
+ "qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 è un modello di punta per una vasta gamma di compiti di generazione e ragionamento.",
1089
+ "qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 è un modello ultra-large per ragionamento complesso.",
1090
+ "qwen3-235b-a22b.description": "Qwen3 è un modello Tongyi Qwen di nuova generazione con miglioramenti significativi nel ragionamento, capacità generali, agenti e prestazioni multilingue, e supporta il cambio di modalità di pensiero.",
1091
+ "qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 è un modello di medie-grandi dimensioni per generazione di alta qualità e domande e risposte.",
1092
+ "qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 è un modello di medie-grandi dimensioni che bilancia accuratezza e costi.",
1093
+ "qwen3-30b-a3b.description": "Qwen3 30B A3B è un modello generale di medie-grandi dimensioni che bilancia costi e qualità.",
1094
+ "qwen3-32b.description": "Qwen3 32B è adatto a compiti generali che richiedono una comprensione più profonda.",
1095
+ "qwen3-4b.description": "Qwen3 4B è adatto ad applicazioni di piccole e medie dimensioni e inferenza locale.",
1096
+ "qwen3-8b.description": "Qwen3 8B è un modello leggero con implementazione flessibile per carichi di lavoro ad alta concorrenza.",
1097
+ "qwen3-coder-30b-a3b-instruct.description": "Modello di codice open-source Qwen. L’ultimo qwen3-coder-30b-a3b-instruct si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con l’ambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.",
1098
+ "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct è un modello di punta per la programmazione multilingue e la comprensione di codice complesso.",
1099
+ "qwen3-coder-flash.description": "Modello di codice Qwen. La serie Qwen3-Coder si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con l’ambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.",
1100
+ "qwen3-coder-plus.description": "Modello di codice Qwen. La serie Qwen3-Coder si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con l’ambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.",
1055
1101
  "qwen3-coder:480b.description": "Modello ad alte prestazioni di Alibaba per attività di agenti e programmazione, con supporto a contesti lunghi.",
1102
+ "qwen3-max-2026-01-23.description": "I modelli Qwen3 Max offrono miglioramenti significativi rispetto alla serie 2.5 in capacità generali, comprensione di cinese/inglese, esecuzione di istruzioni complesse, compiti soggettivi aperti, capacità multilingue e utilizzo di strumenti, con meno allucinazioni. L’ultima versione migliora la programmazione agentica e l’uso di strumenti rispetto a qwen3-max-preview. Raggiunge lo stato dell’arte in vari ambiti e si rivolge a esigenze agentiche più complesse.",
1056
1103
  "qwen3-max-preview.description": "Il modello Qwen con le migliori prestazioni per compiti complessi e multi-step. La versione preview supporta il ragionamento.",
1057
1104
  "qwen3-max.description": "I modelli Qwen3 Max offrono miglioramenti significativi rispetto alla serie 2.5 in capacità generali, comprensione di cinese/inglese, esecuzione di istruzioni complesse, compiti soggettivi aperti, abilità multilingue e uso di strumenti, con meno allucinazioni. L'ultima versione qwen3-max migliora la programmazione agentica e l'uso degli strumenti rispetto a qwen3-max-preview. Questa release raggiunge lo stato dell’arte e risponde a esigenze agentiche più complesse.",
1058
1105
  "qwen3-next-80b-a3b-instruct.description": "Modello open-source di nuova generazione Qwen3 senza capacità di ragionamento. Rispetto alla versione precedente (Qwen3-235B-A22B-Instruct-2507), offre una migliore comprensione del cinese, un ragionamento logico più forte e una generazione di testo migliorata.",
@@ -850,6 +850,53 @@
850
850
  "meta/llama-3.3-70b.description": "Idealne połączenie wydajności i efektywności. Zbudowany z myślą o wysokowydajnej konwersacyjnej AI w tworzeniu treści, aplikacjach biznesowych i badaniach, z silnym rozumieniem języka do streszczania, klasyfikacji, analizy sentymentu i generowania kodu.",
851
851
  "meta/llama-4-maverick.description": "Rodzina Llama 4 to natywne modele multimodalne wspierające tekst i doświadczenia multimodalne, wykorzystujące MoE do wiodącego rozumienia tekstu i obrazu. Llama 4 Maverick to model 17B z 128 ekspertami, udostępniany przez DeepInfra.",
852
852
  "meta/llama-4-scout.description": "Rodzina Llama 4 to natywne modele multimodalne wspierające tekst i doświadczenia multimodalne, wykorzystujące MoE do wiodącego rozumienia tekstu i obrazu. Llama 4 Scout to model 17B z 16 ekspertami, udostępniany przez DeepInfra.",
853
+ "microsoft/Phi-3-medium-128k-instruct.description": "Ten sam model Phi-3-medium z większym oknem kontekstu, przeznaczony do zadań RAG lub promptów few-shot.",
854
+ "microsoft/Phi-3-medium-4k-instruct.description": "Model z 14 miliardami parametrów, oferujący wyższą jakość niż Phi-3-mini, skoncentrowany na danych wymagających intensywnego rozumowania.",
855
+ "microsoft/Phi-3-mini-128k-instruct.description": "Ten sam model Phi-3-mini z większym oknem kontekstu, przeznaczony do zadań RAG lub promptów few-shot.",
856
+ "microsoft/Phi-3-mini-4k-instruct.description": "Najmniejszy członek rodziny Phi-3, zoptymalizowany pod kątem jakości i niskich opóźnień.",
857
+ "microsoft/Phi-3-small-128k-instruct.description": "Ten sam model Phi-3-small z większym oknem kontekstu, przeznaczony do zadań RAG lub promptów few-shot.",
858
+ "microsoft/Phi-3-small-8k-instruct.description": "Model z 7 miliardami parametrów, oferujący wyższą jakość niż Phi-3-mini, skoncentrowany na danych wymagających intensywnego rozumowania.",
859
+ "microsoft/Phi-3.5-mini-instruct.description": "Zaktualizowana wersja modelu Phi-3-mini.",
860
+ "microsoft/Phi-3.5-vision-instruct.description": "Zaktualizowana wersja modelu Phi-3-vision.",
861
+ "microsoft/WizardLM-2-8x22B.description": "WizardLM 2 to model językowy od Microsoft AI, który wyróżnia się w złożonych dialogach, zadaniach wielojęzycznych, rozumowaniu i zastosowaniach asystenckich.",
862
+ "microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B to najbardziej zaawansowany model Wizard od Microsoft AI, oferujący konkurencyjną wydajność.",
863
+ "mimo-v2-flash.description": "MiMo-V2-Flash: wydajny model do rozumowania, programowania i podstaw agentów.",
864
+ "minicpm-v.description": "MiniCPM-V to nowej generacji model multimodalny od OpenBMB, oferujący doskonałe rozpoznawanie tekstu (OCR) i zrozumienie multimodalne w szerokim zakresie zastosowań.",
865
+ "minimax-m2.1.description": "MiniMax-M2.1 to najnowsza wersja serii MiniMax, zoptymalizowana pod kątem programowania wielojęzycznego i złożonych zadań w rzeczywistych warunkach. Jako model AI-native, MiniMax-M2.1 oferuje znaczną poprawę wydajności, wsparcie dla frameworków agentów i adaptację do wielu scenariuszy, pomagając firmom i użytkownikom szybciej wdrażać AI-native styl pracy i życia.",
866
+ "minimax-m2.description": "MiniMax M2 to wydajny duży model językowy zaprojektowany specjalnie do programowania i przepływów pracy agentów.",
867
+ "minimax/minimax-m2.1.description": "MiniMax-M2.1 to lekki, nowoczesny duży model językowy zoptymalizowany do programowania, przepływów proxy i nowoczesnego rozwoju aplikacji, oferujący czystsze, bardziej zwięzłe wyniki i szybszy czas reakcji.",
868
+ "minimax/minimax-m2.description": "MiniMax-M2 to model o wysokiej wartości, który doskonale sprawdza się w zadaniach programistycznych i agentowych w wielu scenariuszach inżynieryjnych.",
869
+ "minimaxai/minimax-m2.description": "MiniMax-M2 to kompaktowy, szybki i opłacalny model MoE (230B ogółem, 10B aktywnych), zaprojektowany z myślą o najwyższej wydajności w programowaniu i zadaniach agentowych, przy zachowaniu silnej inteligencji ogólnej. Doskonale radzi sobie z edycją wielu plików, pętlami uruchamiania i poprawiania kodu, walidacją testów i złożonymi łańcuchami narzędzi.",
870
+ "ministral-3b-latest.description": "Ministral 3B to flagowy model edge firmy Mistral.",
871
+ "ministral-8b-latest.description": "Ministral 8B to bardzo opłacalny model edge od Mistral.",
872
+ "mistral-ai/Mistral-Large-2411.description": "Flagowy model Mistral do złożonych zadań wymagających rozumowania na dużą skalę lub specjalizacji (generowanie tekstu syntetycznego, kodu, RAG lub agentów).",
873
+ "mistral-ai/Mistral-Nemo.description": "Mistral Nemo to nowoczesny LLM z zaawansowanym rozumowaniem, wiedzą ogólną i umiejętnościami programistycznymi w swojej klasie.",
874
+ "mistral-ai/mistral-small-2503.description": "Mistral Small nadaje się do każdego zadania językowego wymagającego wysokiej wydajności i niskiego opóźnienia.",
875
+ "mistral-large-instruct.description": "Mistral-Large-Instruct-2407 to zaawansowany gęsty LLM z 123 miliardami parametrów, oferujący najnowocześniejsze rozumowanie, wiedzę i programowanie.",
876
+ "mistral-large-latest.description": "Mistral Large to flagowy model, silny w zadaniach wielojęzycznych, złożonym rozumowaniu i generowaniu kodu — idealny do zastosowań klasy premium.",
877
+ "mistral-large.description": "Mixtral Large to flagowy model Mistral, łączący generowanie kodu, matematykę i rozumowanie z oknem kontekstu 128K.",
878
+ "mistral-medium-latest.description": "Mistral Medium 3 oferuje najnowocześniejszą wydajność przy 8× niższych kosztach i upraszcza wdrażanie w przedsiębiorstwach.",
879
+ "mistral-nemo-instruct.description": "Mistral-Nemo-Instruct-2407 to wersja dostrojona do instrukcji modelu Mistral-Nemo-Base-2407.",
880
+ "mistral-nemo.description": "Mistral Nemo to wydajny model 12B od Mistral AI i NVIDIA.",
881
+ "mistral-small-latest.description": "Mistral Small to opłacalna, szybka i niezawodna opcja do tłumaczeń, streszczeń i analizy sentymentu.",
882
+ "mistral-small.description": "Mistral Small nadaje się do każdego zadania językowego wymagającego wysokiej wydajności i niskiego opóźnienia.",
883
+ "mistral.description": "Mistral to model 7B od Mistral AI, odpowiedni do różnorodnych zadań językowych.",
884
+ "mistral/codestral-embed.description": "Model do osadzania kodu, przeznaczony do indeksowania baz kodu i repozytoriów w celu wspierania asystentów programistycznych.",
885
+ "mistral/codestral.description": "Mistral Codestral 25.01 to nowoczesny model programistyczny zoptymalizowany pod kątem niskich opóźnień i częstego użycia. Obsługuje ponad 80 języków i doskonale radzi sobie z FIM, poprawą kodu i generowaniem testów.",
886
+ "mistral/devstral-small.description": "Devstral to agentowy LLM do zadań inżynierii oprogramowania, idealny dla agentów programistycznych.",
887
+ "mistral/magistral-medium.description": "Złożone myślenie wspierane przez głębokie zrozumienie i przejrzyste rozumowanie, które można śledzić i weryfikować. Utrzymuje wysoką jakość rozumowania międzyjęzykowego, nawet w trakcie zadania.",
888
+ "mistral/magistral-small.description": "Złożone myślenie wspierane przez głębokie zrozumienie i przejrzyste rozumowanie, które można śledzić i weryfikować. Utrzymuje wysoką jakość rozumowania międzyjęzykowego, nawet w trakcie zadania.",
889
+ "mistral/ministral-3b.description": "Kompaktowy, wydajny model do zadań lokalnych, takich jak asystenci i analiza lokalna, oferujący niskie opóźnienia.",
890
+ "mistral/ministral-8b.description": "Bardziej wydajny model z szybszym i oszczędnym wykorzystaniem pamięci, idealny do złożonych przepływów pracy i wymagających zastosowań edge.",
891
+ "mistral/mistral-embed.description": "Ogólny model osadzania tekstu do wyszukiwania semantycznego, podobieństwa, klasteryzacji i przepływów RAG.",
892
+ "mistral/mistral-large.description": "Mistral Large jest idealny do złożonych zadań wymagających silnego rozumowania lub specjalizacji — generowanie tekstu syntetycznego, kodu, RAG lub agentów.",
893
+ "mistral/mistral-small.description": "Mistral Small jest idealny do prostych, przetwarzalnych zadań, takich jak klasyfikacja, obsługa klienta lub generowanie tekstu, oferując świetną wydajność w przystępnej cenie.",
894
+ "mistral/mixtral-8x22b-instruct.description": "Model Instruct 8x22B. 8x22B to otwarty model MoE udostępniany przez Mistral.",
895
+ "mistral/pixtral-12b.description": "Model 12B z rozumieniem obrazu i tekstu.",
896
+ "mistral/pixtral-large.description": "Pixtral Large to drugi model z naszej rodziny multimodalnej z zaawansowanym rozumieniem obrazu. Obsługuje dokumenty, wykresy i obrazy naturalne, zachowując wiodące rozumienie tekstu modelu Mistral Large 2.",
897
+ "mistralai/Mistral-7B-Instruct-v0.1.description": "Mistral (7B) Instruct znany jest z wysokiej wydajności w wielu zadaniach językowych.",
898
+ "mistralai/Mistral-7B-Instruct-v0.2.description": "Mistral (7B) Instruct v0.2 poprawia obsługę instrukcji i dokładność wyników.",
899
+ "mistralai/Mistral-7B-Instruct-v0.3.description": "Mistral (7B) Instruct v0.3 oferuje wydajne obliczenia i silne zrozumienie języka w wielu zastosowaniach.",
853
900
  "mistralai/Mistral-7B-v0.1.description": "Mistral 7B to kompaktowy, ale wydajny model, doskonały do przetwarzania wsadowego i prostych zadań, takich jak klasyfikacja i generowanie tekstu, z solidnym rozumowaniem.",
854
901
  "mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct (141B) to bardzo duży model językowy przeznaczony do obsługi wymagających obciążeń.",
855
902
  "mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46,7B) oferuje wysoką wydajność w przetwarzaniu danych na dużą skalę.",