@lobehub/chat 1.110.1 → 1.110.3

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (126) hide show
  1. package/CHANGELOG.md +59 -0
  2. package/Dockerfile +1 -1
  3. package/apps/desktop/.i18nrc.js +2 -1
  4. package/apps/desktop/package.json +1 -2
  5. package/apps/desktop/resources/locales/ar/menu.json +1 -0
  6. package/apps/desktop/resources/locales/bg-BG/menu.json +1 -0
  7. package/apps/desktop/resources/locales/de-DE/menu.json +1 -0
  8. package/apps/desktop/resources/locales/en-US/menu.json +1 -0
  9. package/apps/desktop/resources/locales/es-ES/menu.json +1 -0
  10. package/apps/desktop/resources/locales/fa-IR/menu.json +1 -0
  11. package/apps/desktop/resources/locales/fr-FR/menu.json +1 -0
  12. package/apps/desktop/resources/locales/it-IT/menu.json +1 -0
  13. package/apps/desktop/resources/locales/ja-JP/menu.json +1 -0
  14. package/apps/desktop/resources/locales/ko-KR/menu.json +1 -0
  15. package/apps/desktop/resources/locales/nl-NL/menu.json +1 -0
  16. package/apps/desktop/resources/locales/pl-PL/menu.json +1 -0
  17. package/apps/desktop/resources/locales/pt-BR/menu.json +1 -0
  18. package/apps/desktop/resources/locales/ru-RU/menu.json +1 -0
  19. package/apps/desktop/resources/locales/tr-TR/menu.json +1 -0
  20. package/apps/desktop/resources/locales/vi-VN/menu.json +1 -0
  21. package/apps/desktop/resources/locales/zh-CN/menu.json +1 -0
  22. package/apps/desktop/resources/locales/zh-TW/menu.json +1 -0
  23. package/apps/desktop/src/main/controllers/MenuCtr.ts +2 -2
  24. package/apps/desktop/src/main/controllers/__tests__/MenuCtr.test.ts +13 -13
  25. package/apps/desktop/src/main/locales/default/menu.ts +1 -0
  26. package/apps/desktop/src/main/menus/impls/linux.ts +9 -24
  27. package/apps/desktop/src/main/menus/impls/macOS.ts +9 -28
  28. package/apps/desktop/src/main/menus/impls/windows.ts +9 -27
  29. package/changelog/v1.json +21 -0
  30. package/locales/ar/modelProvider.json +10 -1
  31. package/locales/ar/models.json +19 -1
  32. package/locales/bg-BG/modelProvider.json +10 -1
  33. package/locales/bg-BG/models.json +19 -1
  34. package/locales/de-DE/modelProvider.json +10 -1
  35. package/locales/de-DE/models.json +19 -1
  36. package/locales/en-US/modelProvider.json +10 -1
  37. package/locales/en-US/models.json +19 -1
  38. package/locales/es-ES/modelProvider.json +10 -1
  39. package/locales/es-ES/models.json +19 -1
  40. package/locales/fa-IR/modelProvider.json +10 -1
  41. package/locales/fa-IR/models.json +19 -1
  42. package/locales/fr-FR/modelProvider.json +10 -1
  43. package/locales/fr-FR/models.json +19 -1
  44. package/locales/it-IT/modelProvider.json +10 -1
  45. package/locales/it-IT/models.json +19 -1
  46. package/locales/ja-JP/modelProvider.json +10 -1
  47. package/locales/ja-JP/models.json +19 -1
  48. package/locales/ko-KR/modelProvider.json +10 -1
  49. package/locales/ko-KR/models.json +19 -1
  50. package/locales/nl-NL/modelProvider.json +10 -1
  51. package/locales/nl-NL/models.json +19 -1
  52. package/locales/pl-PL/modelProvider.json +10 -1
  53. package/locales/pl-PL/models.json +19 -1
  54. package/locales/pt-BR/modelProvider.json +10 -1
  55. package/locales/pt-BR/models.json +19 -1
  56. package/locales/ru-RU/modelProvider.json +10 -1
  57. package/locales/ru-RU/models.json +19 -1
  58. package/locales/tr-TR/modelProvider.json +10 -1
  59. package/locales/tr-TR/models.json +19 -1
  60. package/locales/vi-VN/modelProvider.json +10 -1
  61. package/locales/vi-VN/models.json +19 -1
  62. package/locales/zh-CN/modelProvider.json +10 -1
  63. package/locales/zh-CN/models.json +19 -1
  64. package/locales/zh-TW/modelProvider.json +10 -1
  65. package/locales/zh-TW/models.json +19 -1
  66. package/next.config.ts +1 -0
  67. package/package.json +4 -4
  68. package/packages/electron-client-ipc/src/events/menu.ts +1 -1
  69. package/packages/types/package.json +3 -0
  70. package/packages/types/src/agent/chatConfig.ts +1 -1
  71. package/packages/types/src/agent/index.ts +3 -4
  72. package/packages/types/src/discover/assistants.ts +3 -3
  73. package/packages/types/src/message/chat.ts +4 -4
  74. package/src/app/(backend)/_deprecated/createBizOpenAI/auth.ts +2 -1
  75. package/src/app/(backend)/_deprecated/createBizOpenAI/createAzureOpenai.ts +1 -1
  76. package/src/app/(backend)/_deprecated/createBizOpenAI/createOpenai.ts +1 -1
  77. package/src/app/(backend)/_deprecated/createBizOpenAI/index.ts +1 -1
  78. package/src/app/(backend)/middleware/auth/index.test.ts +1 -1
  79. package/src/app/(backend)/middleware/auth/index.ts +1 -1
  80. package/src/app/(backend)/middleware/auth/utils.ts +1 -1
  81. package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +1 -1
  82. package/src/app/(backend)/webapi/chat/[provider]/route.ts +2 -1
  83. package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +2 -1
  84. package/src/app/(backend)/webapi/models/[provider]/route.ts +1 -1
  85. package/src/app/(backend)/webapi/plugin/gateway/route.ts +1 -1
  86. package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +1 -1
  87. package/src/app/[variants]/(main)/settings/_layout/Desktop/index.tsx +2 -1
  88. package/src/app/[variants]/(main)/settings/provider/_layout/Desktop/Container.tsx +1 -0
  89. package/src/app/[variants]/(main)/settings/provider/_layout/Desktop/index.tsx +4 -9
  90. package/src/app/[variants]/(main)/settings/provider/features/ModelList/DisabledModels.tsx +15 -5
  91. package/src/app/[variants]/(main)/settings/provider/features/ModelList/EnabledModelList/index.tsx +22 -4
  92. package/src/app/[variants]/(main)/settings/provider/features/ModelList/index.tsx +99 -3
  93. package/src/app/[variants]/layout.tsx +2 -1
  94. package/src/components/InnerLink.tsx +20 -0
  95. package/src/config/modelProviders/ai302.ts +1 -0
  96. package/src/config/modelProviders/openai.ts +1 -0
  97. package/src/features/ChatInput/Desktop/InputArea/index.tsx +14 -0
  98. package/src/features/Conversation/Error/index.tsx +1 -1
  99. package/src/features/Conversation/components/ChatItem/index.tsx +18 -1
  100. package/src/features/ElectronTitlebar/UpdateModal.tsx +15 -3
  101. package/src/features/Portal/Artifacts/Header.tsx +1 -1
  102. package/src/hooks/usePlatform.ts +1 -1
  103. package/src/layout/GlobalProvider/index.tsx +3 -0
  104. package/src/libs/model-runtime/RouterRuntime/createRuntime.ts +2 -2
  105. package/src/locales/default/modelProvider.ts +9 -0
  106. package/src/server/ld.ts +1 -1
  107. package/src/services/__tests__/chat.test.ts +1 -1
  108. package/src/services/chat.ts +1 -1
  109. package/src/services/electron/system.ts +3 -1
  110. package/src/store/chat/slices/message/action.ts +1 -1
  111. package/src/store/chat/slices/plugin/action.ts +1 -1
  112. package/src/store/serverConfig/Provider.tsx +7 -2
  113. package/src/store/serverConfig/store.ts +2 -0
  114. package/src/utils/errorResponse.test.ts +1 -1
  115. package/src/utils/errorResponse.ts +2 -1
  116. package/src/utils/fetch/__tests__/parseError.test.ts +1 -2
  117. package/src/utils/fetch/fetchSSE.ts +2 -1
  118. package/src/utils/fetch/parseError.ts +1 -1
  119. package/tsconfig.json +1 -1
  120. package/.dockerignore +0 -9
  121. package/packages/file-loaders/src/loaders/docx/fixtures/test.docx +0 -0
  122. package/packages/file-loaders/src/loaders/excel/fixtures/test.xlsx +0 -0
  123. package/packages/file-loaders/src/loaders/pptx/fixtures/test.pptx +0 -0
  124. package/packages/file-loaders/test/fixtures/test.docx +0 -0
  125. package/packages/file-loaders/test/fixtures/test.pptx +0 -0
  126. /package/{packages/types/src → src/types}/next.ts +0 -0
@@ -306,6 +306,7 @@
306
306
  "latestTime": "Последно обновление: {{time}}",
307
307
  "noLatestTime": "Все още не е получен списък"
308
308
  },
309
+ "noModelsInCategory": "В тази категория няма активирани модели",
309
310
  "resetAll": {
310
311
  "conform": "Потвърдете ли, че искате да нулирате всички промени в текущия модел? След нулирането списъкът с текущи модели ще се върне в първоначалното си състояние",
311
312
  "success": "Успешно нулирано",
@@ -316,7 +317,15 @@
316
317
  "title": "Списък с модели",
317
318
  "total": "Общо {{count}} налични модела"
318
319
  },
319
- "searchNotFound": "Не са намерени резултати от търсенето"
320
+ "searchNotFound": "Не са намерени резултати от търсенето",
321
+ "tabs": {
322
+ "all": "Всички",
323
+ "chat": "Чат",
324
+ "embedding": "Векторизация",
325
+ "image": "Изображение",
326
+ "stt": "ASR",
327
+ "tts": "TTS"
328
+ }
320
329
  },
321
330
  "sortModal": {
322
331
  "success": "Сортирането е успешно обновено",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 е MoE модел, разработен от компанията DeepSeek. DeepSeek-V3 постига резултати в множество оценки, които надминават други отворени модели като Qwen2.5-72B и Llama-3.1-405B, като по отношение на производителност е наравно с водещите затворени модели в света като GPT-4o и Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-Fast": {
78
+ "description": "Доставчик на модела: платформа sophnet. DeepSeek V3 Fast е високоскоростната версия с висока TPS на DeepSeek V3 0324, с пълна точност без квантизация, с по-силни кодови и математически възможности и по-бърз отговор!"
79
+ },
77
80
  "Doubao-lite-128k": {
78
81
  "description": "Doubao-lite предлага изключително бърза реакция и по-добро съотношение цена-качество, осигурявайки по-гъвкави опции за различни сценарии на клиентите. Поддържа разсъждения и финна настройка с контекстен прозорец от 128k."
79
82
  },
@@ -608,6 +611,9 @@
608
611
  "aya:35b": {
609
612
  "description": "Aya 23 е многозначен модел, представен от Cohere, поддържащ 23 езика, предоставяйки удобство за многоезични приложения."
610
613
  },
614
+ "azure-DeepSeek-R1-0528": {
615
+ "description": "Доставен от Microsoft; моделът DeepSeek R1 е получил малка версия ъпгрейд, текущата версия е DeepSeek-R1-0528. В най-новата актуализация DeepSeek R1 значително подобрява дълбочината на разсъждение и способността за извод чрез увеличаване на изчислителните ресурси и въвеждане на алгоритмична оптимизация в следтренировъчния етап. Този модел се представя отлично в множество бенчмаркове като математика, програмиране и обща логика, като общата му производителност вече е близка до водещи модели като O3 и Gemini 2.5 Pro."
616
+ },
611
617
  "baichuan/baichuan2-13b-chat": {
612
618
  "description": "Baichuan-13B е отворен, комерсиален голям езиков модел, разработен от Baichuan Intelligence, с 13 милиарда параметри, който постига най-добрите резултати в своя размер на авторитетни бенчмаркове на китайски и английски."
613
619
  },
@@ -668,6 +674,9 @@
668
674
  "claude-3-sonnet-20240229": {
669
675
  "description": "Claude 3 Sonnet предлага идеален баланс между интелигентност и скорост за корпоративни работни натоварвания. Той предлага максимална полезност на по-ниска цена, надежден и подходящ за мащабно внедряване."
670
676
  },
677
+ "claude-opus-4-1-20250805": {
678
+ "description": "Claude Opus 4.1 е най-новият и най-мощен модел на Anthropic за справяне с изключително сложни задачи. Той се отличава с изключителна производителност, интелигентност, плавност и разбиране."
679
+ },
671
680
  "claude-opus-4-20250514": {
672
681
  "description": "Claude Opus 4 е най-мощният модел на Anthropic, предназначен за обработка на изключително сложни задачи. Той се отличава с изключителна производителност, интелигентност, плавност и разбиране."
673
682
  },
@@ -2123,6 +2132,12 @@
2123
2132
  "openai/gpt-4o-mini": {
2124
2133
  "description": "GPT-4o mini е най-новият модел на OpenAI, пуснат след GPT-4 Omni, който поддържа вход и изход на текст и изображения. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 в предпочитанията за чат."
2125
2134
  },
2135
+ "openai/gpt-oss-120b": {
2136
+ "description": "OpenAI GPT-OSS 120B е водещ езиков модел с 120 милиарда параметри, вграден браузър за търсене и изпълнение на код, както и способности за разсъждение."
2137
+ },
2138
+ "openai/gpt-oss-20b": {
2139
+ "description": "OpenAI GPT-OSS 20B е водещ езиков модел с 20 милиарда параметри, вграден браузър за търсене и изпълнение на код, както и способности за разсъждение."
2140
+ },
2126
2141
  "openai/o1": {
2127
2142
  "description": "o1 е новият модел за разсъждение на OpenAI, който поддържа вход с изображения и текст и генерира текст, подходящ за сложни задачи, изискващи широкообхватни общи знания. Моделът разполага с контекст от 200K и дата на знание до октомври 2023 г."
2128
2143
  },
@@ -2411,8 +2426,11 @@
2411
2426
  "qwen3-coder-480b-a35b-instruct": {
2412
2427
  "description": "Отворена версия на кодовия модел Tongyi Qianwen. Най-новият qwen3-coder-480b-a35b-instruct е кодов модел, базиран на Qwen3, с мощни Coding Agent способности, умения за използване на инструменти и взаимодействие с околната среда, способен на автономно програмиране с отлични кодови и общи умения."
2413
2428
  },
2429
+ "qwen3-coder-flash": {
2430
+ "description": "Кодиращ модел на Tongyi Qianwen. Най-новата серия модели Qwen3-Coder е базирана на Qwen3 и е модел за генериране на код с мощни възможности на Coding Agent, умеещ да използва инструменти и да взаимодейства с околната среда, способен на автономно програмиране, с изключителни кодови умения и същевременно общи способности."
2431
+ },
2414
2432
  "qwen3-coder-plus": {
2415
- "description": "Кодов модел Tongyi Qianwen. Най-новата серия Qwen3-Coder-Plus е базирана на Qwen3, с мощни Coding Agent способности, умения за използване на инструменти и взаимодействие с околната среда, способна на автономно програмиране с отлични кодови и общи умения."
2433
+ "description": "Кодиращ модел на Tongyi Qianwen. Най-новата серия модели Qwen3-Coder е базирана на Qwen3 и е модел за генериране на код с мощни възможности на Coding Agent, умеещ да използва инструменти и да взаимодейства с околната среда, способен на автономно програмиране, с изключителни кодови умения и същевременно общи способности."
2416
2434
  },
2417
2435
  "qwq": {
2418
2436
  "description": "QwQ е експериментален изследователски модел, който се фокусира върху подобряване на AI разсъдъчните способности."
@@ -306,6 +306,7 @@
306
306
  "latestTime": "Letzte Aktualisierung: {{time}}",
307
307
  "noLatestTime": "Liste wurde noch nicht abgerufen"
308
308
  },
309
+ "noModelsInCategory": "In dieser Kategorie sind keine aktivierten Modelle vorhanden",
309
310
  "resetAll": {
310
311
  "conform": "Möchten Sie alle Änderungen am aktuellen Modell wirklich zurücksetzen? Nach dem Zurücksetzen wird die aktuelle Modellliste auf den Standardzustand zurückgesetzt.",
311
312
  "success": "Zurücksetzen erfolgreich",
@@ -316,7 +317,15 @@
316
317
  "title": "Modellliste",
317
318
  "total": "Insgesamt {{count}} verfügbare Modelle"
318
319
  },
319
- "searchNotFound": "Keine Suchergebnisse gefunden"
320
+ "searchNotFound": "Keine Suchergebnisse gefunden",
321
+ "tabs": {
322
+ "all": "Alle",
323
+ "chat": "Chat",
324
+ "embedding": "Einbettung",
325
+ "image": "Bild",
326
+ "stt": "ASR",
327
+ "tts": "TTS"
328
+ }
320
329
  },
321
330
  "sortModal": {
322
331
  "success": "Sortierung erfolgreich aktualisiert",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 ist ein von der DeepSeek Company entwickeltes MoE-Modell. Die Ergebnisse von DeepSeek-V3 übertreffen die anderer Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und stehen in der Leistung auf Augenhöhe mit den weltweit führenden Closed-Source-Modellen GPT-4o und Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-Fast": {
78
+ "description": "Modellanbieter: sophnet-Plattform. DeepSeek V3 Fast ist die Hochgeschwindigkeitsversion mit hohem TPS des DeepSeek V3 0324 Modells, voll funktionsfähig ohne Quantisierung, mit stärkerer Code- und mathematischer Leistungsfähigkeit und schnellerer Reaktionszeit!"
79
+ },
77
80
  "Doubao-lite-128k": {
78
81
  "description": "Doubao-lite bietet extrem schnelle Reaktionszeiten und ein hervorragendes Preis-Leistungs-Verhältnis, um Kunden in verschiedenen Szenarien flexiblere Optionen zu bieten. Unterstützt Inferenz und Feintuning mit einem Kontextfenster von 128k."
79
82
  },
@@ -608,6 +611,9 @@
608
611
  "aya:35b": {
609
612
  "description": "Aya 23 ist ein mehrsprachiges Modell von Cohere, das 23 Sprachen unterstützt und die Anwendung in einer Vielzahl von Sprachen erleichtert."
610
613
  },
614
+ "azure-DeepSeek-R1-0528": {
615
+ "description": "Bereitgestellt von Microsoft; Das DeepSeek R1 Modell wurde in einer kleinen Versionsaktualisierung verbessert, die aktuelle Version ist DeepSeek-R1-0528. Im neuesten Update wurde die Rechentiefe und Inferenzfähigkeit von DeepSeek R1 durch Erhöhung der Rechenressourcen und Einführung eines Algorithmus-Optimierungsmechanismus in der Nachtrainingsphase erheblich gesteigert. Dieses Modell zeigt hervorragende Leistungen in mehreren Benchmark-Tests wie Mathematik, Programmierung und allgemeiner Logik und nähert sich in der Gesamtleistung führenden Modellen wie O3 und Gemini 2.5 Pro an."
616
+ },
611
617
  "baichuan/baichuan2-13b-chat": {
612
618
  "description": "Baichuan-13B ist ein Open-Source-Sprachmodell mit 13 Milliarden Parametern, das von Baichuan Intelligence entwickelt wurde und in autorisierten chinesischen und englischen Benchmarks die besten Ergebnisse in seiner Größenordnung erzielt hat."
613
619
  },
@@ -668,6 +674,9 @@
668
674
  "claude-3-sonnet-20240229": {
669
675
  "description": "Claude 3 Sonnet bietet eine ideale Balance zwischen Intelligenz und Geschwindigkeit für Unternehmensarbeitslasten. Es bietet maximalen Nutzen zu einem niedrigeren Preis, ist zuverlässig und für großflächige Bereitstellungen geeignet."
670
676
  },
677
+ "claude-opus-4-1-20250805": {
678
+ "description": "Claude Opus 4.1 ist das neueste und leistungsstärkste Modell von Anthropic zur Bewältigung hochkomplexer Aufgaben. Es überzeugt durch herausragende Leistung, Intelligenz, Flüssigkeit und Verständnis."
679
+ },
671
680
  "claude-opus-4-20250514": {
672
681
  "description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic zur Bewältigung hochkomplexer Aufgaben. Es zeichnet sich durch hervorragende Leistung, Intelligenz, Flüssigkeit und Verständnis aus."
673
682
  },
@@ -2123,6 +2132,12 @@
2123
2132
  "openai/gpt-4o-mini": {
2124
2133
  "description": "GPT-4o mini ist das neueste Modell von OpenAI, das nach GPT-4 Omni veröffentlicht wurde und Text- und Bild-Eingaben unterstützt. Als ihr fortschrittlichstes kleines Modell ist es viel günstiger als andere neueste Modelle und über 60 % günstiger als GPT-3.5 Turbo. Es behält die fortschrittlichste Intelligenz bei und bietet gleichzeitig ein hervorragendes Preis-Leistungs-Verhältnis. GPT-4o mini erzielte 82 % im MMLU-Test und rangiert derzeit in den Chat-Präferenzen über GPT-4."
2125
2134
  },
2135
+ "openai/gpt-oss-120b": {
2136
+ "description": "OpenAI GPT-OSS 120B ist ein Spitzen-Sprachmodell mit 120 Milliarden Parametern, integriertem Browser-Such- und Code-Ausführungsfunktionen sowie ausgeprägten Inferenzfähigkeiten."
2137
+ },
2138
+ "openai/gpt-oss-20b": {
2139
+ "description": "OpenAI GPT-OSS 20B ist ein Spitzen-Sprachmodell mit 20 Milliarden Parametern, integriertem Browser-Such- und Code-Ausführungsfunktionen sowie ausgeprägten Inferenzfähigkeiten."
2140
+ },
2126
2141
  "openai/o1": {
2127
2142
  "description": "o1 ist OpenAIs neues Inferenzmodell, das Bild- und Texteingaben unterstützt und Text ausgibt. Es eignet sich für komplexe Aufgaben, die umfangreiches Allgemeinwissen erfordern. Das Modell verfügt über einen Kontext von 200K und einen Wissensstand bis Oktober 2023."
2128
2143
  },
@@ -2411,8 +2426,11 @@
2411
2426
  "qwen3-coder-480b-a35b-instruct": {
2412
2427
  "description": "Open-Source-Code-Modell von Tongyi Qianwen. Das neueste qwen3-coder-480b-a35b-instruct basiert auf Qwen3, verfügt über starke Coding-Agent-Fähigkeiten, ist versiert im Werkzeugaufruf und in der Umgebungskommunikation und ermöglicht selbstständiges Programmieren mit hervorragender Codequalität und allgemeinen Fähigkeiten."
2413
2428
  },
2429
+ "qwen3-coder-flash": {
2430
+ "description": "Tongyi Qianwen Code-Modell. Die neueste Qwen3-Coder Modellreihe basiert auf Qwen3 und ist ein Code-Generierungsmodell mit starker Coding-Agent-Fähigkeit, spezialisiert auf Werkzeugaufrufe und Umgebungsinteraktion, das selbstständiges Programmieren ermöglicht und neben hervorragenden Code-Fähigkeiten auch allgemeine Kompetenzen besitzt."
2431
+ },
2414
2432
  "qwen3-coder-plus": {
2415
- "description": "Tongyi Qianwen Code-Modell. Die neueste Qwen3-Coder-Plus-Serie basiert auf Qwen3, verfügt über starke Coding-Agent-Fähigkeiten, ist versiert im Werkzeugaufruf und in der Umgebungskommunikation und ermöglicht selbstständiges Programmieren mit hervorragender Codequalität und allgemeinen Fähigkeiten."
2433
+ "description": "Tongyi Qianwen Code-Modell. Die neueste Qwen3-Coder Modellreihe basiert auf Qwen3 und ist ein Code-Generierungsmodell mit starker Coding-Agent-Fähigkeit, spezialisiert auf Werkzeugaufrufe und Umgebungsinteraktion, das selbstständiges Programmieren ermöglicht und neben hervorragenden Code-Fähigkeiten auch allgemeine Kompetenzen besitzt."
2416
2434
  },
2417
2435
  "qwq": {
2418
2436
  "description": "QwQ ist ein experimentelles Forschungsmodell, das sich auf die Verbesserung der KI-Inferenzfähigkeiten konzentriert."
@@ -306,6 +306,7 @@
306
306
  "latestTime": "Last updated: {{time}}",
307
307
  "noLatestTime": "Model list not yet fetched"
308
308
  },
309
+ "noModelsInCategory": "No enabled models in this category",
309
310
  "resetAll": {
310
311
  "conform": "Are you sure you want to reset all modifications to the current model? After resetting, the current model list will return to its default state.",
311
312
  "success": "Reset successful",
@@ -316,7 +317,15 @@
316
317
  "title": "Model List",
317
318
  "total": "{{count}} models available"
318
319
  },
319
- "searchNotFound": "No search results found"
320
+ "searchNotFound": "No search results found",
321
+ "tabs": {
322
+ "all": "All",
323
+ "chat": "Chat",
324
+ "embedding": "Embedding",
325
+ "image": "Image",
326
+ "stt": "ASR",
327
+ "tts": "TTS"
328
+ }
320
329
  },
321
330
  "sortModal": {
322
331
  "success": "Sort update successful",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 is a MoE model developed in-house by Deep Seek Company. Its performance surpasses that of other open-source models such as Qwen2.5-72B and Llama-3.1-405B in multiple assessments, and it stands on par with the world's top proprietary models like GPT-4o and Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-Fast": {
78
+ "description": "Model provider: sophnet platform. DeepSeek V3 Fast is the high-TPS ultra-fast version of DeepSeek V3 0324, fully powered without quantization, featuring enhanced coding and mathematical capabilities for faster response!"
79
+ },
77
80
  "Doubao-lite-128k": {
78
81
  "description": "Doubao-lite offers ultra-fast response times and better cost-effectiveness, providing customers with more flexible options for different scenarios. Supports inference and fine-tuning with a 128k context window."
79
82
  },
@@ -608,6 +611,9 @@
608
611
  "aya:35b": {
609
612
  "description": "Aya 23 is a multilingual model launched by Cohere, supporting 23 languages, facilitating diverse language applications."
610
613
  },
614
+ "azure-DeepSeek-R1-0528": {
615
+ "description": "Deployed and provided by Microsoft; the DeepSeek R1 model has undergone a minor version upgrade, currently at DeepSeek-R1-0528. In the latest update, DeepSeek R1 significantly improves inference depth and reasoning ability by increasing computational resources and introducing algorithmic optimizations in the post-training phase. This model excels in benchmarks including mathematics, programming, and general logic, with overall performance approaching leading models such as O3 and Gemini 2.5 Pro."
616
+ },
611
617
  "baichuan/baichuan2-13b-chat": {
612
618
  "description": "Baichuan-13B is an open-source, commercially usable large language model developed by Baichuan Intelligence, containing 13 billion parameters, achieving the best results in its size on authoritative Chinese and English benchmarks."
613
619
  },
@@ -668,6 +674,9 @@
668
674
  "claude-3-sonnet-20240229": {
669
675
  "description": "Claude 3 Sonnet provides an ideal balance of intelligence and speed for enterprise workloads. It offers maximum utility at a lower price, reliable and suitable for large-scale deployment."
670
676
  },
677
+ "claude-opus-4-1-20250805": {
678
+ "description": "Claude Opus 4.1 is Anthropic's latest and most powerful model designed for handling highly complex tasks. It demonstrates outstanding performance in intelligence, fluency, and comprehension."
679
+ },
671
680
  "claude-opus-4-20250514": {
672
681
  "description": "Claude Opus 4 is Anthropic's most powerful model for handling highly complex tasks. It excels in performance, intelligence, fluency, and comprehension."
673
682
  },
@@ -2123,6 +2132,12 @@
2123
2132
  "openai/gpt-4o-mini": {
2124
2133
  "description": "GPT-4o mini is the latest model released by OpenAI following GPT-4 Omni, supporting both text and image input while outputting text. As their most advanced small model, it is significantly cheaper than other recent cutting-edge models and over 60% cheaper than GPT-3.5 Turbo. It maintains state-of-the-art intelligence while offering remarkable cost-effectiveness. GPT-4o mini scored 82% on the MMLU test and currently ranks higher than GPT-4 in chat preferences."
2125
2134
  },
2135
+ "openai/gpt-oss-120b": {
2136
+ "description": "OpenAI GPT-OSS 120B is a top-tier language model with 120 billion parameters, featuring built-in browser search and code execution capabilities, along with strong reasoning skills."
2137
+ },
2138
+ "openai/gpt-oss-20b": {
2139
+ "description": "OpenAI GPT-OSS 20B is a top-tier language model with 20 billion parameters, featuring built-in browser search and code execution capabilities, along with strong reasoning skills."
2140
+ },
2126
2141
  "openai/o1": {
2127
2142
  "description": "o1 is OpenAI's new reasoning model that supports multimodal input and outputs text, suitable for complex tasks requiring broad general knowledge. This model features a 200K context window and a knowledge cutoff date of October 2023."
2128
2143
  },
@@ -2411,8 +2426,11 @@
2411
2426
  "qwen3-coder-480b-a35b-instruct": {
2412
2427
  "description": "Open-source version of Tongyi Qianwen's code model. The latest qwen3-coder-480b-a35b-instruct is a code generation model based on Qwen3, featuring powerful Coding Agent capabilities, proficient in tool invocation and environment interaction, enabling autonomous programming with excellent coding and general capabilities."
2413
2428
  },
2429
+ "qwen3-coder-flash": {
2430
+ "description": "Tongyi Qianwen code model. The latest Qwen3-Coder series models are code generation models based on Qwen3, equipped with powerful Coding Agent capabilities, proficient in tool invocation and environment interaction, enabling autonomous programming with excellent coding skills alongside general capabilities."
2431
+ },
2414
2432
  "qwen3-coder-plus": {
2415
- "description": "Tongyi Qianwen's code model. The latest Qwen3-Coder-Plus series models are code generation models based on Qwen3, featuring powerful Coding Agent capabilities, proficient in tool invocation and environment interaction, enabling autonomous programming with excellent coding and general capabilities."
2433
+ "description": "Tongyi Qianwen code model. The latest Qwen3-Coder series models are code generation models based on Qwen3, equipped with powerful Coding Agent capabilities, proficient in tool invocation and environment interaction, enabling autonomous programming with excellent coding skills alongside general capabilities."
2416
2434
  },
2417
2435
  "qwq": {
2418
2436
  "description": "QwQ is an experimental research model focused on improving AI reasoning capabilities."
@@ -306,6 +306,7 @@
306
306
  "latestTime": "Última actualización: {{time}}",
307
307
  "noLatestTime": "Lista aún no obtenida"
308
308
  },
309
+ "noModelsInCategory": "No hay modelos habilitados en esta categoría",
309
310
  "resetAll": {
310
311
  "conform": "¿Confirmar el restablecimiento de todas las modificaciones del modelo actual? Después del restablecimiento, la lista de modelos actuales volverá al estado predeterminado",
311
312
  "success": "Restablecimiento exitoso",
@@ -316,7 +317,15 @@
316
317
  "title": "Lista de modelos",
317
318
  "total": "Un total de {{count}} modelos disponibles"
318
319
  },
319
- "searchNotFound": "No se encontraron resultados de búsqueda"
320
+ "searchNotFound": "No se encontraron resultados de búsqueda",
321
+ "tabs": {
322
+ "all": "Todos",
323
+ "chat": "Chat",
324
+ "embedding": "Vectorización",
325
+ "image": "Imagen",
326
+ "stt": "ASR",
327
+ "tts": "TTS"
328
+ }
320
329
  },
321
330
  "sortModal": {
322
331
  "success": "Orden actualizado con éxito",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 es un modelo MoE desarrollado internamente por la empresa DeepSeek. Los resultados de DeepSeek-V3 en múltiples evaluaciones superan a otros modelos de código abierto como Qwen2.5-72B y Llama-3.1-405B, y su rendimiento es comparable al de los modelos cerrados de primer nivel mundial como GPT-4o y Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-Fast": {
78
+ "description": "Proveedor del modelo: plataforma sophnet. DeepSeek V3 Fast es la versión de alta velocidad y alto TPS de DeepSeek V3 0324, completamente sin cuantificación, con mayor capacidad en código y matemáticas, ¡y respuesta más rápida!"
79
+ },
77
80
  "Doubao-lite-128k": {
78
81
  "description": "Doubao-lite ofrece una velocidad de respuesta excepcional y una mejor relación calidad-precio, proporcionando opciones más flexibles para diferentes escenarios de los clientes. Soporta inferencia y ajuste fino con una ventana de contexto de 128k."
79
82
  },
@@ -608,6 +611,9 @@
608
611
  "aya:35b": {
609
612
  "description": "Aya 23 es un modelo multilingüe lanzado por Cohere, que admite 23 idiomas, facilitando aplicaciones de lenguaje diversas."
610
613
  },
614
+ "azure-DeepSeek-R1-0528": {
615
+ "description": "Desplegado y proporcionado por Microsoft; el modelo DeepSeek R1 ha recibido una actualización menor, la versión actual es DeepSeek-R1-0528. En la última actualización, DeepSeek R1 ha mejorado significativamente la profundidad de inferencia y la capacidad de deducción mediante el aumento de recursos computacionales y la introducción de mecanismos de optimización algorítmica en la fase posterior al entrenamiento. Este modelo destaca en múltiples pruebas de referencia en matemáticas, programación y lógica general, y su rendimiento general se acerca a modelos líderes como O3 y Gemini 2.5 Pro."
616
+ },
611
617
  "baichuan/baichuan2-13b-chat": {
612
618
  "description": "Baichuan-13B es un modelo de lenguaje de gran escala de código abierto y comercializable desarrollado por Baichuan Intelligence, que cuenta con 13 mil millones de parámetros y ha logrado los mejores resultados en benchmarks autorizados en chino e inglés."
613
619
  },
@@ -668,6 +674,9 @@
668
674
  "claude-3-sonnet-20240229": {
669
675
  "description": "Claude 3 Sonnet proporciona un equilibrio ideal entre inteligencia y velocidad para cargas de trabajo empresariales. Ofrece la máxima utilidad a un costo más bajo, siendo fiable y adecuado para implementaciones a gran escala."
670
676
  },
677
+ "claude-opus-4-1-20250805": {
678
+ "description": "Claude Opus 4.1 es el modelo más potente y reciente de Anthropic para manejar tareas altamente complejas. Sobresale en rendimiento, inteligencia, fluidez y comprensión."
679
+ },
671
680
  "claude-opus-4-20250514": {
672
681
  "description": "Claude Opus 4 es el modelo más potente de Anthropic para manejar tareas altamente complejas. Se destaca en rendimiento, inteligencia, fluidez y comprensión."
673
682
  },
@@ -2123,6 +2132,12 @@
2123
2132
  "openai/gpt-4o-mini": {
2124
2133
  "description": "GPT-4o mini es el modelo más reciente de OpenAI, lanzado después de GPT-4 Omni, que admite entradas de texto e imagen y genera texto como salida. Como su modelo más avanzado de tamaño pequeño, es mucho más económico que otros modelos de vanguardia recientes y más de un 60% más barato que GPT-3.5 Turbo. Mantiene una inteligencia de vanguardia mientras ofrece una relación calidad-precio notable. GPT-4o mini obtuvo un puntaje del 82% en la prueba MMLU y actualmente se clasifica por encima de GPT-4 en preferencias de chat."
2125
2134
  },
2135
+ "openai/gpt-oss-120b": {
2136
+ "description": "OpenAI GPT-OSS 120B es un modelo de lenguaje de vanguardia con 120 mil millones de parámetros, que incorpora funciones de búsqueda en navegador y ejecución de código, además de capacidades de razonamiento."
2137
+ },
2138
+ "openai/gpt-oss-20b": {
2139
+ "description": "OpenAI GPT-OSS 20B es un modelo de lenguaje de vanguardia con 20 mil millones de parámetros, que incorpora funciones de búsqueda en navegador y ejecución de código, además de capacidades de razonamiento."
2140
+ },
2126
2141
  "openai/o1": {
2127
2142
  "description": "o1 es el nuevo modelo de razonamiento de OpenAI, que admite entradas de texto e imagen y produce texto, adecuado para tareas complejas que requieren un conocimiento general amplio. Este modelo cuenta con un contexto de 200K y una fecha de corte de conocimiento en octubre de 2023."
2128
2143
  },
@@ -2411,8 +2426,11 @@
2411
2426
  "qwen3-coder-480b-a35b-instruct": {
2412
2427
  "description": "Versión de código abierto del modelo de código Tongyi Qianwen. El más reciente qwen3-coder-480b-a35b-instruct está basado en Qwen3, con fuertes capacidades de agente de codificación, experto en llamadas a herramientas e interacción con entornos, capaz de programación autónoma y con habilidades sobresalientes de código y capacidades generales."
2413
2428
  },
2429
+ "qwen3-coder-flash": {
2430
+ "description": "Modelo de código Tongyi Qianwen. La última serie de modelos Qwen3-Coder está basada en Qwen3 para generación de código, con una potente capacidad de agente de codificación, experta en llamadas a herramientas e interacción con el entorno, capaz de programación autónoma, combinando una excelente habilidad en código con capacidades generales."
2431
+ },
2414
2432
  "qwen3-coder-plus": {
2415
- "description": "Modelo de código Tongyi Qianwen. La serie más reciente Qwen3-Coder-Plus está basada en Qwen3, con fuertes capacidades de agente de codificación, experto en llamadas a herramientas e interacción con entornos, capaz de programación autónoma y con habilidades sobresalientes de código y capacidades generales."
2433
+ "description": "Modelo de código Tongyi Qianwen. La última serie de modelos Qwen3-Coder está basada en Qwen3 para generación de código, con una potente capacidad de agente de codificación, experta en llamadas a herramientas e interacción con el entorno, capaz de programación autónoma, combinando una excelente habilidad en código con capacidades generales."
2416
2434
  },
2417
2435
  "qwq": {
2418
2436
  "description": "QwQ es un modelo de investigación experimental que se centra en mejorar la capacidad de razonamiento de la IA."
@@ -306,6 +306,7 @@
306
306
  "latestTime": "آخرین زمان به‌روزرسانی: {{time}}",
307
307
  "noLatestTime": "لیست هنوز دریافت نشده است"
308
308
  },
309
+ "noModelsInCategory": "در این دسته‌بندی مدل فعالی وجود ندارد",
309
310
  "resetAll": {
310
311
  "conform": "آیا مطمئن هستید که می‌خواهید تمام تغییرات مدل فعلی را بازنشانی کنید؟ پس از بازنشانی، لیست مدل‌های فعلی به حالت پیش‌فرض باز خواهد گشت",
311
312
  "success": "بازنشانی با موفقیت انجام شد",
@@ -316,7 +317,15 @@
316
317
  "title": "لیست مدل‌ها",
317
318
  "total": "در مجموع {{count}} مدل در دسترس است"
318
319
  },
319
- "searchNotFound": "نتیجه‌ای برای جستجو پیدا نشد"
320
+ "searchNotFound": "نتیجه‌ای برای جستجو پیدا نشد",
321
+ "tabs": {
322
+ "all": "همه",
323
+ "chat": "گفتگو",
324
+ "embedding": "بردار‌سازی",
325
+ "image": "تصویر",
326
+ "stt": "تبدیل گفتار به متن",
327
+ "tts": "تبدیل متن به گفتار"
328
+ }
320
329
  },
321
330
  "sortModal": {
322
331
  "success": "به‌روزرسانی مرتب‌سازی با موفقیت انجام شد",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 یک مدل MoE است که توسط شرکت DeepSeek توسعه یافته است. نتایج ارزیابی‌های متعدد DeepSeek-V3 از مدل‌های متن باز دیگر مانند Qwen2.5-72B و Llama-3.1-405B فراتر رفته و از نظر عملکرد با مدل‌های بسته جهانی برتر مانند GPT-4o و Claude-3.5-Sonnet برابری می‌کند."
76
76
  },
77
+ "DeepSeek-V3-Fast": {
78
+ "description": "تأمین‌کننده مدل: پلتفرم sophnet. DeepSeek V3 Fast نسخه‌ای با TPS بالا و سرعت بسیار زیاد از نسخه DeepSeek V3 0324 است، بدون کمیت‌سازی، با توانایی‌های کد و ریاضی قوی‌تر و پاسخ‌دهی سریع‌تر!"
79
+ },
77
80
  "Doubao-lite-128k": {
78
81
  "description": "Doubao-lite دارای سرعت پاسخگویی بی‌نظیر و نسبت قیمت به کارایی بهتر است و گزینه‌های انعطاف‌پذیرتری را برای سناریوهای مختلف مشتریان ارائه می‌دهد. از پنجره متنی 128k برای استدلال و تنظیم دقیق پشتیبانی می‌کند."
79
82
  },
@@ -608,6 +611,9 @@
608
611
  "aya:35b": {
609
612
  "description": "Aya 23 یک مدل چندزبانه است که توسط Cohere ارائه شده و از 23 زبان پشتیبانی می‌کند و استفاده از برنامه‌های چندزبانه را تسهیل می‌نماید."
610
613
  },
614
+ "azure-DeepSeek-R1-0528": {
615
+ "description": "ارائه شده توسط مایکروسافت؛ مدل DeepSeek R1 به‌روزرسانی‌های جزئی دریافت کرده است و نسخه فعلی آن DeepSeek-R1-0528 می‌باشد. در آخرین به‌روزرسانی، DeepSeek R1 با افزایش منابع محاسباتی و معرفی مکانیزم بهینه‌سازی الگوریتم در مرحله پس‌آموزش، عمق استنتاج و توانایی پیش‌بینی را به طور قابل توجهی بهبود بخشیده است. این مدل در آزمون‌های معیار مختلفی مانند ریاضیات، برنامه‌نویسی و منطق عمومی عملکرد برجسته‌ای دارد و عملکرد کلی آن به مدل‌های پیشرو مانند O3 و Gemini 2.5 Pro نزدیک شده است."
616
+ },
611
617
  "baichuan/baichuan2-13b-chat": {
612
618
  "description": "Baichuan-13B یک مدل زبان بزرگ متن باز و قابل تجاری با 130 میلیارد پارامتر است که در آزمون‌های معتبر چینی و انگلیسی بهترین عملکرد را در اندازه مشابه به دست آورده است."
613
619
  },
@@ -668,6 +674,9 @@
668
674
  "claude-3-sonnet-20240229": {
669
675
  "description": "Claude 3 Sonnet تعادلی ایده‌آل بین هوش و سرعت برای بارهای کاری سازمانی فراهم می‌کند. این محصول با قیمتی پایین‌تر حداکثر بهره‌وری را ارائه می‌دهد، قابل اعتماد است و برای استقرار در مقیاس بزرگ مناسب می‌باشد."
670
676
  },
677
+ "claude-opus-4-1-20250805": {
678
+ "description": "Claude Opus 4.1 جدیدترین و قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوشمندی، روانی و درک توانایی برجسته‌ای دارد."
679
+ },
671
680
  "claude-opus-4-20250514": {
672
681
  "description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای پردازش وظایف بسیار پیچیده است. این مدل در زمینه‌های عملکرد، هوش، روانی و درک فوق‌العاده عمل می‌کند."
673
682
  },
@@ -2123,6 +2132,12 @@
2123
2132
  "openai/gpt-4o-mini": {
2124
2133
  "description": "GPT-4o mini جدیدترین مدل OpenAI است که پس از GPT-4 Omni عرضه شده و از ورودی‌های تصویری و متنی پشتیبانی می‌کند و خروجی متنی ارائه می‌دهد. به عنوان پیشرفته‌ترین مدل کوچک آن‌ها، این مدل بسیار ارزان‌تر از سایر مدل‌های پیشرفته اخیر است و بیش از ۶۰٪ ارزان‌تر از GPT-3.5 Turbo می‌باشد. این مدل هوشمندی پیشرفته را حفظ کرده و در عین حال از نظر اقتصادی بسیار مقرون به صرفه است. GPT-4o mini در آزمون MMLU امتیاز ۸۲٪ را کسب کرده و در حال حاضر در ترجیحات چت بالاتر از GPT-4 رتبه‌بندی شده است."
2125
2134
  },
2135
+ "openai/gpt-oss-120b": {
2136
+ "description": "OpenAI GPT-OSS 120B یک مدل زبان پیشرفته با 120 میلیارد پارامتر است که دارای قابلیت جستجوی مرورگر و اجرای کد می‌باشد و توانایی استدلال دارد."
2137
+ },
2138
+ "openai/gpt-oss-20b": {
2139
+ "description": "OpenAI GPT-OSS 20B یک مدل زبان پیشرفته با 20 میلیارد پارامتر است که دارای قابلیت جستجوی مرورگر و اجرای کد می‌باشد و توانایی استدلال دارد."
2140
+ },
2126
2141
  "openai/o1": {
2127
2142
  "description": "o1 مدل استدلال جدید OpenAI است که از ورودی‌های تصویری و متنی پشتیبانی می‌کند و خروجی متنی ارائه می‌دهد، مناسب برای وظایف پیچیده‌ای که نیاز به دانش عمومی گسترده دارند. این مدل دارای زمینه ۲۰۰ هزار توکنی و تاریخ قطع دانش در اکتبر ۲۰۲۳ است."
2128
2143
  },
@@ -2411,8 +2426,11 @@
2411
2426
  "qwen3-coder-480b-a35b-instruct": {
2412
2427
  "description": "نسخه متن‌باز مدل کدنویسی Tongyi Qianwen. جدیدترین مدل qwen3-coder-480b-a35b-instruct مبتنی بر Qwen3 است و دارای توانایی‌های قوی عامل کدنویسی، مهارت در فراخوانی ابزارها و تعامل با محیط است و قادر به برنامه‌نویسی خودکار با توانایی کدنویسی برجسته و همچنین توانایی‌های عمومی است."
2413
2428
  },
2429
+ "qwen3-coder-flash": {
2430
+ "description": "مدل کد نویسی Tongyi Qianwen. جدیدترین مدل‌های سری Qwen3-Coder بر پایه Qwen3 ساخته شده‌اند و دارای توانایی‌های قدرتمند Coding Agent هستند، در فراخوانی ابزارها و تعامل با محیط مهارت دارند، قادر به برنامه‌نویسی خودکار هستند و در کنار توانایی‌های کدنویسی برجسته، قابلیت‌های عمومی نیز دارند."
2431
+ },
2414
2432
  "qwen3-coder-plus": {
2415
- "description": "مدل کدنویسی Tongyi Qianwen. جدیدترین سری مدل‌های Qwen3-Coder-Plus مبتنی بر Qwen3 است و دارای توانایی‌های قوی عامل کدنویسی، مهارت در فراخوانی ابزارها و تعامل با محیط است و قادر به برنامه‌نویسی خودکار با توانایی کدنویسی برجسته و همچنین توانایی‌های عمومی است."
2433
+ "description": "مدل کد نویسی Tongyi Qianwen. جدیدترین مدل‌های سری Qwen3-Coder بر پایه Qwen3 ساخته شده‌اند و دارای توانایی‌های قدرتمند Coding Agent هستند، در فراخوانی ابزارها و تعامل با محیط مهارت دارند، قادر به برنامه‌نویسی خودکار هستند و در کنار توانایی‌های کدنویسی برجسته، قابلیت‌های عمومی نیز دارند."
2416
2434
  },
2417
2435
  "qwq": {
2418
2436
  "description": "QwQ یک مدل تحقیقاتی تجربی است که بر بهبود توانایی استدلال AI تمرکز دارد."
@@ -306,6 +306,7 @@
306
306
  "latestTime": "Dernière mise à jour : {{time}}",
307
307
  "noLatestTime": "Aucune liste récupérée pour le moment"
308
308
  },
309
+ "noModelsInCategory": "Aucun modèle activé dans cette catégorie",
309
310
  "resetAll": {
310
311
  "conform": "Êtes-vous sûr de vouloir réinitialiser toutes les modifications du modèle actuel ? Après la réinitialisation, la liste des modèles actuels reviendra à l'état par défaut",
311
312
  "success": "Réinitialisation réussie",
@@ -316,7 +317,15 @@
316
317
  "title": "Liste des modèles",
317
318
  "total": "Un total de {{count}} modèles disponibles"
318
319
  },
319
- "searchNotFound": "Aucun résultat trouvé"
320
+ "searchNotFound": "Aucun résultat trouvé",
321
+ "tabs": {
322
+ "all": "Tous",
323
+ "chat": "Conversation",
324
+ "embedding": "Vectorisation",
325
+ "image": "Image",
326
+ "stt": "Reconnaissance vocale",
327
+ "tts": "Synthèse vocale"
328
+ }
320
329
  },
321
330
  "sortModal": {
322
331
  "success": "Mise à jour du tri réussie",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 est un modèle MoE développé en interne par la société DeepSeek. Les performances de DeepSeek-V3 surpassent celles d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B, et se mesurent à la performance des modèles fermés de pointe au monde comme GPT-4o et Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-Fast": {
78
+ "description": "Fournisseur du modèle : plateforme sophnet. DeepSeek V3 Fast est la version ultra-rapide à TPS élevé de DeepSeek V3 0324, entièrement non quantifiée, avec des capacités de code et mathématiques renforcées, offrant une réactivité accrue !"
79
+ },
77
80
  "Doubao-lite-128k": {
78
81
  "description": "Doubao-lite offre une vitesse de réponse exceptionnelle et un excellent rapport qualité-prix, offrant aux clients une flexibilité accrue pour différents scénarios. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 128k."
79
82
  },
@@ -608,6 +611,9 @@
608
611
  "aya:35b": {
609
612
  "description": "Aya 23 est un modèle multilingue lancé par Cohere, prenant en charge 23 langues, facilitant les applications linguistiques diversifiées."
610
613
  },
614
+ "azure-DeepSeek-R1-0528": {
615
+ "description": "Déployé et fourni par Microsoft ; le modèle DeepSeek R1 a bénéficié d'une mise à jour mineure, la version actuelle étant DeepSeek-R1-0528. Dans la dernière mise à jour, DeepSeek R1 a considérablement amélioré sa profondeur d'inférence et ses capacités de raisonnement grâce à l'augmentation des ressources de calcul et à l'introduction d'un mécanisme d'optimisation algorithmique en phase post-entraînement. Ce modèle excelle dans plusieurs benchmarks, notamment en mathématiques, programmation et logique générale, avec des performances globales proches des modèles de pointe tels que O3 et Gemini 2.5 Pro."
616
+ },
611
617
  "baichuan/baichuan2-13b-chat": {
612
618
  "description": "Baichuan-13B est un modèle de langage open source et commercialisable développé par Baichuan Intelligence, contenant 13 milliards de paramètres, qui a obtenu les meilleurs résultats dans des benchmarks chinois et anglais de référence."
613
619
  },
@@ -668,6 +674,9 @@
668
674
  "claude-3-sonnet-20240229": {
669
675
  "description": "Claude 3 Sonnet offre un équilibre idéal entre intelligence et vitesse pour les charges de travail d'entreprise. Il fournit une utilité maximale à un coût inférieur, fiable et adapté à un déploiement à grande échelle."
670
676
  },
677
+ "claude-opus-4-1-20250805": {
678
+ "description": "Claude Opus 4.1 est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il se distingue par ses performances, son intelligence, sa fluidité et sa capacité de compréhension exceptionnelles."
679
+ },
671
680
  "claude-opus-4-20250514": {
672
681
  "description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en performance, intelligence, fluidité et compréhension."
673
682
  },
@@ -2123,6 +2132,12 @@
2123
2132
  "openai/gpt-4o-mini": {
2124
2133
  "description": "GPT-4o mini est le dernier modèle d'OpenAI lancé après GPT-4 Omni, prenant en charge les entrées d'images et de texte et produisant du texte en sortie. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus de GPT-4 en termes de préférences de chat."
2125
2134
  },
2135
+ "openai/gpt-oss-120b": {
2136
+ "description": "OpenAI GPT-OSS 120B est un modèle linguistique de pointe doté de 120 milliards de paramètres, intégrant des fonctions de recherche via navigateur et d'exécution de code, ainsi que des capacités de raisonnement."
2137
+ },
2138
+ "openai/gpt-oss-20b": {
2139
+ "description": "OpenAI GPT-OSS 20B est un modèle linguistique de pointe doté de 20 milliards de paramètres, intégrant des fonctions de recherche via navigateur et d'exécution de code, ainsi que des capacités de raisonnement."
2140
+ },
2126
2141
  "openai/o1": {
2127
2142
  "description": "o1 est le nouveau modèle d'inférence d'OpenAI, prenant en charge les entrées multimodales (texte et image) et produisant du texte, adapté aux tâches complexes nécessitant des connaissances générales étendues. Ce modèle dispose d'un contexte de 200K et d'une date de coupure des connaissances en octobre 2023."
2128
2143
  },
@@ -2411,8 +2426,11 @@
2411
2426
  "qwen3-coder-480b-a35b-instruct": {
2412
2427
  "description": "Version open source du modèle de code Tongyi Qianwen. Le dernier qwen3-coder-480b-a35b-instruct est un modèle de génération de code basé sur Qwen3, doté de puissantes capacités d'agent de codage, expert en appels d'outils et interactions environnementales, capable de programmation autonome avec d'excellentes compétences en code tout en conservant des capacités générales."
2413
2428
  },
2429
+ "qwen3-coder-flash": {
2430
+ "description": "Modèle de code Tongyi Qianwen. La dernière série de modèles Qwen3-Coder est basée sur Qwen3 pour la génération de code, avec une puissante capacité d'agent de codage, maîtrisant l'appel d'outils et l'interaction avec l'environnement, capable de programmation autonome, alliant excellence en codage et polyvalence."
2431
+ },
2414
2432
  "qwen3-coder-plus": {
2415
- "description": "Modèle de code Tongyi Qianwen. La dernière série Qwen3-Coder-Plus est un modèle de génération de code basé sur Qwen3, doté de puissantes capacités d'agent de codage, expert en appels d'outils et interactions environnementales, capable de programmation autonome avec d'excellentes compétences en code tout en conservant des capacités générales."
2433
+ "description": "Modèle de code Tongyi Qianwen. La dernière série de modèles Qwen3-Coder est basée sur Qwen3 pour la génération de code, avec une puissante capacité d'agent de codage, maîtrisant l'appel d'outils et l'interaction avec l'environnement, capable de programmation autonome, alliant excellence en codage et polyvalence."
2416
2434
  },
2417
2435
  "qwq": {
2418
2436
  "description": "QwQ est un modèle de recherche expérimental, axé sur l'amélioration des capacités de raisonnement de l'IA."
@@ -306,6 +306,7 @@
306
306
  "latestTime": "Ultimo aggiornamento: {{time}}",
307
307
  "noLatestTime": "Nessun elenco recuperato finora"
308
308
  },
309
+ "noModelsInCategory": "Nessun modello abilitato in questa categoria",
309
310
  "resetAll": {
310
311
  "conform": "Sei sicuro di voler ripristinare tutte le modifiche al modello corrente? Dopo il ripristino, l'elenco dei modelli correnti tornerà allo stato predefinito",
311
312
  "success": "Ripristino avvenuto con successo",
@@ -316,7 +317,15 @@
316
317
  "title": "Elenco dei modelli",
317
318
  "total": "Totale di {{count}} modelli disponibili"
318
319
  },
319
- "searchNotFound": "Nessun risultato trovato"
320
+ "searchNotFound": "Nessun risultato trovato",
321
+ "tabs": {
322
+ "all": "Tutti",
323
+ "chat": "Chat",
324
+ "embedding": "Incorporamento",
325
+ "image": "Immagine",
326
+ "stt": "Riconoscimento vocale (ASR)",
327
+ "tts": "Sintesi vocale (TTS)"
328
+ }
320
329
  },
321
330
  "sortModal": {
322
331
  "success": "Ordinamento aggiornato con successo",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 è un modello MoE sviluppato internamente dalla DeepSeek Company. I risultati di DeepSeek-V3 in molte valutazioni superano quelli di altri modelli open source come Qwen2.5-72B e Llama-3.1-405B, e si confronta alla pari con i modelli closed source di punta a livello mondiale come GPT-4o e Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-Fast": {
78
+ "description": "Il fornitore del modello è la piattaforma sophnet. DeepSeek V3 Fast è la versione ad alta velocità TPS del modello DeepSeek V3 0324, completamente non quantificata, con capacità di codice e matematica potenziate e risposte più rapide!"
79
+ },
77
80
  "Doubao-lite-128k": {
78
81
  "description": "Doubao-lite offre una velocità di risposta eccezionale e un miglior rapporto qualità-prezzo, fornendo ai clienti scelte più flessibili per diversi scenari. Supporta inferenza e fine-tuning con una finestra contestuale di 128k."
79
82
  },
@@ -608,6 +611,9 @@
608
611
  "aya:35b": {
609
612
  "description": "Aya 23 è un modello multilingue lanciato da Cohere, supporta 23 lingue, facilitando applicazioni linguistiche diversificate."
610
613
  },
614
+ "azure-DeepSeek-R1-0528": {
615
+ "description": "Distribuito e fornito da Microsoft; il modello DeepSeek R1 ha subito un aggiornamento minore, la versione attuale è DeepSeek-R1-0528. Nell'ultimo aggiornamento, DeepSeek R1 ha migliorato significativamente la profondità di inferenza e la capacità di deduzione aumentando le risorse computazionali e introducendo meccanismi di ottimizzazione algoritmica nella fase post-allenamento. Questo modello eccelle in vari benchmark come matematica, programmazione e logica generale, con prestazioni complessive vicine a modelli leader come O3 e Gemini 2.5 Pro."
616
+ },
611
617
  "baichuan/baichuan2-13b-chat": {
612
618
  "description": "Baichuan-13B è un modello di linguaggio open source sviluppato da Baichuan Intelligence, con 13 miliardi di parametri, che ha ottenuto i migliori risultati nella sua categoria in benchmark autorevoli sia in cinese che in inglese."
613
619
  },
@@ -668,6 +674,9 @@
668
674
  "claude-3-sonnet-20240229": {
669
675
  "description": "Claude 3 Sonnet offre un equilibrio ideale tra intelligenza e velocità per i carichi di lavoro aziendali. Fornisce la massima utilità a un prezzo inferiore, affidabile e adatto per distribuzioni su larga scala."
670
676
  },
677
+ "claude-opus-4-1-20250805": {
678
+ "description": "Claude Opus 4.1 è l'ultimo e più potente modello di Anthropic per la gestione di compiti altamente complessi. Si distingue per prestazioni, intelligenza, fluidità e capacità di comprensione eccezionali."
679
+ },
671
680
  "claude-opus-4-20250514": {
672
681
  "description": "Claude Opus 4 è il modello più potente di Anthropic per gestire compiti altamente complessi. Eccelle in prestazioni, intelligenza, fluidità e comprensione."
673
682
  },
@@ -2123,6 +2132,12 @@
2123
2132
  "openai/gpt-4o-mini": {
2124
2133
  "description": "GPT-4o mini è il modello più recente di OpenAI, lanciato dopo GPT-4 Omni, che supporta input visivi e testuali e produce output testuali. Come il loro modello di piccole dimensioni più avanzato, è molto più economico rispetto ad altri modelli all'avanguardia recenti e costa oltre il 60% in meno rispetto a GPT-3.5 Turbo. Mantiene un'intelligenza all'avanguardia, offrendo un notevole rapporto qualità-prezzo. GPT-4o mini ha ottenuto un punteggio dell'82% nel test MMLU e attualmente è classificato più in alto di GPT-4 per preferenze di chat."
2125
2134
  },
2135
+ "openai/gpt-oss-120b": {
2136
+ "description": "OpenAI GPT-OSS 120B è un modello linguistico di punta con 120 miliardi di parametri, dotato di funzionalità integrate di ricerca browser e esecuzione di codice, oltre a capacità di ragionamento."
2137
+ },
2138
+ "openai/gpt-oss-20b": {
2139
+ "description": "OpenAI GPT-OSS 20B è un modello linguistico di punta con 20 miliardi di parametri, dotato di funzionalità integrate di ricerca browser e esecuzione di codice, oltre a capacità di ragionamento."
2140
+ },
2126
2141
  "openai/o1": {
2127
2142
  "description": "o1 è il nuovo modello di ragionamento di OpenAI, supporta input di testo e immagini e produce output testuali, adatto a compiti complessi che richiedono una vasta conoscenza generale. Il modello ha un contesto di 200K token e una data di cut-off della conoscenza a ottobre 2023."
2128
2143
  },
@@ -2411,8 +2426,11 @@
2411
2426
  "qwen3-coder-480b-a35b-instruct": {
2412
2427
  "description": "Versione open source del modello di codice Tongyi Qianwen. L'ultimo qwen3-coder-480b-a35b-instruct è un modello di generazione codice basato su Qwen3, con potenti capacità di Coding Agent, esperto nell'uso di strumenti e interazione ambientale, capace di programmazione autonoma con eccellenti capacità di codice e capacità generali."
2413
2428
  },
2429
+ "qwen3-coder-flash": {
2430
+ "description": "Modello di codice Tongyi Qianwen. L'ultima serie di modelli Qwen3-Coder si basa su Qwen3 per la generazione di codice, con potenti capacità di Coding Agent, eccellente nell'invocazione di strumenti e interazione con l'ambiente, in grado di programmare autonomamente, con capacità di codice eccezionali e abilità generali."
2431
+ },
2414
2432
  "qwen3-coder-plus": {
2415
- "description": "Modello di codice Tongyi Qianwen. L'ultima serie Qwen3-Coder-Plus è un modello di generazione codice basato su Qwen3, con potenti capacità di Coding Agent, esperto nell'uso di strumenti e interazione ambientale, capace di programmazione autonoma con eccellenti capacità di codice e capacità generali."
2433
+ "description": "Modello di codice Tongyi Qianwen. L'ultima serie di modelli Qwen3-Coder si basa su Qwen3 per la generazione di codice, con potenti capacità di Coding Agent, eccellente nell'invocazione di strumenti e interazione con l'ambiente, in grado di programmare autonomamente, con capacità di codice eccezionali e abilità generali."
2416
2434
  },
2417
2435
  "qwq": {
2418
2436
  "description": "QwQ è un modello di ricerca sperimentale, focalizzato sul miglioramento delle capacità di ragionamento dell'IA."