@lobehub/chat 1.142.0 → 1.142.2

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (210) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/Dockerfile +3 -3
  3. package/Dockerfile.database +3 -3
  4. package/Dockerfile.pglite +3 -3
  5. package/README.md +1 -1
  6. package/README.zh-CN.md +1 -1
  7. package/changelog/v1.json +18 -0
  8. package/docs/self-hosting/advanced/model-list.mdx +11 -0
  9. package/docs/self-hosting/advanced/model-list.zh-CN.mdx +11 -0
  10. package/docs/self-hosting/environment-variables/model-provider.mdx +23 -14
  11. package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +23 -14
  12. package/docs/usage/providers/aihubmix.zh-CN.mdx +1 -4
  13. package/locales/ar/models.json +17 -8
  14. package/locales/bg-BG/models.json +17 -8
  15. package/locales/de-DE/models.json +17 -8
  16. package/locales/en-US/models.json +17 -8
  17. package/locales/es-ES/models.json +17 -8
  18. package/locales/fa-IR/models.json +17 -8
  19. package/locales/fr-FR/models.json +17 -8
  20. package/locales/it-IT/models.json +17 -8
  21. package/locales/ja-JP/models.json +17 -8
  22. package/locales/ko-KR/models.json +17 -8
  23. package/locales/nl-NL/models.json +17 -8
  24. package/locales/pl-PL/models.json +17 -8
  25. package/locales/pt-BR/models.json +17 -8
  26. package/locales/ru-RU/models.json +17 -8
  27. package/locales/tr-TR/models.json +17 -8
  28. package/locales/vi-VN/models.json +17 -8
  29. package/locales/zh-CN/models.json +17 -8
  30. package/locales/zh-TW/models.json +17 -8
  31. package/package.json +2 -2
  32. package/packages/context-engine/src/processors/__tests__/MessageContent.test.ts +17 -17
  33. package/packages/context-engine/src/types.ts +4 -4
  34. package/packages/database/src/models/__tests__/generation.test.ts +2 -2
  35. package/packages/database/src/models/__tests__/generationBatch.test.ts +1 -1
  36. package/packages/database/src/models/__tests__/generationTopic.test.ts +2 -4
  37. package/packages/database/src/models/__tests__/message.test.ts +2 -2
  38. package/packages/database/src/models/asyncTask.ts +3 -4
  39. package/packages/database/src/models/chatGroup.ts +2 -2
  40. package/packages/database/src/models/chunk.ts +2 -3
  41. package/packages/database/src/models/drizzleMigration.ts +1 -1
  42. package/packages/database/src/models/file.ts +1 -2
  43. package/packages/database/src/models/generation.ts +8 -4
  44. package/packages/database/src/models/generationBatch.ts +1 -1
  45. package/packages/database/src/models/generationTopic.ts +2 -2
  46. package/packages/database/src/models/knowledgeBase.ts +2 -3
  47. package/packages/database/src/models/message.ts +9 -9
  48. package/packages/database/src/models/session.ts +8 -10
  49. package/packages/database/src/models/thread.ts +2 -3
  50. package/packages/database/src/models/topic.ts +2 -4
  51. package/packages/database/src/models/user.ts +1 -2
  52. package/packages/database/src/schemas/generation.ts +1 -2
  53. package/packages/database/src/schemas/message.ts +1 -3
  54. package/packages/model-runtime/src/core/streams/anthropic.ts +1 -2
  55. package/packages/model-runtime/src/core/streams/protocol.ts +1 -2
  56. package/packages/model-runtime/src/core/usageConverters/anthropic.ts +1 -2
  57. package/packages/model-runtime/src/core/usageConverters/google-ai.ts +1 -2
  58. package/packages/model-runtime/src/core/usageConverters/utils/computeChatCost.test.ts +1 -2
  59. package/packages/model-runtime/src/core/usageConverters/utils/computeChatCost.ts +1 -2
  60. package/packages/model-runtime/src/core/usageConverters/utils/withUsageCost.ts +1 -2
  61. package/packages/model-runtime/src/types/image.ts +1 -2
  62. package/packages/prompts/src/chains/__tests__/summaryHistory.test.ts +2 -2
  63. package/packages/prompts/src/chains/summaryHistory.ts +2 -2
  64. package/packages/prompts/src/chains/summaryTitle.ts +2 -3
  65. package/packages/prompts/src/contexts/supervisor/makeDecision.ts +2 -2
  66. package/packages/prompts/src/prompts/chatMessages/index.test.ts +11 -11
  67. package/packages/prompts/src/prompts/chatMessages/index.ts +13 -10
  68. package/packages/prompts/src/prompts/groupChat/index.test.ts +3 -4
  69. package/packages/prompts/src/prompts/groupChat/index.ts +3 -3
  70. package/packages/types/src/aiChat.ts +2 -2
  71. package/packages/types/src/exportConfig.ts +6 -6
  72. package/packages/types/src/importer.ts +2 -2
  73. package/packages/types/src/index.ts +2 -0
  74. package/packages/types/src/message/common/base.ts +27 -0
  75. package/packages/types/src/message/common/index.ts +5 -0
  76. package/packages/types/src/message/common/metadata.ts +67 -0
  77. package/packages/types/src/message/{tools.ts → common/tools.ts} +1 -1
  78. package/packages/types/src/message/common/translate.ts +8 -0
  79. package/packages/types/src/message/db/index.ts +2 -0
  80. package/packages/types/src/message/db/item.ts +29 -0
  81. package/packages/types/src/message/db/params.ts +57 -0
  82. package/packages/types/src/message/index.ts +3 -6
  83. package/packages/types/src/message/{chat.ts → ui/chat.ts} +13 -40
  84. package/packages/types/src/message/ui/extra.ts +16 -0
  85. package/packages/types/src/message/ui/index.ts +4 -0
  86. package/packages/types/src/message/{rag.ts → ui/rag.ts} +11 -1
  87. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/V1Mobile/useSend.ts +1 -1
  88. package/src/app/[variants]/(main)/chat/(workspace)/features/ShareButton/index.tsx +0 -3
  89. package/src/app/[variants]/(main)/profile/stats/features/ModelsRank.tsx +1 -1
  90. package/src/app/[variants]/(main)/settings/llm/components/Checker.tsx +1 -2
  91. package/src/app/[variants]/(main)/settings/provider/detail/ollama/CheckError.tsx +1 -2
  92. package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +1 -2
  93. package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/Checker.tsx +1 -2
  94. package/src/database/_deprecated/models/__tests__/message.test.ts +6 -7
  95. package/src/database/_deprecated/models/message.ts +13 -13
  96. package/src/features/AgentSetting/AgentTTS/SelectWithTTSPreview.tsx +1 -1
  97. package/src/features/ChatInput/ActionBar/STT/browser.tsx +1 -1
  98. package/src/features/ChatInput/ActionBar/STT/common.tsx +1 -2
  99. package/src/features/ChatInput/ActionBar/STT/openai.tsx +1 -1
  100. package/src/features/ChatItem/components/ErrorContent.tsx +5 -0
  101. package/src/features/Conversation/Error/ErrorJsonViewer.tsx +1 -2
  102. package/src/features/Conversation/Error/OllamaBizError/index.tsx +2 -3
  103. package/src/features/Conversation/Error/index.tsx +3 -4
  104. package/src/features/Conversation/Error/style.tsx +5 -1
  105. package/src/features/Conversation/Messages/Assistant/Actions/index.tsx +2 -2
  106. package/src/features/Conversation/Messages/Assistant/Block.tsx +1 -1
  107. package/src/features/Conversation/Messages/Assistant/Extra/index.test.tsx +2 -2
  108. package/src/features/Conversation/Messages/Assistant/Extra/index.tsx +1 -1
  109. package/src/features/Conversation/Messages/Assistant/FileChunks/Item/index.tsx +1 -1
  110. package/src/features/Conversation/Messages/Assistant/FileChunks/index.tsx +1 -2
  111. package/src/features/Conversation/Messages/Assistant/MessageContent.tsx +2 -2
  112. package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +2 -2
  113. package/src/features/Conversation/Messages/Assistant/Tool/Render/ErrorResponse.tsx +1 -2
  114. package/src/features/Conversation/Messages/Assistant/Tool/Render/PluginSettings.tsx +1 -1
  115. package/src/features/Conversation/Messages/Assistant/index.tsx +2 -2
  116. package/src/features/Conversation/Messages/Default.tsx +3 -3
  117. package/src/features/Conversation/Messages/Supervisor/index.tsx +2 -2
  118. package/src/features/Conversation/Messages/User/Actions.tsx +2 -2
  119. package/src/features/Conversation/Messages/User/FileListViewer/Item.tsx +1 -1
  120. package/src/features/Conversation/Messages/User/FileListViewer/index.tsx +1 -2
  121. package/src/features/Conversation/Messages/User/MessageContent.tsx +2 -3
  122. package/src/features/Conversation/Messages/User/VideoFileListViewer.tsx +1 -2
  123. package/src/features/Conversation/Messages/User/index.tsx +2 -2
  124. package/src/features/Conversation/components/ChatItem/ShareMessageModal/SharePdf/index.tsx +2 -2
  125. package/src/features/Conversation/components/ChatItem/ShareMessageModal/SharePdf/template.ts +2 -2
  126. package/src/features/Conversation/components/Extras/TTS/InitPlayer.tsx +1 -1
  127. package/src/features/Conversation/components/Extras/TTS/Player.tsx +1 -2
  128. package/src/features/Conversation/components/Extras/Translate.tsx +1 -1
  129. package/src/features/Conversation/components/Extras/Usage/UsageDetail/index.tsx +1 -1
  130. package/src/features/Conversation/components/Extras/Usage/UsageDetail/tokens.ts +1 -1
  131. package/src/features/Conversation/components/Extras/Usage/index.tsx +1 -2
  132. package/src/features/Conversation/components/ShareMessageModal/ShareImage/Preview.tsx +2 -2
  133. package/src/features/Conversation/components/ShareMessageModal/ShareImage/index.tsx +2 -2
  134. package/src/features/Conversation/components/ShareMessageModal/ShareText/index.tsx +2 -2
  135. package/src/features/Conversation/components/ShareMessageModal/ShareText/template.test.ts +3 -3
  136. package/src/features/Conversation/components/ShareMessageModal/ShareText/template.ts +2 -2
  137. package/src/features/Conversation/components/ShareMessageModal/index.tsx +3 -3
  138. package/src/features/Conversation/types/index.ts +5 -5
  139. package/src/features/Portal/Home/Body/Files/FileList/Item.tsx +1 -1
  140. package/src/features/Portal/Home/Body/Plugins/ArtifactList/Item/index.tsx +1 -1
  141. package/src/features/Portal/Thread/Chat/ChatInput/useSend.ts +1 -1
  142. package/src/features/ShareModal/ShareJSON/generateMessages.test.ts +3 -3
  143. package/src/features/ShareModal/ShareJSON/generateMessages.ts +3 -2
  144. package/src/features/ShareModal/SharePdf/index.tsx +2 -2
  145. package/src/features/ShareModal/ShareText/template.test.ts +3 -3
  146. package/src/features/ShareModal/ShareText/template.ts +2 -2
  147. package/src/libs/langchain/loaders/code/__tests__/long.json +1 -1
  148. package/src/libs/langchain/loaders/code/__tests__/long.txt +1 -1
  149. package/src/server/routers/lambda/__tests__/message.test.ts +2 -3
  150. package/src/server/routers/lambda/message.ts +2 -4
  151. package/src/services/chat/chat.test.ts +27 -25
  152. package/src/services/chat/contextEngineering.test.ts +21 -21
  153. package/src/services/chat/contextEngineering.ts +2 -2
  154. package/src/services/chat/index.ts +5 -8
  155. package/src/services/message/_deprecated.test.ts +7 -7
  156. package/src/services/message/_deprecated.ts +10 -10
  157. package/src/services/message/client.test.ts +10 -10
  158. package/src/services/message/client.ts +6 -5
  159. package/src/services/message/server.ts +4 -3
  160. package/src/services/message/type.ts +10 -11
  161. package/src/services/thread/type.ts +2 -1
  162. package/src/store/chat/helpers.test.ts +5 -5
  163. package/src/store/chat/helpers.ts +5 -5
  164. package/src/store/chat/initialState.ts +0 -3
  165. package/src/store/chat/slices/aiChat/actions/__tests__/fixtures.ts +5 -4
  166. package/src/store/chat/slices/aiChat/actions/__tests__/generateAIChatV2.test.ts +4 -4
  167. package/src/store/chat/slices/aiChat/actions/__tests__/rag.test.ts +6 -6
  168. package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +17 -12
  169. package/src/store/chat/slices/aiChat/actions/generateAIChatV2.ts +7 -8
  170. package/src/store/chat/slices/aiChat/actions/generateAIGroupChat.ts +10 -6
  171. package/src/store/chat/slices/aiChat/actions/memory.ts +2 -3
  172. package/src/store/chat/slices/builtinTool/actions/__tests__/dalle.test.ts +3 -3
  173. package/src/store/chat/slices/builtinTool/actions/__tests__/search.test.ts +3 -3
  174. package/src/store/chat/slices/message/action.test.ts +13 -8
  175. package/src/store/chat/slices/message/action.ts +19 -18
  176. package/src/store/chat/slices/message/initialState.ts +3 -2
  177. package/src/store/chat/slices/message/reducer.test.ts +6 -6
  178. package/src/store/chat/slices/message/reducer.ts +11 -8
  179. package/src/store/chat/slices/message/selectors.test.ts +9 -9
  180. package/src/store/chat/slices/message/selectors.ts +10 -9
  181. package/src/store/chat/slices/message/supervisor.ts +2 -2
  182. package/src/store/chat/slices/plugin/action.test.ts +16 -13
  183. package/src/store/chat/slices/plugin/action.ts +11 -11
  184. package/src/store/chat/slices/portal/selectors.test.ts +8 -8
  185. package/src/store/chat/slices/thread/action.test.ts +2 -2
  186. package/src/store/chat/slices/thread/action.ts +9 -5
  187. package/src/store/chat/slices/thread/selectors/index.ts +11 -11
  188. package/src/store/chat/slices/thread/selectors/util.ts +2 -3
  189. package/src/store/chat/slices/topic/action.test.ts +6 -6
  190. package/src/store/chat/slices/topic/action.ts +2 -3
  191. package/src/store/chat/slices/translate/action.ts +2 -3
  192. package/src/store/chat/slices/tts/action.ts +1 -1
  193. package/src/store/chat/store.ts +0 -3
  194. package/src/store/image/slices/createImage/action.test.ts +9 -2
  195. package/src/store/image/slices/createImage/action.ts +6 -4
  196. package/src/tools/local-system/Render/ListFiles/Result.tsx +1 -1
  197. package/src/tools/local-system/Render/ListFiles/index.tsx +1 -1
  198. package/src/tools/local-system/Render/ReadLocalFile/index.tsx +1 -1
  199. package/src/tools/local-system/Render/RenameLocalFile/index.tsx +1 -1
  200. package/src/tools/local-system/Render/RunCommand/index.tsx +1 -1
  201. package/src/tools/local-system/Render/SearchFiles/index.tsx +1 -1
  202. package/src/tools/local-system/Render/WriteFile/index.tsx +1 -1
  203. package/src/tools/web-browsing/Render/Search/index.tsx +1 -3
  204. package/packages/types/src/message/base.ts +0 -173
  205. package/packages/types/src/message/translate.ts +0 -4
  206. package/src/store/chat/slices/share/action.test.ts +0 -22
  207. package/src/store/chat/slices/share/action.ts +0 -18
  208. package/src/store/chat/slices/share/initialState.ts +0 -7
  209. /package/packages/types/src/message/{image.ts → common/image.ts} +0 -0
  210. /package/packages/types/src/message/{video.ts → ui/video.ts} +0 -0
package/CHANGELOG.md CHANGED
@@ -2,6 +2,56 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.142.2](https://github.com/lobehub/lobe-chat/compare/v1.142.1...v1.142.2)
6
+
7
+ <sup>Released on **2025-10-26**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Improve provider modal height when creating custom provider.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Improve provider modal height when creating custom provider, closes [#9870](https://github.com/lobehub/lobe-chat/issues/9870) ([55d92c0](https://github.com/lobehub/lobe-chat/commit/55d92c0))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
30
+ ### [Version 1.142.1](https://github.com/lobehub/lobe-chat/compare/v1.142.0...v1.142.1)
31
+
32
+ <sup>Released on **2025-10-26**</sup>
33
+
34
+ #### 💄 Styles
35
+
36
+ - **misc**: Update i18n.
37
+
38
+ <br/>
39
+
40
+ <details>
41
+ <summary><kbd>Improvements and Fixes</kbd></summary>
42
+
43
+ #### Styles
44
+
45
+ - **misc**: Update i18n, closes [#9862](https://github.com/lobehub/lobe-chat/issues/9862) ([8d3bc91](https://github.com/lobehub/lobe-chat/commit/8d3bc91))
46
+
47
+ </details>
48
+
49
+ <div align="right">
50
+
51
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
52
+
53
+ </div>
54
+
5
55
  ## [Version 1.142.0](https://github.com/lobehub/lobe-chat/compare/v1.141.10...v1.142.0)
6
56
 
7
57
  <sup>Released on **2025-10-24**</sup>
package/Dockerfile CHANGED
@@ -156,7 +156,7 @@ ENV \
156
156
  # Anthropic
157
157
  ANTHROPIC_API_KEY="" ANTHROPIC_MODEL_LIST="" ANTHROPIC_PROXY_URL="" \
158
158
  # Amazon Bedrock
159
- AWS_ACCESS_KEY_ID="" AWS_SECRET_ACCESS_KEY="" AWS_REGION="" AWS_BEDROCK_MODEL_LIST="" \
159
+ ENABLED_AWS_BEDROCK="" AWS_ACCESS_KEY_ID="" AWS_SECRET_ACCESS_KEY="" AWS_REGION="" AWS_BEDROCK_MODEL_LIST="" \
160
160
  # Azure OpenAI
161
161
  AZURE_API_KEY="" AZURE_API_VERSION="" AZURE_ENDPOINT="" AZURE_MODEL_LIST="" \
162
162
  # Baichuan
@@ -166,7 +166,7 @@ ENV \
166
166
  # Cohere
167
167
  COHERE_API_KEY="" COHERE_MODEL_LIST="" COHERE_PROXY_URL="" \
168
168
  # ComfyUI
169
- COMFYUI_BASE_URL="" COMFYUI_AUTH_TYPE="" \
169
+ ENABLED_COMFYUI="" COMFYUI_BASE_URL="" COMFYUI_AUTH_TYPE="" \
170
170
  COMFYUI_API_KEY="" COMFYUI_USERNAME="" COMFYUI_PASSWORD="" COMFYUI_CUSTOM_HEADERS="" \
171
171
  # DeepSeek
172
172
  DEEPSEEK_API_KEY="" DEEPSEEK_MODEL_LIST="" \
@@ -209,7 +209,7 @@ ENV \
209
209
  # Ollama
210
210
  ENABLED_OLLAMA="" OLLAMA_MODEL_LIST="" OLLAMA_PROXY_URL="" \
211
211
  # OpenAI
212
- OPENAI_API_KEY="" OPENAI_MODEL_LIST="" OPENAI_PROXY_URL="" \
212
+ ENABLED_OPENAI="" OPENAI_API_KEY="" OPENAI_MODEL_LIST="" OPENAI_PROXY_URL="" \
213
213
  # OpenRouter
214
214
  OPENROUTER_API_KEY="" OPENROUTER_MODEL_LIST="" \
215
215
  # Perplexity
@@ -209,7 +209,7 @@ ENV \
209
209
  # Anthropic
210
210
  ANTHROPIC_API_KEY="" ANTHROPIC_MODEL_LIST="" ANTHROPIC_PROXY_URL="" \
211
211
  # Amazon Bedrock
212
- AWS_ACCESS_KEY_ID="" AWS_SECRET_ACCESS_KEY="" AWS_REGION="" AWS_BEDROCK_MODEL_LIST="" \
212
+ ENABLED_AWS_BEDROCK="" AWS_ACCESS_KEY_ID="" AWS_SECRET_ACCESS_KEY="" AWS_REGION="" AWS_BEDROCK_MODEL_LIST="" \
213
213
  # Azure OpenAI
214
214
  AZURE_API_KEY="" AZURE_API_VERSION="" AZURE_ENDPOINT="" AZURE_MODEL_LIST="" \
215
215
  # Baichuan
@@ -219,7 +219,7 @@ ENV \
219
219
  # Cohere
220
220
  COHERE_API_KEY="" COHERE_MODEL_LIST="" COHERE_PROXY_URL="" \
221
221
  # ComfyUI
222
- COMFYUI_BASE_URL="" COMFYUI_AUTH_TYPE="" \
222
+ ENABLED_COMFYUI="" COMFYUI_BASE_URL="" COMFYUI_AUTH_TYPE="" \
223
223
  COMFYUI_API_KEY="" COMFYUI_USERNAME="" COMFYUI_PASSWORD="" COMFYUI_CUSTOM_HEADERS="" \
224
224
  # DeepSeek
225
225
  DEEPSEEK_API_KEY="" DEEPSEEK_MODEL_LIST="" \
@@ -262,7 +262,7 @@ ENV \
262
262
  # Ollama
263
263
  ENABLED_OLLAMA="" OLLAMA_MODEL_LIST="" OLLAMA_PROXY_URL="" \
264
264
  # OpenAI
265
- OPENAI_API_KEY="" OPENAI_MODEL_LIST="" OPENAI_PROXY_URL="" \
265
+ ENABLED_OPENAI="" OPENAI_API_KEY="" OPENAI_MODEL_LIST="" OPENAI_PROXY_URL="" \
266
266
  # OpenRouter
267
267
  OPENROUTER_API_KEY="" OPENROUTER_MODEL_LIST="" \
268
268
  # Perplexity
package/Dockerfile.pglite CHANGED
@@ -158,7 +158,7 @@ ENV \
158
158
  # Anthropic
159
159
  ANTHROPIC_API_KEY="" ANTHROPIC_MODEL_LIST="" ANTHROPIC_PROXY_URL="" \
160
160
  # Amazon Bedrock
161
- AWS_ACCESS_KEY_ID="" AWS_SECRET_ACCESS_KEY="" AWS_REGION="" AWS_BEDROCK_MODEL_LIST="" \
161
+ ENABLED_AWS_BEDROCK="" AWS_ACCESS_KEY_ID="" AWS_SECRET_ACCESS_KEY="" AWS_REGION="" AWS_BEDROCK_MODEL_LIST="" \
162
162
  # Azure OpenAI
163
163
  AZURE_API_KEY="" AZURE_API_VERSION="" AZURE_ENDPOINT="" AZURE_MODEL_LIST="" \
164
164
  # Baichuan
@@ -168,7 +168,7 @@ ENV \
168
168
  # Cohere
169
169
  COHERE_API_KEY="" COHERE_MODEL_LIST="" COHERE_PROXY_URL="" \
170
170
  # ComfyUI
171
- COMFYUI_BASE_URL="" COMFYUI_AUTH_TYPE="" \
171
+ ENABLED_COMFYUI="" COMFYUI_BASE_URL="" COMFYUI_AUTH_TYPE="" \
172
172
  COMFYUI_API_KEY="" COMFYUI_USERNAME="" COMFYUI_PASSWORD="" COMFYUI_CUSTOM_HEADERS="" \
173
173
  # DeepSeek
174
174
  DEEPSEEK_API_KEY="" DEEPSEEK_MODEL_LIST="" \
@@ -211,7 +211,7 @@ ENV \
211
211
  # Ollama
212
212
  ENABLED_OLLAMA="" OLLAMA_MODEL_LIST="" OLLAMA_PROXY_URL="" \
213
213
  # OpenAI
214
- OPENAI_API_KEY="" OPENAI_MODEL_LIST="" OPENAI_PROXY_URL="" \
214
+ ENABLED_OPENAI="" OPENAI_API_KEY="" OPENAI_MODEL_LIST="" OPENAI_PROXY_URL="" \
215
215
  # OpenRouter
216
216
  OPENROUTER_API_KEY="" OPENROUTER_MODEL_LIST="" \
217
217
  # Perplexity
package/README.md CHANGED
@@ -389,7 +389,7 @@ In addition, these plugins are not limited to news aggregation, but can also ext
389
389
  | [Bing_websearch](https://lobechat.com/discover/plugin/Bingsearch-identifier)<br/><sup>By **FineHow** on **2024-12-22**</sup> | Search for information from the internet base BingApi<br/>`bingsearch` |
390
390
  | [Google CSE](https://lobechat.com/discover/plugin/google-cse)<br/><sup>By **vsnthdev** on **2024-12-02**</sup> | Searches Google through their official CSE API.<br/>`web` `search` |
391
391
 
392
- > 📊 Total plugins: [<kbd>**42**</kbd>](https://lobechat.com/discover/plugins)
392
+ > 📊 Total plugins: [<kbd>**41**</kbd>](https://lobechat.com/discover/plugins)
393
393
 
394
394
  <!-- PLUGIN LIST -->
395
395
 
package/README.zh-CN.md CHANGED
@@ -382,7 +382,7 @@ LobeChat 的插件生态系统是其核心功能的重要扩展,它极大地
382
382
  | [必应网页搜索](https://lobechat.com/discover/plugin/Bingsearch-identifier)<br/><sup>By **FineHow** on **2024-12-22**</sup> | 通过 BingApi 搜索互联网上的信息<br/>`bingsearch` |
383
383
  | [谷歌自定义搜索引擎](https://lobechat.com/discover/plugin/google-cse)<br/><sup>By **vsnthdev** on **2024-12-02**</sup> | 通过他们的官方自定义搜索引擎 API 搜索谷歌。<br/>`网络` `搜索` |
384
384
 
385
- > 📊 Total plugins: [<kbd>**42**</kbd>](https://lobechat.com/discover/plugins)
385
+ > 📊 Total plugins: [<kbd>**41**</kbd>](https://lobechat.com/discover/plugins)
386
386
 
387
387
  <!-- PLUGIN LIST -->
388
388
 
package/changelog/v1.json CHANGED
@@ -1,4 +1,22 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Improve provider modal height when creating custom provider."
6
+ ]
7
+ },
8
+ "date": "2025-10-26",
9
+ "version": "1.142.2"
10
+ },
11
+ {
12
+ "children": {
13
+ "improvements": [
14
+ "Update i18n."
15
+ ]
16
+ },
17
+ "date": "2025-10-26",
18
+ "version": "1.142.1"
19
+ },
2
20
  {
3
21
  "children": {
4
22
  "features": [
@@ -26,6 +26,17 @@ For example: `+qwen-7b-chat,+glm-6b,-gpt-3.5-turbo,gpt-4-0125-preview=gpt-4-turb
26
26
 
27
27
  In the above example, it adds `qwen-7b-chat` and `glm-6b` to the model list, removes `gpt-3.5-turbo` from the list, and displays the model name of `gpt-4-0125-preview` as `gpt-4-turbo`. If you want to disable all models first and then enable specific models, you can use `-all,+gpt-3.5-turbo`, which means only enabling `gpt-3.5-turbo`.
28
28
 
29
+ ### -all: Hide all models
30
+
31
+ - Description: `-all` means hiding all built-in models first. It’s usually combined with `+` to only enable the models you explicitly specify.
32
+ - Example:
33
+
34
+ ```text
35
+ -all,+gpt-3.5-turbo,+gpt-4-0125-preview=gpt-4-turbo
36
+ ```
37
+
38
+ This enables only gpt-3.5-turbo and gpt-4-turbo while hiding other models.
39
+
29
40
  ## Extension Capabilities
30
41
 
31
42
  Considering the diversity of model capabilities, we started to add extension configuration in version `0.147.8`, with the following rules:
@@ -25,6 +25,17 @@ id->deploymentName=displayName<maxToken:vision:reasoning:search:fc:file:imageOut
25
25
 
26
26
  上面示例表示增加 `qwen-7b-chat` 和 `glm-6b` 到模型列表,而从列表中删除 `gpt-3.5-turbo`,并将 `gpt-4-0125-preview` 模型名字展示为 `gpt-4-turbo`。如果你想先禁用所有模型,再启用指定模型,可以使用 `-all,+gpt-3.5-turbo`,则表示仅启用 `gpt-3.5-turbo`。
27
27
 
28
+ ### -all:隐藏所有模型
29
+
30
+ - 描述:`-all` 表示先隐藏所有内置模型。通常与 `+` 组合使用,用于只启用你显式指定的模型。
31
+ - 示例:
32
+
33
+ ```text
34
+ -all,+gpt-3.5-turbo,+gpt-4-0125-preview=gpt-4-turbo
35
+ ```
36
+
37
+ 仅启用 gpt-3.5-turbo 和 gpt-4-turbo,而其他模型都隐藏。
38
+
28
39
  ## 扩展能力
29
40
 
30
41
  考虑到模型的能力多样性,我们在 `0.147.8` 版本开始增加扩展性配置,它的规则如下:
@@ -653,6 +653,13 @@ The above example disables all models first, then enables `fal-ai/flux/schnell`
653
653
 
654
654
  ## ComfyUI
655
655
 
656
+ ### `ENABLED_COMFYUI`
657
+
658
+ - Type: Optional
659
+ - Description: Enables ComfyUI as a model provider by default. Set to `0` to disable the ComfyUI service.
660
+ - Default: `1`
661
+ - Example: `0`
662
+
656
663
  ### `COMFYUI_BASE_URL`
657
664
 
658
665
  - Type: Optional
@@ -705,13 +712,6 @@ The above example disables all models first, then enables `fal-ai/flux/schnell`
705
712
 
706
713
  ## BFL
707
714
 
708
- ### `ENABLED_BFL`
709
-
710
- - Type: Optional
711
- - Description: Enables BFL as a model provider by default. Set to `0` to disable the BFL service.
712
- - Default: `1`
713
- - Example: `0`
714
-
715
715
  ### `BFL_API_KEY`
716
716
 
717
717
  - Type: Required
@@ -748,13 +748,6 @@ NewAPI is a multi-provider model aggregation service that supports automatic mod
748
748
 
749
749
  ## Vercel AI Gateway
750
750
 
751
- ### `ENABLED_VERCELAIGATEWAY`
752
-
753
- - Type: Optional
754
- - Description: Enables Vercel AI Gateway as a model provider by default. Set to `0` to disable the Vercel AI Gateway service.
755
- - Default: `1`
756
- - Example: `0`
757
-
758
751
  ### `VERCELAIGATEWAY_API_KEY`
759
752
 
760
753
  - Type: Required
@@ -785,4 +778,20 @@ NewAPI is a multi-provider model aggregation service that supports automatic mod
785
778
  - Default: `-`
786
779
  - Example: `-all,+cerebras-model-1,+cerebras-model-2=cerebras-special`
787
780
 
781
+ ## AiHubMix
782
+
783
+ ### `AIHUBMIX_API_KEY`
784
+
785
+ - Type: Required
786
+ - Description: This is the API key you applied for in the AiHubMix service.
787
+ - Default: -
788
+ - Example: `sk-xxxxxx...xxxxxx`
789
+
790
+ ### `AIHUBMIX_MODEL_LIST`
791
+
792
+ - Type: Optional
793
+ - Description: Used to control the AiHubMix model list. Use `+` to add a model, `-` to hide a model, and `model_name=display_name` to customize the display name of a model. Separate multiple entries with commas. The definition syntax follows the same rules as other providers' model lists.
794
+ - Default: `-`
795
+ - Example: `-all,+claude-opus-4-1-20250805,+claude-opus-4-20250514=claude-opus-4`
796
+
788
797
  [model-list]: /docs/self-hosting/advanced/model-list
@@ -167,6 +167,13 @@ LobeChat 在部署时提供了丰富的模型服务商相关的环境变量,
167
167
 
168
168
  ## ComfyUI
169
169
 
170
+ ### `ENABLED_COMFYUI`
171
+
172
+ - 类型:可选
173
+ - 描述:默认启用 ComfyUI 作为模型供应商,当设为 0 时关闭 ComfyUI 服务
174
+ - 默认值:`1`
175
+ - 示例:`0`
176
+
170
177
  ### `COMFYUI_BASE_URL`
171
178
 
172
179
  - 类型:可选
@@ -703,13 +710,6 @@ LobeChat 在部署时提供了丰富的模型服务商相关的环境变量,
703
710
 
704
711
  ## BFL
705
712
 
706
- ### `ENABLED_BFL`
707
-
708
- - 类型:可选
709
- - 描述:默认启用 BFL 作为模型供应商,当设为 0 时关闭 BFL 服务
710
- - 默认值:`1`
711
- - 示例:`0`
712
-
713
713
  ### `BFL_API_KEY`
714
714
 
715
715
  - 类型:必选
@@ -751,13 +751,6 @@ LobeChat 在部署时提供了丰富的模型服务商相关的环境变量,
751
751
 
752
752
  ## Vercel AI Gateway
753
753
 
754
- ### `ENABLED_VERCELAIGATEWAY`
755
-
756
- - 类型:可选
757
- - 描述:默认启用 Vercel AI Gateway 作为模型供应商,当设为 0 时关闭 Vercel AI Gateway 服务
758
- - 默认值:`1`
759
- - 示例:`0`
760
-
761
754
  ### `VERCELAIGATEWAY_API_KEY`
762
755
 
763
756
  - 类型:必选
@@ -788,4 +781,20 @@ LobeChat 在部署时提供了丰富的模型服务商相关的环境变量,
788
781
  - 默认值:`-`
789
782
  - 示例:`-all,+cerebras-model-1,+cerebras-model-2=cerebras-special`
790
783
 
784
+ ## AiHubMix
785
+
786
+ ### `AIHUBMIX_API_KEY`
787
+
788
+ - 类型:必选
789
+ - 描述:这是你在 AiHubMix 服务中申请的 API 密钥
790
+ - 默认值:-
791
+ - 示例:`sk-xxxxxx...xxxxxx`
792
+
793
+ ### `AIHUBMIX_MODEL_LIST`
794
+
795
+ - 类型:可选
796
+ - 描述:用来控制 AiHubMix 模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则与其他 provider 保持一致。
797
+ - 默认值:`-`
798
+ - 示例:`-all,+claude-opus-4-1-20250805,+claude-opus-4-20250514=claude-opus-4`
799
+
791
800
  [model-list]: /zh/docs/self-hosting/advanced/model-list
@@ -31,9 +31,6 @@ AiHubMix 是一个 AI 模型聚合平台,通过统一的 OpenAI 兼容 API 接
31
31
  在您的 `.env` 文件中添加以下环境变量:
32
32
 
33
33
  ```bash
34
- # 启用 AiHubMix 提供商
35
- ENABLED_AIHUBMIX=1
36
-
37
34
  # AiHubMix API 密钥(必需)
38
35
  AIHUBMIX_API_KEY=your_aihubmix_api_key
39
36
  ```
@@ -97,5 +94,5 @@ AiHubMix 提供多种热门 AI 模型的访问,包括:
97
94
  如需更多支持:
98
95
 
99
96
  - 访问 [AiHubMix 文档](https://docs.aihubmix.com/)
100
- - 查看 [模型列表](https://docs.aihubmix.com/cn/api/Model-List)
97
+ - 查看 [模型列表](https://aihubmix.com/models)
101
98
  - 联系 AiHubMix 支持团队解决 API 相关问题
@@ -290,12 +290,12 @@
290
290
  "Pro/deepseek-ai/DeepSeek-V3": {
291
291
  "description": "DeepSeek-V3 هو نموذج لغوي مختلط الخبراء (MoE) يحتوي على 6710 مليار معلمة، يستخدم الانتباه المتعدد الرؤوس (MLA) وهيكل DeepSeekMoE، ويجمع بين استراتيجيات توازن الحمل بدون خسائر مساعدة، مما يحسن كفاءة الاستدلال والتدريب. تم تدريبه مسبقًا على 14.8 تريليون توكن عالية الجودة، وتم إجراء تعديل دقيق تحت الإشراف والتعلم المعزز، مما يجعل DeepSeek-V3 يتفوق على نماذج مفتوحة المصدر الأخرى، ويقترب من النماذج المغلقة الرائدة."
292
292
  },
293
- "Pro/deepseek-ai/DeepSeek-V3.1": {
294
- "description": "DeepSeek-V3.1 هو نموذج لغة كبير بنمط هجين أصدرته DeepSeek AI، وقد شهد ترقيات مهمة متعددة مقارنة بالإصدارات السابقة. من الابتكارات الرئيسية في هذا النموذج دمج \"وضع التفكير\" و\"وضع عدم التفكير\" في نموذج واحد، حيث يمكن للمستخدمين التبديل بينهما بسهولة عبر تعديل قالب المحادثة لتلبية متطلبات المهام المختلفة. من خلال تحسينات ما بعد التدريب المخصصة، تم تعزيز أداء V3.1 في استدعاء الأدوات ومهام الوكيل بشكل ملحوظ، مما يمكنه من دعم أدوات البحث الخارجية وتنفيذ مهام معقدة متعددة الخطوات بشكل أفضل. يعتمد النموذج على DeepSeek-V3.1-Base مع تدريب إضافي، حيث تم توسيع حجم بيانات التدريب بشكل كبير عبر طريقة التوسيع النصي الطويل على مرحلتين، مما يحسن أدائه في معالجة المستندات الطويلة والرموز البرمجية الطويلة. كنموذج مفتوح المصدر، يظهر DeepSeek-V3.1 قدرة تنافسية مع أفضل النماذج المغلقة في مجالات الترميز والرياضيات والاستدلال، وبفضل هيكله المختلط للخبراء (MoE)، يحافظ على سعة نموذج ضخمة مع تقليل تكلفة الاستدلال بفعالية."
295
- },
296
293
  "Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
297
294
  "description": "DeepSeek-V3.1-Terminus هو نسخة محدثة من نموذج V3.1 الذي أصدرته DeepSeek، ويصنف كنموذج لغة كبير لوكيل هجين. يركز هذا التحديث على إصلاح المشكلات التي أبلغ عنها المستخدمون وتحسين الاستقرار مع الحفاظ على القدرات الأصلية للنموذج. لقد حسّن بشكل ملحوظ اتساق اللغة، وقلل من الاستخدام المختلط للغة الصينية والإنجليزية والرموز غير الطبيعية. يدمج النموذج \"وضع التفكير\" و\"الوضع غير التفكيري\"، حيث يمكن للمستخدمين التبديل بينهما بسهولة عبر قوالب الدردشة لتناسب مهام مختلفة. كتحسين مهم، عزز V3.1-Terminus أداء وكيل الكود ووكيل البحث، مما يجعله أكثر موثوقية في استدعاء الأدوات وتنفيذ المهام المعقدة متعددة الخطوات."
298
295
  },
296
+ "Pro/deepseek-ai/DeepSeek-V3.2-Exp": {
297
+ "description": "DeepSeek-V3.2-Exp هو إصدار تجريبي من DeepSeek للإصدار V3.2، ويُعد خطوة استكشافية نحو الجيل التالي من البنى. يعتمد على V3.1-Terminus ويُدخل آلية الانتباه المتناثر من DeepSeek (DeepSeek Sparse Attention - DSA) لتحسين كفاءة التدريب والاستدلال في السياقات الطويلة. تم تحسينه خصيصًا لاستدعاء الأدوات، وفهم المستندات الطويلة، والاستدلال متعدد الخطوات. يُعد V3.2-Exp جسرًا بين البحث والتطبيق العملي، وهو مناسب للمستخدمين الذين يسعون إلى كفاءة استدلال أعلى في سيناريوهات ذات ميزانية سياقية مرتفعة."
298
+ },
299
299
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
300
300
  "description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
301
301
  },
@@ -398,6 +398,18 @@
398
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
399
399
  "description": "Qwen3-Next-80B-A3B-Thinking هو نموذج أساسي من الجيل التالي أصدره فريق Tongyi Qianwen في علي بابا، مصمم خصيصًا لمهام الاستدلال المعقدة. يعتمد على بنية Qwen3-Next المبتكرة التي تدمج آلية انتباه هجينة (Gated DeltaNet و Gated Attention) وهيكل خبراء مختلط عالي التشتت (MoE)، بهدف تحقيق أقصى كفاءة في التدريب والاستدلال. كنموذج متناثر يحتوي على 80 مليار معلمة إجمالية، فإنه ينشط حوالي 3 مليارات معلمة فقط أثناء الاستدلال، مما يقلل بشكل كبير من تكلفة الحوسبة، وعند معالجة مهام سياق طويل تتجاوز 32 ألف رمز، فإن معدل الاستدلال يتفوق على نموذج Qwen3-32B بأكثر من 10 أضعاف. نسخة \"Thinking\" هذه مخصصة لتنفيذ مهام متعددة الخطوات عالية الصعوبة مثل الإثباتات الرياضية، توليف الشيفرة، التحليل المنطقي والتخطيط، وتخرج عملية الاستدلال بشكل افتراضي في شكل \"سلسلة تفكير\" منظمة. من حيث الأداء، يتفوق هذا النموذج ليس فقط على نماذج ذات تكلفة أعلى مثل Qwen3-32B-Thinking، بل يتفوق أيضًا في عدة اختبارات معيارية على Gemini-2.5-Flash-Thinking."
400
400
  },
401
+ "Qwen/Qwen3-VL-235B-A22B-Instruct": {
402
+ "description": "Qwen3-VL-235B-A22B-Instruct هو نموذج كبير من سلسلة Qwen3-VL تم تدريبه على التعليمات، ويعتمد على بنية الخبراء المختلطة (MoE)، ويتميز بقدرات فائقة في الفهم والتوليد متعدد الوسائط. يدعم السياق الأصلي حتى 256 ألف رمز، مما يجعله مناسبًا لخدمات الإنتاج متعددة الوسائط عالية التوازي."
403
+ },
404
+ "Qwen/Qwen3-VL-235B-A22B-Thinking": {
405
+ "description": "Qwen3-VL-235B-A22B-Thinking هو الإصدار الرائد من سلسلة Qwen3-VL المخصص للتفكير، وقد تم تحسينه خصيصًا للاستدلال متعدد الوسائط المعقد، والاستدلال في السياقات الطويلة، والتفاعل مع الوكلاء الذكيين. وهو مثالي للسيناريوهات المؤسسية التي تتطلب تفكيرًا عميقًا واستدلالًا بصريًا."
406
+ },
407
+ "Qwen/Qwen3-VL-30B-A3B-Instruct": {
408
+ "description": "Qwen3-VL-30B-A3B-Instruct هو إصدار مخصص للتعليمات من سلسلة Qwen3-VL، يتمتع بقدرات قوية في فهم وتوليد اللغة البصرية، ويدعم سياقًا أصليًا يصل إلى 256 ألف رمز. وهو مناسب للحوار متعدد الوسائط ومهام التوليد المشروط بالصور."
409
+ },
410
+ "Qwen/Qwen3-VL-30B-A3B-Thinking": {
411
+ "description": "Qwen3-VL-30B-A3B-Thinking هو إصدار معزز بالاستدلال من Qwen3-VL (Thinking)، تم تحسينه لمهام الاستدلال متعدد الوسائط، وتحويل الصور إلى كود، وفهم الرؤية المعقدة. يدعم سياقًا يصل إلى 256 ألف رمز ويتميز بقدرات تفكير متسلسلة أقوى."
412
+ },
401
413
  "Qwen/Qwen3-VL-8B-Instruct": {
402
414
  "description": "Qwen3-VL-8B-Instruct هو نموذج لغة بصرية من سلسلة Qwen3، تم تطويره استنادًا إلى Qwen3-8B-Instruct وتدريبه على كمية كبيرة من بيانات الصور والنصوص. يتميز بقدرته على فهم الرؤية العامة، وإجراء حوارات تتمحور حول المحتوى البصري، والتعرف على النصوص متعددة اللغات داخل الصور. وهو مناسب لتطبيقات مثل الأسئلة والأجوبة البصرية، ووصف الصور، واتباع التعليمات متعددة الوسائط، واستدعاء الأدوات."
403
415
  },
@@ -978,13 +990,13 @@
978
990
  "description": "DeepSeek-V3 هو نموذج لغوي مختلط الخبراء (MoE) يحتوي على 6710 مليار معلمة، يستخدم انتباه متعدد الرؤوس (MLA) وبنية DeepSeekMoE، ويجمع بين استراتيجية توازن الحمل بدون خسارة مساعدة، مما يحسن كفاءة الاستدلال والتدريب. من خلال التدريب المسبق على 14.8 تريليون توكن عالي الجودة، وإجراء تعديلات إشرافية وتعلم معزز، يتفوق DeepSeek-V3 في الأداء على نماذج المصدر المفتوح الأخرى، ويقترب من النماذج المغلقة الرائدة."
979
991
  },
980
992
  "deepseek-ai/DeepSeek-V3.1": {
981
- "description": "DeepSeek-V3.1 هو نموذج لغة كبير بنمط هجين أصدرته DeepSeek AI، وقد شهد ترقيات مهمة متعددة مقارنة بالإصدارات السابقة. من الابتكارات الرئيسية في هذا النموذج دمج \"وضع التفكير\" و\"وضع عدم التفكير\" في نموذج واحد، حيث يمكن للمستخدمين التبديل بينهما بسهولة عبر تعديل قالب المحادثة لتلبية متطلبات المهام المختلفة. من خلال تحسينات ما بعد التدريب المخصصة، تم تعزيز أداء V3.1 في استدعاء الأدوات ومهام الوكيل بشكل ملحوظ، مما يمكنه من دعم أدوات البحث الخارجية وتنفيذ مهام معقدة متعددة الخطوات بشكل أفضل. يعتمد النموذج على DeepSeek-V3.1-Base مع تدريب إضافي، حيث تم توسيع حجم بيانات التدريب بشكل كبير عبر طريقة التوسيع النصي الطويل على مرحلتين، مما يحسن أدائه في معالجة المستندات الطويلة والرموز البرمجية الطويلة. كنموذج مفتوح المصدر، يظهر DeepSeek-V3.1 قدرة تنافسية مع أفضل النماذج المغلقة في مجالات الترميز والرياضيات والاستدلال، وبفضل هيكله المختلط للخبراء (MoE)، يحافظ على سعة نموذج ضخمة مع تقليل تكلفة الاستدلال بفعالية."
993
+ "description": "نموذج DeepSeek V3.1 يعتمد على بنية استدلال هجينة، ويدعم كلًا من وضع التفكير والوضع غير التفكيري."
982
994
  },
983
995
  "deepseek-ai/DeepSeek-V3.1-Terminus": {
984
996
  "description": "DeepSeek-V3.1-Terminus هو نسخة محدثة من نموذج V3.1 الذي أصدرته DeepSeek، ويصنف كنموذج لغة كبير لوكيل هجين. يركز هذا التحديث على إصلاح المشكلات التي أبلغ عنها المستخدمون وتحسين الاستقرار مع الحفاظ على القدرات الأصلية للنموذج. لقد حسّن بشكل ملحوظ اتساق اللغة، وقلل من الاستخدام المختلط للغة الصينية والإنجليزية والرموز غير الطبيعية. يدمج النموذج \"وضع التفكير\" و\"الوضع غير التفكيري\"، حيث يمكن للمستخدمين التبديل بينهما بسهولة عبر قوالب الدردشة لتناسب مهام مختلفة. كتحسين مهم، عزز V3.1-Terminus أداء وكيل الكود ووكيل البحث، مما يجعله أكثر موثوقية في استدعاء الأدوات وتنفيذ المهام المعقدة متعددة الخطوات."
985
997
  },
986
998
  "deepseek-ai/DeepSeek-V3.2-Exp": {
987
- "description": "نموذج DeepSeek V3.2 Exp هو نموذج بهيكلية استدلال هجينة، يدعم وضعي التفكير وغير التفكير."
999
+ "description": "DeepSeek-V3.2-Exp هو إصدار تجريبي من DeepSeek للإصدار V3.2، ويُعد خطوة استكشافية نحو الجيل التالي من البنى. يعتمد على V3.1-Terminus ويُدخل آلية الانتباه المتناثر من DeepSeek (DeepSeek Sparse Attention - DSA) لتحسين كفاءة التدريب والاستدلال في السياقات الطويلة. تم تحسينه خصيصًا لاستدعاء الأدوات، وفهم المستندات الطويلة، والاستدلال متعدد الخطوات. يُعد V3.2-Exp جسرًا بين البحث والتطبيق العملي، وهو مناسب للمستخدمين الذين يسعون إلى كفاءة استدلال أعلى في سيناريوهات ذات ميزانية سياقية مرتفعة."
988
1000
  },
989
1001
  "deepseek-ai/deepseek-llm-67b-chat": {
990
1002
  "description": "DeepSeek 67B هو نموذج متقدم تم تدريبه للحوار المعقد."
@@ -2474,9 +2486,6 @@
2474
2486
  "mistralai/Mixtral-8x7B-v0.1": {
2475
2487
  "description": "Mixtral 8x7B هو نموذج خبير متفرق، يستفيد من معلمات متعددة لزيادة سرعة الاستدلال، مناسب لمعالجة المهام متعددة اللغات وتوليد الأكواد."
2476
2488
  },
2477
- "mistralai/mistral-7b-instruct": {
2478
- "description": "Mistral 7B Instruct هو نموذج صناعي عالي الأداء يجمع بين تحسين السرعة ودعم السياقات الطويلة."
2479
- },
2480
2489
  "mistralai/mistral-nemo": {
2481
2490
  "description": "Mistral Nemo هو نموذج ببارامترات 7.3B يدعم عدة لغات ويتميز بأداء برمجي عالي."
2482
2491
  },
@@ -290,12 +290,12 @@
290
290
  "Pro/deepseek-ai/DeepSeek-V3": {
291
291
  "description": "DeepSeek-V3 е модел на езика с 6710 милиарда параметри, който използва архитектура на смесени експерти (MoE) с много глави на потенциално внимание (MLA) и стратегия за баланс на натоварването без помощни загуби, оптимизираща производителността на инференцията и обучението. Чрез предварително обучение на 14.8 трилиона висококачествени токени и последващо супервизирано фино настройване и обучение с подсилване, DeepSeek-V3 надминава производителността на други отворени модели и е близо до водещите затворени модели."
292
292
  },
293
- "Pro/deepseek-ai/DeepSeek-V3.1": {
294
- "description": "DeepSeek-V3.1 е хибриден голям езиков модел, пуснат от DeepSeek AI, който включва множество важни подобрения спрямо предишните версии. Основната иновация на модела е интеграцията на „режим на мислене“ (Thinking Mode) и „режим без мислене“ (Non-thinking Mode), които потребителите могат гъвкаво да превключват чрез настройка на чат шаблони, за да отговарят на различни задачи. След специална пост-тренировка, V3.1 значително подобрява производителността при използване на инструменти и задачи на агенти, като по-добре поддържа външни търсачки и изпълнение на сложни многостъпкови задачи. Моделът е дообучен върху DeepSeek-V3.1-Base чрез двуфазен метод за разширяване на дълги текстове, което значително увеличава обема на тренировъчните данни и подобрява работата с дълги документи и кодове. Като отворен модел, DeepSeek-V3.1 демонстрира способности, сравними с водещи затворени модели в области като кодиране, математика и разсъждение, като същевременно с хибридната си експертна (MoE) архитектура поддържа голям капацитет на модела и ефективно намалява разходите за изчисления."
295
- },
296
293
  "Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
297
294
  "description": "DeepSeek-V3.1-Terminus е обновена версия на модела V3.1, пусната от DeepSeek, позиционирана като хибриден интелигентен голям езиков модел. Тази актуализация запазва оригиналните възможности на модела, като се фокусира върху отстраняване на проблеми, посочени от потребителите, и подобряване на стабилността. Значително е подобрена езиковата последователност, намалено е смесването на китайски и английски и появата на аномални символи. Моделът интегрира „режим на мислене“ и „режим без мислене“, като потребителите могат гъвкаво да превключват между тях чрез чат шаблони за различни задачи. Като важна оптимизация, V3.1-Terminus подобрява производителността на кодовия агент и търсещия агент, което ги прави по-надеждни при извикване на инструменти и изпълнение на многократни сложни задачи."
298
295
  },
296
+ "Pro/deepseek-ai/DeepSeek-V3.2-Exp": {
297
+ "description": "DeepSeek-V3.2-Exp е експерименталната версия V3.2, пусната от DeepSeek, представляваща междинно изследване към следващото поколение архитектура. Тя въвежда механизма за разредено внимание на DeepSeek (DeepSeek Sparse Attention, DSA) на базата на V3.1-Terminus, с цел подобряване на ефективността при обучение и извеждане с дълъг контекст. Моделът е специално оптимизиран за използване на инструменти, разбиране на дълги документи и многoетапно разсъждение. V3.2-Exp служи като мост между изследванията и продуктовата реализация и е подходящ за потребители, които търсят по-висока ефективност на разсъждение в среди с голям контекстуален бюджет."
298
+ },
299
299
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
300
300
  "description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
301
301
  },
@@ -398,6 +398,18 @@
398
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
399
399
  "description": "Qwen3-Next-80B-A3B-Thinking е следващото поколение основен модел, публикуван от екипа на Alibaba Tongyi Qianwen, специално проектиран за сложни задачи за разсъждение. Той е базиран на иновативната архитектура Qwen3-Next, която комбинира хибриден механизъм за внимание (Gated DeltaNet и Gated Attention) и структура с висока степен на разреждане на смесени експерти (MoE), с цел постигане на изключителна ефективност при обучение и извод. Като разреден модел с общо 80 милиарда параметри, при извод активира само около 3 милиарда параметри, което значително намалява изчислителните разходи. При обработка на задачи с дълъг контекст над 32K токена, пропускателната способност при извод е над 10 пъти по-висока в сравнение с модела Qwen3-32B. Тази „Thinking“ версия е оптимизирана за изпълнение на сложни многостъпкови задачи като математически доказателства, синтез на код, логически анализ и планиране, като по подразбиране изходът на разсъжденията е във формата на структурирана „мисловна верига“. По отношение на производителността, тя не само превъзхожда модели с по-високи разходи като Qwen3-32B-Thinking, но и превъзхожда Gemini-2.5-Flash-Thinking в множество бенчмаркове."
400
400
  },
401
+ "Qwen/Qwen3-VL-235B-A22B-Instruct": {
402
+ "description": "Qwen3-VL-235B-A22B-Instruct е голям модел от серията Qwen3-VL, фино настроен с инструкции, базиран на архитектура с множество експерти (MoE). Той притежава изключителни способности за мултимодално разбиране и генериране, с вградена поддръжка на 256K контекст, подходящ за високонадеждни производствени мултимодални услуги."
403
+ },
404
+ "Qwen/Qwen3-VL-235B-A22B-Thinking": {
405
+ "description": "Qwen3-VL-235B-A22B-Thinking е флагманската версия за разсъждение от серията Qwen3-VL, специално оптимизирана за сложни мултимодални разсъждения, дълъг контекст и взаимодействие с интелигентни агенти. Подходяща е за корпоративни сценарии, изискващи дълбоко мислене и визуално разсъждение."
406
+ },
407
+ "Qwen/Qwen3-VL-30B-A3B-Instruct": {
408
+ "description": "Qwen3-VL-30B-A3B-Instruct е версия от серията Qwen3-VL, фино настроена с инструкции, с мощни способности за визуално-езиково разбиране и генериране. Поддържа нативно 256K контекст и е подходяща за мултимодални диалози и задачи за генериране на изображения по зададени условия."
409
+ },
410
+ "Qwen/Qwen3-VL-30B-A3B-Thinking": {
411
+ "description": "Qwen3-VL-30B-A3B-Thinking е подобрена версия за разсъждение (Thinking) от серията Qwen3-VL, оптимизирана за мултимодално разсъждение, преобразуване на изображения в код и сложни задачи за визуално разбиране. Поддържа 256K контекст и притежава по-силни способности за верижно мислене."
412
+ },
401
413
  "Qwen/Qwen3-VL-8B-Instruct": {
402
414
  "description": "Qwen3-VL-8B-Instruct е визуално-езиков модел от серията Qwen3, базиран на Qwen3-8B-Instruct и обучен върху голям обем от данни с изображения и текст. Той е особено добър в общо визуално разбиране, визуално-центрирани диалози и разпознаване на многоезичен текст в изображения. Подходящ е за визуални въпроси и отговори, описание на изображения, мултимодални инструкции и използване на инструменти."
403
415
  },
@@ -978,13 +990,13 @@
978
990
  "description": "DeepSeek-V3 е езиков модел с 6710 милиарда параметри, базиран на смесени експерти (MoE), който използва многоглаво потенциално внимание (MLA) и архитектурата DeepSeekMoE, комбинирайки стратегии за баланс на натоварването без помощни загуби, за да оптимизира производителността на извеждане и обучение. Чрез предварително обучение на 14.8 трилиона висококачествени токени и последващо наблюдавано фино настройване и подсилено обучение, DeepSeek-V3 надминава производителността на други отворени модели и се приближава до водещите затворени модели."
979
991
  },
980
992
  "deepseek-ai/DeepSeek-V3.1": {
981
- "description": "DeepSeek-V3.1 е хибриден голям езиков модел, пуснат от DeepSeek AI, който включва множество важни подобрения спрямо предишните версии. Основната иновация на модела е интеграцията на „режим на мислене“ (Thinking Mode) и „режим без мислене“ (Non-thinking Mode), които потребителите могат гъвкаво да превключват чрез настройка на чат шаблони, за да отговарят на различни задачи. След специална пост-тренировка, V3.1 значително подобрява производителността при използване на инструменти и задачи на агенти, като по-добре поддържа външни търсачки и изпълнение на сложни многостъпкови задачи. Моделът е дообучен върху DeepSeek-V3.1-Base чрез двуфазен метод за разширяване на дълги текстове, което значително увеличава обема на тренировъчните данни и подобрява работата с дълги документи и кодове. Като отворен модел, DeepSeek-V3.1 демонстрира способности, сравними с водещи затворени модели в области като кодиране, математика и разсъждение, като същевременно с хибридната си експертна (MoE) архитектура поддържа голям капацитет на модела и ефективно намалява разходите за изчисления."
993
+ "description": "Моделът DeepSeek V3.1 е с хибридна архитектура за разсъждение, поддържащ както мисловен, така и немисловен режим."
982
994
  },
983
995
  "deepseek-ai/DeepSeek-V3.1-Terminus": {
984
996
  "description": "DeepSeek-V3.1-Terminus е обновена версия на модела V3.1, пусната от DeepSeek, позиционирана като хибриден интелигентен голям езиков модел. Тази актуализация запазва оригиналните възможности на модела, като се фокусира върху отстраняване на проблеми, посочени от потребителите, и подобряване на стабилността. Значително е подобрена езиковата последователност, намалено е смесването на китайски и английски и появата на аномални символи. Моделът интегрира „режим на мислене“ и „режим без мислене“, като потребителите могат гъвкаво да превключват между тях чрез чат шаблони за различни задачи. Като важна оптимизация, V3.1-Terminus подобрява производителността на кодовия агент и търсещия агент, което ги прави по-надеждни при извикване на инструменти и изпълнение на многократни сложни задачи."
985
997
  },
986
998
  "deepseek-ai/DeepSeek-V3.2-Exp": {
987
- "description": "Моделът DeepSeek V3.2 Exp е с хибридна архитектура за извеждане на заключения и поддържа както мисловен, така и немисловен режим."
999
+ "description": "DeepSeek-V3.2-Exp е експерименталната версия V3.2, пусната от DeepSeek, представляваща междинно изследване към следващото поколение архитектура. Тя въвежда механизма за разредено внимание на DeepSeek (DeepSeek Sparse Attention, DSA) на базата на V3.1-Terminus, с цел подобряване на ефективността при обучение и извеждане с дълъг контекст. Моделът е специално оптимизиран за използване на инструменти, разбиране на дълги документи и многoетапно разсъждение. V3.2-Exp служи като мост между изследванията и продуктовата реализация и е подходящ за потребители, които търсят по-висока ефективност на разсъждение в среди с голям контекстуален бюджет."
988
1000
  },
989
1001
  "deepseek-ai/deepseek-llm-67b-chat": {
990
1002
  "description": "DeepSeek 67B е напреднал модел, обучен за диалози с висока сложност."
@@ -2474,9 +2486,6 @@
2474
2486
  "mistralai/Mixtral-8x7B-v0.1": {
2475
2487
  "description": "Mixtral 8x7B е модел с рядък експерт, който използва множество параметри, за да подобри скоростта на разсъждение, подходящ за обработка на многоезични и генериращи код задачи."
2476
2488
  },
2477
- "mistralai/mistral-7b-instruct": {
2478
- "description": "Mistral 7B Instruct е високопроизводителен индустриален стандартен модел, оптимизиран за бързина и поддръжка на дълги контексти."
2479
- },
2480
2489
  "mistralai/mistral-nemo": {
2481
2490
  "description": "Mistral Nemo е модел с 7.3B параметри, предлагащ многоезична поддръжка и висока производителност."
2482
2491
  },
@@ -290,12 +290,12 @@
290
290
  "Pro/deepseek-ai/DeepSeek-V3": {
291
291
  "description": "DeepSeek-V3 ist ein hybrides Experten (MoE) Sprachmodell mit 6710 Milliarden Parametern, das eine Multi-Head-Latente-Attention (MLA) und DeepSeekMoE-Architektur verwendet, kombiniert mit einer Lastenausgleichsstrategie ohne Hilfskosten, um die Inferenz- und Trainingseffizienz zu optimieren. Durch das Pre-Training auf 14,8 Billionen hochwertigen Tokens und anschließende überwachte Feinabstimmung und verstärktes Lernen übertrifft DeepSeek-V3 in der Leistung andere Open-Source-Modelle und nähert sich führenden geschlossenen Modellen."
292
292
  },
293
- "Pro/deepseek-ai/DeepSeek-V3.1": {
294
- "description": "DeepSeek-V3.1 ist ein hybrides großes Sprachmodell, das von DeepSeek AI veröffentlicht wurde und auf dem Vorgängermodell in vielerlei Hinsicht bedeutende Verbesserungen aufweist. Eine wesentliche Innovation dieses Modells ist die Integration des „Denkmodus“ und des „Nicht-Denkmodus“ in einem System, wobei Nutzer durch Anpassung der Chat-Vorlagen flexibel zwischen den Modi wechseln können, um unterschiedlichen Aufgabenanforderungen gerecht zu werden. Durch spezielles Post-Training wurde die Leistung von V3.1 bei Tool-Aufrufen und Agentenaufgaben deutlich gesteigert, was eine bessere Unterstützung externer Suchwerkzeuge und die Ausführung komplexer mehrstufiger Aufgaben ermöglicht. Das Modell basiert auf DeepSeek-V3.1-Base und wurde durch eine zweistufige Langtext-Erweiterungsmethode nachtrainiert, wodurch das Trainingsdatenvolumen erheblich erhöht wurde und es sich besonders bei der Verarbeitung langer Dokumente und umfangreicher Codes bewährt. Als Open-Source-Modell zeigt DeepSeek-V3.1 in Benchmarks zu Codierung, Mathematik und logischem Denken Fähigkeiten, die mit führenden Closed-Source-Modellen vergleichbar sind. Gleichzeitig senkt seine hybride Expertenarchitektur (MoE) die Inferenzkosten bei gleichzeitiger Beibehaltung einer enormen Modellkapazität."
295
- },
296
293
  "Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
297
294
  "description": "DeepSeek-V3.1-Terminus ist eine aktualisierte Version des V3.1-Modells von DeepSeek, positioniert als hybrides Agenten-Großsprachmodell. Dieses Update konzentriert sich darauf, auf Nutzerfeedback basierende Probleme zu beheben und die Stabilität zu verbessern, während die ursprünglichen Modellfähigkeiten erhalten bleiben. Es verbessert deutlich die Sprachkonsistenz und reduziert das Vermischen von Chinesisch und Englisch sowie das Auftreten ungewöhnlicher Zeichen. Das Modell integriert den „Denkmodus“ (Thinking Mode) und den „Nicht-Denkmodus“ (Non-thinking Mode), zwischen denen Nutzer flexibel über Chatvorlagen wechseln können, um unterschiedlichen Aufgaben gerecht zu werden. Als wichtige Optimierung verbessert V3.1-Terminus die Leistung des Code-Agenten und des Such-Agenten, wodurch diese bei Werkzeugaufrufen und der Ausführung mehrstufiger komplexer Aufgaben zuverlässiger sind."
298
295
  },
296
+ "Pro/deepseek-ai/DeepSeek-V3.2-Exp": {
297
+ "description": "DeepSeek-V3.2-Exp ist eine experimentelle Version 3.2 von DeepSeek und stellt einen Zwischenschritt auf dem Weg zur nächsten Generation der Architektur dar. Aufbauend auf V3.1-Terminus führt sie den DeepSeek Sparse Attention (DSA)-Mechanismus ein, um die Effizienz beim Training und bei der Inferenz mit langen Kontexten zu verbessern. Sie wurde speziell für Werkzeugaufrufe, das Verständnis langer Dokumente und mehrstufiges Schlussfolgern optimiert. V3.2-Exp dient als Brücke zwischen Forschung und Produktreife und eignet sich für Nutzer, die in Szenarien mit hohem Kontextbudget eine höhere Inferenzleistung erkunden möchten."
298
+ },
299
299
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
300
300
  "description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
301
301
  },
@@ -398,6 +398,18 @@
398
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
399
399
  "description": "Qwen3-Next-80B-A3B-Thinking ist ein von Alibaba Tongyi Qianwen Team veröffentlichtes nächstes Generation Basis-Modell, das speziell für komplexe Inferenzaufgaben entwickelt wurde. Es basiert auf der innovativen Qwen3-Next-Architektur, die hybride Aufmerksamkeitsmechanismen (Gated DeltaNet und Gated Attention) mit einer hochgradig spärlichen Mixture-of-Experts (MoE)-Struktur kombiniert, um höchste Trainings- und Inferenz-Effizienz zu gewährleisten. Als spärliches Modell mit insgesamt 80 Milliarden Parametern werden bei der Inferenz nur etwa 3 Milliarden Parameter aktiviert, was die Rechenkosten stark reduziert. Bei der Verarbeitung von Langkontextaufgaben mit über 32K Tokens übertrifft der Durchsatz das Qwen3-32B-Modell um das Zehnfache. Diese „Thinking“-Version ist für anspruchsvolle mehrstufige Aufgaben wie mathematische Beweise, Code-Synthese, logische Analyse und Planung optimiert und gibt den Inferenzprozess standardmäßig in strukturierter „Denkketten“-Form aus. In der Leistung übertrifft es nicht nur kostenintensivere Modelle wie Qwen3-32B-Thinking, sondern auch in mehreren Benchmarks das Gemini-2.5-Flash-Thinking."
400
400
  },
401
+ "Qwen/Qwen3-VL-235B-A22B-Instruct": {
402
+ "description": "Qwen3-VL-235B-A22B-Instruct ist ein groß angelegtes, instruktional feinabgestimmtes Modell der Qwen3-VL-Serie. Es basiert auf einer Mixture-of-Experts (MoE)-Architektur und bietet herausragende multimodale Verständnis- und Generierungsfähigkeiten. Mit nativer Unterstützung für 256K Kontextlänge eignet es sich ideal für hochgradig parallele, produktionsreife multimodale Dienste."
403
+ },
404
+ "Qwen/Qwen3-VL-235B-A22B-Thinking": {
405
+ "description": "Qwen3-VL-235B-A22B-Thinking ist die Flaggschiff-Version der Qwen3-VL-Serie mit Fokus auf Denkprozesse. Es wurde speziell für komplexe multimodale Schlussfolgerungen, langkontextuelles Denken und Interaktionen mit Agenten optimiert und eignet sich für unternehmensweite Szenarien, die tiefgreifendes Denken und visuelle Inferenz erfordern."
406
+ },
407
+ "Qwen/Qwen3-VL-30B-A3B-Instruct": {
408
+ "description": "Qwen3-VL-30B-A3B-Instruct ist eine instruktional feinabgestimmte Version der Qwen3-VL-Serie mit leistungsstarken Fähigkeiten im Bereich visuell-sprachliches Verständnis und Generierung. Es unterstützt nativ eine Kontextlänge von 256K und eignet sich für multimodale Dialoge und bildkonditionierte Generierungsaufgaben."
409
+ },
410
+ "Qwen/Qwen3-VL-30B-A3B-Thinking": {
411
+ "description": "Qwen3-VL-30B-A3B-Thinking ist die reasoning-optimierte Version (Thinking) der Qwen3-VL-Serie. Sie wurde für multimodale Schlussfolgerungen, Bild-zu-Code-Generierung und komplexe visuelle Verständnisaufgaben optimiert. Mit Unterstützung für 256K Kontext bietet sie eine verbesserte Fähigkeit zum kettenbasierten Denken."
412
+ },
401
413
  "Qwen/Qwen3-VL-8B-Instruct": {
402
414
  "description": "Qwen3-VL-8B-Instruct ist ein visuelles Sprachmodell der Qwen3-Serie, basierend auf Qwen3-8B-Instruct und auf umfangreichen Bild-Text-Daten trainiert. Es ist spezialisiert auf allgemeines visuelles Verständnis, visuell zentrierte Dialoge und mehrsprachige Texterkennung in Bildern. Es eignet sich für Szenarien wie visuelle Frage-Antwort-Systeme, Bildbeschreibungen, multimodale Befehlsausführung und Tool-Integration."
403
415
  },
@@ -978,13 +990,13 @@
978
990
  "description": "DeepSeek-V3 ist ein hybrides Expertenmodell (MoE) mit 6710 Milliarden Parametern, das eine Multi-Head-Latent-Attention (MLA) und die DeepSeekMoE-Architektur verwendet, kombiniert mit einer Lastenausgleichsstrategie ohne Hilfskosten, um die Inferenz- und Trainingseffizienz zu optimieren. Durch das Pre-Training auf 14,8 Billionen hochwertigen Tokens und anschließendes überwachten Feintuning und verstärkendes Lernen übertrifft DeepSeek-V3 in der Leistung andere Open-Source-Modelle und nähert sich führenden Closed-Source-Modellen."
979
991
  },
980
992
  "deepseek-ai/DeepSeek-V3.1": {
981
- "description": "DeepSeek-V3.1 ist ein hybrides großes Sprachmodell, das von DeepSeek AI veröffentlicht wurde und auf dem Vorgängermodell in vielerlei Hinsicht bedeutende Verbesserungen aufweist. Eine wesentliche Innovation dieses Modells ist die Integration des „Denkmodus“ und des „Nicht-Denkmodus“ in einem System, wobei Nutzer durch Anpassung der Chat-Vorlagen flexibel zwischen den Modi wechseln können, um unterschiedlichen Aufgabenanforderungen gerecht zu werden. Durch spezielles Post-Training wurde die Leistung von V3.1 bei Tool-Aufrufen und Agentenaufgaben deutlich gesteigert, was eine bessere Unterstützung externer Suchwerkzeuge und die Ausführung komplexer mehrstufiger Aufgaben ermöglicht. Das Modell basiert auf DeepSeek-V3.1-Base und wurde durch eine zweistufige Langtext-Erweiterungsmethode nachtrainiert, wodurch das Trainingsdatenvolumen erheblich erhöht wurde und es sich besonders bei der Verarbeitung langer Dokumente und umfangreicher Codes bewährt. Als Open-Source-Modell zeigt DeepSeek-V3.1 in Benchmarks zu Codierung, Mathematik und logischem Denken Fähigkeiten, die mit führenden Closed-Source-Modellen vergleichbar sind. Gleichzeitig senkt seine hybride Expertenarchitektur (MoE) die Inferenzkosten bei gleichzeitiger Beibehaltung einer enormen Modellkapazität."
993
+ "description": "Das DeepSeek V3.1 Modell basiert auf einer hybriden Inferenzarchitektur und unterstützt sowohl Denk- als auch Nicht-Denk-Modi."
982
994
  },
983
995
  "deepseek-ai/DeepSeek-V3.1-Terminus": {
984
996
  "description": "DeepSeek-V3.1-Terminus ist eine aktualisierte Version des V3.1-Modells von DeepSeek, positioniert als hybrides Agenten-Großsprachmodell. Dieses Update konzentriert sich darauf, auf Nutzerfeedback basierende Probleme zu beheben und die Stabilität zu verbessern, während die ursprünglichen Modellfähigkeiten erhalten bleiben. Es verbessert deutlich die Sprachkonsistenz und reduziert das Vermischen von Chinesisch und Englisch sowie das Auftreten ungewöhnlicher Zeichen. Das Modell integriert den „Denkmodus“ (Thinking Mode) und den „Nicht-Denkmodus“ (Non-thinking Mode), zwischen denen Nutzer flexibel über Chatvorlagen wechseln können, um unterschiedlichen Aufgaben gerecht zu werden. Als wichtige Optimierung verbessert V3.1-Terminus die Leistung des Code-Agenten und des Such-Agenten, wodurch diese bei Werkzeugaufrufen und der Ausführung mehrstufiger komplexer Aufgaben zuverlässiger sind."
985
997
  },
986
998
  "deepseek-ai/DeepSeek-V3.2-Exp": {
987
- "description": "Das DeepSeek V3.2 Exp Modell ist eine hybride Inferenzarchitektur, die sowohl Denk- als auch Nicht-Denk-Modi unterstützt."
999
+ "description": "DeepSeek-V3.2-Exp ist eine experimentelle Version 3.2 von DeepSeek und stellt einen Zwischenschritt auf dem Weg zur nächsten Generation der Architektur dar. Aufbauend auf V3.1-Terminus führt sie den DeepSeek Sparse Attention (DSA)-Mechanismus ein, um die Effizienz beim Training und bei der Inferenz mit langen Kontexten zu verbessern. Sie wurde speziell für Werkzeugaufrufe, das Verständnis langer Dokumente und mehrstufiges Schlussfolgern optimiert. V3.2-Exp dient als Brücke zwischen Forschung und Produktreife und eignet sich für Nutzer, die in Szenarien mit hohem Kontextbudget eine höhere Inferenzleistung erkunden möchten."
988
1000
  },
989
1001
  "deepseek-ai/deepseek-llm-67b-chat": {
990
1002
  "description": "DeepSeek 67B ist ein fortschrittliches Modell, das für komplexe Dialoge trainiert wurde."
@@ -2474,9 +2486,6 @@
2474
2486
  "mistralai/Mixtral-8x7B-v0.1": {
2475
2487
  "description": "Mixtral 8x7B ist ein sparsames Expertenmodell, das mehrere Parameter nutzt, um die Schlussfolgerungsgeschwindigkeit zu erhöhen, und sich gut für mehrsprachige und Code-Generierungsaufgaben eignet."
2476
2488
  },
2477
- "mistralai/mistral-7b-instruct": {
2478
- "description": "Mistral 7B Instruct ist ein hochleistungsfähiges Branchenstandardmodell mit Geschwindigkeitsoptimierung und Unterstützung für lange Kontexte."
2479
- },
2480
2489
  "mistralai/mistral-nemo": {
2481
2490
  "description": "Mistral Nemo ist ein 7,3B-Parameter-Modell mit Unterstützung für mehrere Sprachen und hoher Programmierleistung."
2482
2491
  },