@lobehub/chat 1.120.0 → 1.120.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -80,6 +80,9 @@
80
80
  "DeepSeek-V3-Fast": {
81
81
  "description": "模型供應商為:sophnet平台。DeepSeek V3 Fast 是 DeepSeek V3 0324 版本的高TPS極速版,滿血非量化,代碼與數學能力更強,響應更快!"
82
82
  },
83
+ "DeepSeek-V3.1": {
84
+ "description": "DeepSeek-V3.1 是深度求索全新推出的混合推理模型,支援思考與非思考兩種推理模式,較 DeepSeek-R1-0528 思考效率更高。經過後訓練優化,Agent 工具使用與智能體任務表現大幅提升。"
85
+ },
83
86
  "Doubao-lite-128k": {
84
87
  "description": "Doubao-lite 擁有極致的響應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持128k上下文視窗的推理和精調。"
85
88
  },
@@ -134,9 +137,15 @@
134
137
  "ERNIE-Speed-Pro-128K": {
135
138
  "description": "百度2024年最新發布的自研高性能大語言模型,通用能力優異,效果比ERNIE Speed更優,適合作為基座模型進行精調,更好地處理特定場景問題,同時具備極佳的推理性能。"
136
139
  },
140
+ "FLUX-1.1-pro": {
141
+ "description": "FLUX.1.1 Pro"
142
+ },
137
143
  "FLUX.1-Kontext-dev": {
138
144
  "description": "FLUX.1-Kontext-dev 是由 Black Forest Labs 開發的一款基於 Rectified Flow Transformer 架構的多模態圖像生成與編輯模型,擁有 12B(120 億)參數規模,專注於在給定上下文條件下生成、重構、增強或編輯圖像。該模型結合了擴散模型的可控生成優勢與 Transformer 的上下文建模能力,支持高品質圖像輸出,廣泛適用於圖像修復、圖像補全、視覺場景重構等任務。"
139
145
  },
146
+ "FLUX.1-Kontext-pro": {
147
+ "description": "FLUX.1 Kontext [pro]"
148
+ },
140
149
  "FLUX.1-dev": {
141
150
  "description": "FLUX.1-dev 是由 Black Forest Labs 開發的一款開源多模態語言模型(Multimodal Language Model, MLLM),專為圖文任務優化,融合了圖像和文本的理解與生成能力。它建立在先進的大語言模型(如 Mistral-7B)基礎上,透過精心設計的視覺編碼器與多階段指令微調,實現了圖文協同處理與複雜任務推理的能力。"
142
151
  },
@@ -266,6 +275,9 @@
266
275
  "Pro/deepseek-ai/DeepSeek-V3": {
267
276
  "description": "DeepSeek-V3 是一款擁有 6710 億參數的混合專家(MoE)語言模型,採用多頭潛在注意力(MLA)和 DeepSeekMoE 架構,結合無輔助損失的負載平衡策略,優化推理和訓練效率。透過在 14.8 萬億高質量tokens上預訓練,並進行監督微調和強化學習,DeepSeek-V3 在性能上超越其他開源模型,接近領先閉源模型。"
268
277
  },
278
+ "Pro/deepseek-ai/DeepSeek-V3.1": {
279
+ "description": "DeepSeek-V3.1 是由深度求索(DeepSeek AI)發佈的混合模式大型語言模型,它在前代模型的基礎上進行了多方面的重要升級。該模型的一大創新是整合了「思考模式」(Thinking Mode)與「非思考模式」(Non-thinking Mode)於一體,使用者可以透過調整聊天範本靈活切換,以適應不同的任務需求。透過專門的後訓練優化,V3.1 在工具調用與 Agent 任務方面的效能獲得顯著提升,能更好地支援外部搜尋工具及執行多步複雜任務。該模型基於 DeepSeek-V3.1-Base 進行後訓練,透過兩階段長文本擴展方法,大幅增加訓練資料量,使其在處理長文件與長篇程式碼方面表現更佳。作為一個開源模型,DeepSeek-V3.1 在編碼、數學與推理等多個基準測試中展現了與頂尖閉源模型相媲美的能力,同時憑藉其混合專家(MoE)架構,在保持龐大模型容量的同時,有效降低推理成本。"
280
+ },
269
281
  "Pro/moonshotai/Kimi-K2-Instruct": {
270
282
  "description": "Kimi K2 是一款具備超強程式碼和 Agent 能力的 MoE 架構基礎模型,總參數 1T,激活參數 32B。在通用知識推理、程式設計、數學、Agent 等主要類別的基準性能測試中,K2 模型的性能超過其他主流開源模型。"
271
283
  },
@@ -845,6 +857,9 @@
845
857
  "deepseek-ai/DeepSeek-V3": {
846
858
  "description": "DeepSeek-V3 是一款擁有 6710 億參數的混合專家(MoE)語言模型,採用多頭潛在注意力(MLA)和 DeepSeekMoE 架構,結合無輔助損失的負載平衡策略,優化推理和訓練效率。通過在 14.8 萬億高品質 tokens 上預訓練,並進行監督微調和強化學習,DeepSeek-V3 在性能上超越其他開源模型,接近領先閉源模型。"
847
859
  },
860
+ "deepseek-ai/DeepSeek-V3.1": {
861
+ "description": "DeepSeek-V3.1 是由深度求索(DeepSeek AI)發佈的混合模式大型語言模型,它在前代模型的基礎上進行了多方面的重要升級。該模型的一大創新是整合了「思考模式」(Thinking Mode)與「非思考模式」(Non-thinking Mode)於一體,使用者可以透過調整聊天範本靈活切換,以適應不同的任務需求。透過專門的後訓練優化,V3.1 在工具調用與 Agent 任務方面的效能獲得顯著提升,能更好地支援外部搜尋工具及執行多步複雜任務。該模型基於 DeepSeek-V3.1-Base 進行後訓練,透過兩階段長文本擴展方法,大幅增加訓練資料量,使其在處理長文件與長篇程式碼方面表現更佳。作為一個開源模型,DeepSeek-V3.1 在編碼、數學與推理等多個基準測試中展現了與頂尖閉源模型相媲美的能力,同時憑藉其混合專家(MoE)架構,在保持龐大模型容量的同時,有效降低推理成本。"
862
+ },
848
863
  "deepseek-ai/deepseek-llm-67b-chat": {
849
864
  "description": "DeepSeek 67B 是為高複雜性對話訓練的先進模型。"
850
865
  },
@@ -915,7 +930,7 @@
915
930
  "description": "DeepSeek R1 滿血版,擁有 671B 參數,支持即時聯網搜索,具有更強大的理解和生成能力。"
916
931
  },
917
932
  "deepseek-reasoner": {
918
- "description": "DeepSeek 推出的推理模型。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
933
+ "description": "DeepSeek V3.1 思考模式。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
919
934
  },
920
935
  "deepseek-v2": {
921
936
  "description": "DeepSeek V2 是高效的 Mixture-of-Experts 語言模型,適用於經濟高效的處理需求。"
@@ -929,12 +944,18 @@
929
944
  "deepseek-v3-0324": {
930
945
  "description": "DeepSeek-V3-0324 為 671B 參數的 MoE 模型,在程式設計與技術能力、上下文理解與長文本處理等方面優勢突出。"
931
946
  },
947
+ "deepseek-v3.1": {
948
+ "description": "DeepSeek-V3.1 是深度求索全新推出的混合推理模型,支援思考與非思考兩種推理模式,較 DeepSeek-R1-0528 思考效率更高。經過後訓練優化,Agent 工具使用與智能體任務表現大幅提升。支援 128k 上下文視窗,輸出長度支援最大 64k tokens。"
949
+ },
932
950
  "deepseek/deepseek-chat-v3-0324": {
933
951
  "description": "DeepSeek V3 是一個 685B 參數的專家混合模型,是 DeepSeek 團隊旗艦聊天模型系列的最新迭代。\n\n它繼承了 [DeepSeek V3](/deepseek/deepseek-chat-v3) 模型,並在各種任務上表現出色。"
934
952
  },
935
953
  "deepseek/deepseek-chat-v3-0324:free": {
936
954
  "description": "DeepSeek V3 是一個 685B 參數的專家混合模型,是 DeepSeek 團隊旗艦聊天模型系列的最新迭代。\n\n它繼承了 [DeepSeek V3](/deepseek/deepseek-chat-v3) 模型,並在各種任務上表現出色。"
937
955
  },
956
+ "deepseek/deepseek-chat-v3.1": {
957
+ "description": "DeepSeek-V3.1 是一款支援 128K 長上下文與高效模式切換的大型混合推理模型,它在工具調用、程式碼生成和複雜推理任務上實現了卓越的效能與速度。"
958
+ },
938
959
  "deepseek/deepseek-r1": {
939
960
  "description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
940
961
  },
@@ -1230,10 +1251,10 @@
1230
1251
  "description": "Gemini 2.5 Flash 是 Google 性價比最高的模型,提供全面的功能。"
1231
1252
  },
1232
1253
  "gemini-2.5-flash-image-preview": {
1233
- "description": "Gemini 2.5 Flash Image Preview 是 Google 最新、速度最快且效率最高的原生多模態模型,允許您透過對話生成與編輯圖像。"
1254
+ "description": "Nano Banana 是 Google 最新、最快、最高效的原生多模態模型,它允許您透過對話生成和編輯圖像。"
1234
1255
  },
1235
1256
  "gemini-2.5-flash-image-preview:image": {
1236
- "description": "Gemini 2.5 Flash Image Preview 是 Google 最新、最快、最高效的原生多模態模型,它允許您透過對話生成和編輯圖像。"
1257
+ "description": "Nano Banana 是 Google 最新、最快、最高效的原生多模態模型,它允許您透過對話生成和編輯圖像。"
1237
1258
  },
1238
1259
  "gemini-2.5-flash-lite": {
1239
1260
  "description": "Gemini 2.5 Flash-Lite 是 Google 最小、性價比最高的模型,專為大規模使用而設計。"
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.120.0",
3
+ "version": "1.120.1",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -208,7 +208,7 @@
208
208
  "langfuse": "^3.38.4",
209
209
  "langfuse-core": "^3.38.4",
210
210
  "lodash-es": "^4.17.21",
211
- "lucide-react": "^0.541.0",
211
+ "lucide-react": "^0.542.0",
212
212
  "mammoth": "^1.10.0",
213
213
  "markdown-to-txt": "^2.0.1",
214
214
  "mdast-util-to-markdown": "^2.1.2",