@lobehub/chat 1.92.3 → 1.93.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (90) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/README.md +8 -8
  3. package/README.zh-CN.md +8 -8
  4. package/changelog/v1.json +9 -0
  5. package/docs/development/database-schema.dbml +51 -1
  6. package/locales/ar/modelProvider.json +4 -0
  7. package/locales/ar/models.json +64 -34
  8. package/locales/ar/providers.json +3 -0
  9. package/locales/bg-BG/modelProvider.json +4 -0
  10. package/locales/bg-BG/models.json +64 -34
  11. package/locales/bg-BG/providers.json +3 -0
  12. package/locales/de-DE/modelProvider.json +4 -0
  13. package/locales/de-DE/models.json +64 -34
  14. package/locales/de-DE/providers.json +3 -0
  15. package/locales/en-US/modelProvider.json +4 -0
  16. package/locales/en-US/models.json +64 -34
  17. package/locales/en-US/providers.json +3 -0
  18. package/locales/es-ES/modelProvider.json +4 -0
  19. package/locales/es-ES/models.json +64 -34
  20. package/locales/es-ES/providers.json +3 -0
  21. package/locales/fa-IR/modelProvider.json +4 -0
  22. package/locales/fa-IR/models.json +64 -34
  23. package/locales/fa-IR/providers.json +3 -0
  24. package/locales/fr-FR/modelProvider.json +4 -0
  25. package/locales/fr-FR/models.json +64 -34
  26. package/locales/fr-FR/providers.json +3 -0
  27. package/locales/it-IT/modelProvider.json +4 -0
  28. package/locales/it-IT/models.json +64 -34
  29. package/locales/it-IT/providers.json +3 -0
  30. package/locales/ja-JP/modelProvider.json +4 -0
  31. package/locales/ja-JP/models.json +64 -34
  32. package/locales/ja-JP/providers.json +3 -0
  33. package/locales/ko-KR/modelProvider.json +4 -0
  34. package/locales/ko-KR/models.json +64 -34
  35. package/locales/ko-KR/providers.json +3 -0
  36. package/locales/nl-NL/modelProvider.json +4 -0
  37. package/locales/nl-NL/models.json +64 -34
  38. package/locales/nl-NL/providers.json +3 -0
  39. package/locales/pl-PL/modelProvider.json +4 -0
  40. package/locales/pl-PL/models.json +64 -34
  41. package/locales/pl-PL/providers.json +3 -0
  42. package/locales/pt-BR/modelProvider.json +4 -0
  43. package/locales/pt-BR/models.json +64 -34
  44. package/locales/pt-BR/providers.json +3 -0
  45. package/locales/ru-RU/modelProvider.json +4 -0
  46. package/locales/ru-RU/models.json +63 -33
  47. package/locales/ru-RU/providers.json +3 -0
  48. package/locales/tr-TR/modelProvider.json +4 -0
  49. package/locales/tr-TR/models.json +64 -34
  50. package/locales/tr-TR/providers.json +3 -0
  51. package/locales/vi-VN/modelProvider.json +4 -0
  52. package/locales/vi-VN/models.json +64 -34
  53. package/locales/vi-VN/providers.json +3 -0
  54. package/locales/zh-CN/modelProvider.json +4 -0
  55. package/locales/zh-CN/models.json +59 -29
  56. package/locales/zh-CN/providers.json +3 -0
  57. package/locales/zh-TW/modelProvider.json +4 -0
  58. package/locales/zh-TW/models.json +64 -34
  59. package/locales/zh-TW/providers.json +3 -0
  60. package/package.json +1 -1
  61. package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +16 -0
  62. package/src/config/modelProviders/openai.ts +3 -1
  63. package/src/database/client/migrations.json +25 -0
  64. package/src/database/migrations/0025_add_provider_config.sql +1 -0
  65. package/src/database/migrations/meta/0025_snapshot.json +5703 -0
  66. package/src/database/migrations/meta/_journal.json +7 -0
  67. package/src/database/models/__tests__/aiProvider.test.ts +2 -0
  68. package/src/database/models/aiProvider.ts +5 -2
  69. package/src/database/repositories/tableViewer/index.test.ts +1 -1
  70. package/src/database/schemas/_helpers.ts +5 -1
  71. package/src/database/schemas/aiInfra.ts +5 -1
  72. package/src/libs/model-runtime/openai/index.ts +21 -2
  73. package/src/libs/model-runtime/types/chat.ts +6 -9
  74. package/src/libs/model-runtime/utils/openaiCompatibleFactory/index.ts +79 -5
  75. package/src/libs/model-runtime/utils/openaiHelpers.test.ts +145 -1
  76. package/src/libs/model-runtime/utils/openaiHelpers.ts +59 -0
  77. package/src/libs/model-runtime/utils/streams/openai/__snapshots__/responsesStream.test.ts.snap +193 -0
  78. package/src/libs/model-runtime/utils/streams/openai/index.ts +2 -0
  79. package/src/libs/model-runtime/utils/streams/{openai.test.ts → openai/openai.test.ts} +1 -1
  80. package/src/libs/model-runtime/utils/streams/{openai.ts → openai/openai.ts} +5 -5
  81. package/src/libs/model-runtime/utils/streams/openai/responsesStream.test.ts +826 -0
  82. package/src/libs/model-runtime/utils/streams/openai/responsesStream.ts +166 -0
  83. package/src/libs/model-runtime/utils/streams/protocol.ts +4 -1
  84. package/src/libs/model-runtime/utils/streams/utils.ts +20 -0
  85. package/src/libs/model-runtime/utils/usageConverter.ts +59 -0
  86. package/src/locales/default/modelProvider.ts +4 -0
  87. package/src/services/__tests__/chat.test.ts +27 -0
  88. package/src/services/chat.ts +8 -2
  89. package/src/store/aiInfra/slices/aiProvider/selectors.ts +11 -0
  90. package/src/types/aiProvider.ts +13 -1
@@ -230,6 +230,9 @@
230
230
  "Pro/deepseek-ai/DeepSeek-R1": {
231
231
  "description": "DeepSeek-R1 是一款強化學習(RL)驅動的推理模型,解決了模型中的重複性和可讀性問題。在 RL 之前,DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、代碼和推理任務中與 OpenAI-o1 表現相當,並且透過精心設計的訓練方法,提升了整體效果。"
232
232
  },
233
+ "Pro/deepseek-ai/DeepSeek-R1-0120": {
234
+ "description": "DeepSeek-R1 是一款強化學習(RL)驅動的推理模型,解決了模型中的重複性和可讀性問題。在 RL 之前,DeepSeek-R1 引入了冷啟動資料,進一步優化了推理性能。它在數學、程式碼和推理任務中與 OpenAI-o1 表現相當,並且透過精心設計的訓練方法,提升了整體效果。"
235
+ },
233
236
  "Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
234
237
  "description": "DeepSeek-R1-Distill-Qwen-1.5B 是基於 Qwen2.5-Math-1.5B 透過知識蒸餾技術所獲得的模型。該模型使用 DeepSeek-R1 產生的 80 萬個精選樣本進行微調,在多項基準測試中展現出優異的表現。作為一個輕量級模型,在 MATH-500 上達到了 83.9% 的準確率,在 AIME 2024 上獲得了 28.9% 的通過率,在 CodeForces 上取得了 954 的評分,顯示出超越其參數規模的推理能力。"
235
238
  },
@@ -422,8 +425,8 @@
422
425
  "THUDM/glm-4-9b-chat": {
423
426
  "description": "GLM-4 9B 開放源碼版本,為會話應用提供優化後的對話體驗。"
424
427
  },
425
- "Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
426
- "description": "Qwen2.5-72B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 72B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON)方面都有顯著提升"
428
+ "Tongyi-Zhiwen/QwenLong-L1-32B": {
429
+ "description": "QwenLong-L1-32B 是首個使用強化學習訓練的長上下文大型推理模型(LRM),專門針對長文本推理任務進行優化。該模型透過漸進式上下文擴展的強化學習框架,實現了從短上下文到長上下文的穩定遷移。在七個長上下文文件問答基準測試中,QwenLong-L1-32B 超越了 OpenAI-o3-mini Qwen3-235B-A22B 等旗艦模型,性能可媲美 Claude-3.7-Sonnet-Thinking。該模型特別擅長數學推理、邏輯推理和多跳推理等複雜任務。"
427
430
  },
428
431
  "Yi-34B-Chat": {
429
432
  "description": "Yi-1.5-34B 在保持原系列模型優秀的通用語言能力的前提下,通過增量訓練 5 千億高質量 token,大幅提高了數學邏輯和代碼能力。"
@@ -734,6 +737,12 @@
734
737
  "deepseek-ai/DeepSeek-R1": {
735
738
  "description": "DeepSeek-R1 是一款強化學習(RL)驅動的推理模型,解決了模型中的重複性和可讀性問題。在 RL 之前,DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、程式碼和推理任務中與 OpenAI-o1 表現相當,並且通過精心設計的訓練方法,提升了整體效果。"
736
739
  },
740
+ "deepseek-ai/DeepSeek-R1-0528": {
741
+ "description": "DeepSeek R1 透過利用增加的計算資源和在後訓練過程中引入演算法優化機制,顯著提高了其推理和推斷能力的深度。該模型在各種基準評估中表現出色,包括數學、程式設計和一般邏輯方面。其整體性能現已接近領先模型,如 O3 和 Gemini 2.5 Pro。"
742
+ },
743
+ "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
744
+ "description": "DeepSeek-R1-0528-Qwen3-8B 是透過從 DeepSeek-R1-0528 模型蒸餾思維鏈到 Qwen3 8B Base 獲得的模型。該模型在開源模型中達到了最先進(SOTA)的性能,在 AIME 2024 測試中超越了 Qwen3 8B 10%,並達到了 Qwen3-235B-thinking 的性能水準。該模型在數學推理、程式設計和通用邏輯等多個基準測試中表現出色,其架構與 Qwen3-8B 相同,但共享 DeepSeek-R1-0528 的分詞器配置。"
745
+ },
737
746
  "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
738
747
  "description": "DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
739
748
  },
@@ -836,9 +845,6 @@
836
845
  "deepseek-v3-0324": {
837
846
  "description": "DeepSeek-V3-0324 為 671B 參數的 MoE 模型,在程式設計與技術能力、上下文理解與長文本處理等方面優勢突出。"
838
847
  },
839
- "deepseek/deepseek-chat": {
840
- "description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力,還更好地對齊了人類偏好。此外,DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。"
841
- },
842
848
  "deepseek/deepseek-chat-v3-0324": {
843
849
  "description": "DeepSeek V3 是一個 685B 參數的專家混合模型,是 DeepSeek 團隊旗艦聊天模型系列的最新迭代。\n\n它繼承了 [DeepSeek V3](/deepseek/deepseek-chat-v3) 模型,並在各種任務上表現出色。"
844
850
  },
@@ -848,6 +854,12 @@
848
854
  "deepseek/deepseek-r1": {
849
855
  "description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
850
856
  },
857
+ "deepseek/deepseek-r1-0528": {
858
+ "description": "DeepSeek-R1 在僅有極少標註資料的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
859
+ },
860
+ "deepseek/deepseek-r1-0528:free": {
861
+ "description": "DeepSeek-R1 在僅有極少標註資料的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
862
+ },
851
863
  "deepseek/deepseek-r1-distill-llama-70b": {
852
864
  "description": "DeepSeek R1 Distill Llama 70B是基於Llama3.3 70B的大型語言模型,該模型利用DeepSeek R1輸出的微調,實現了與大型前沿模型相當的競爭性能。"
853
865
  },
@@ -1262,6 +1274,9 @@
1262
1274
  "gpt-4o-mini-realtime-preview": {
1263
1275
  "description": "GPT-4o-mini 實時版本,支持音頻和文本實時輸入輸出"
1264
1276
  },
1277
+ "gpt-4o-mini-search-preview": {
1278
+ "description": "GPT-4o mini 搜尋預覽版是一個專門訓練用於理解和執行網頁搜尋查詢的模型,使用的是 Chat Completions API。除了代幣費用之外,網頁搜尋查詢還會按每次工具呼叫收取費用。"
1279
+ },
1265
1280
  "gpt-4o-mini-tts": {
1266
1281
  "description": "GPT-4o mini TTS 是基於 GPT-4o mini 的文本轉語音模型,提供高品質的語音生成,同時降低成本。"
1267
1282
  },
@@ -1274,6 +1289,9 @@
1274
1289
  "gpt-4o-realtime-preview-2024-12-17": {
1275
1290
  "description": "GPT-4o 實時版本,支持音頻和文本實時輸入輸出"
1276
1291
  },
1292
+ "gpt-4o-search-preview": {
1293
+ "description": "GPT-4o 搜尋預覽版是一個專門訓練用於理解和執行網頁搜尋查詢的模型,使用的是 Chat Completions API。除了代幣費用之外,網頁搜尋查詢還會按每次工具呼叫收取費用。"
1294
+ },
1277
1295
  "grok-2-1212": {
1278
1296
  "description": "該模型在準確性、指令遵循和多語言能力方面有所改進。"
1279
1297
  },
@@ -1307,6 +1325,9 @@
1307
1325
  "hunyuan-large-longcontext": {
1308
1326
  "description": "擅長處理長文任務如文檔摘要和文檔問答等,同時也具備處理通用文本生成任務的能力。在長文本的分析和生成上表現優異,能有效應對複雜和詳盡的長文內容處理需求。"
1309
1327
  },
1328
+ "hunyuan-large-vision": {
1329
+ "description": "此模型適用於圖文理解場景,是基於混元Large訓練的視覺語言大模型,支援任意解析度多張圖片+文本輸入,生成文本內容,聚焦圖文理解相關任務,在多語言圖文理解能力上有顯著提升。"
1330
+ },
1310
1331
  "hunyuan-lite": {
1311
1332
  "description": "升級為 MOE 結構,上下文窗口為 256k,在 NLP、代碼、數學、行業等多項評測集上領先眾多開源模型。"
1312
1333
  },
@@ -1331,18 +1352,15 @@
1331
1352
  "hunyuan-t1-20250321": {
1332
1353
  "description": "全面搭建模型文理科能力,長文本信息捕捉能力強。支持推理解答各種難度的數學/邏輯推理/科學/代碼等科學問題。"
1333
1354
  },
1355
+ "hunyuan-t1-20250403": {
1356
+ "description": "提升專案級別程式碼生成能力;提升文本生成寫作品質;提升文本理解 topic 的多輪、tob 指令遵循和字詞理解能力;優化繁簡混雜和中英混雜輸出問題。"
1357
+ },
1334
1358
  "hunyuan-t1-latest": {
1335
1359
  "description": "業界首個超大規模 Hybrid-Transformer-Mamba 推理模型,擴展推理能力,超強解碼速度,進一步對齊人類偏好。"
1336
1360
  },
1337
1361
  "hunyuan-t1-vision": {
1338
1362
  "description": "混元多模態理解深度思考模型,支援多模態原生長思維鏈,擅長處理各種圖片推理場景,在理科難題上相比快思考模型全面提升。"
1339
1363
  },
1340
- "hunyuan-translation": {
1341
- "description": "支持中文和英語、日語、法語、葡萄牙語、西班牙語、土耳其語、俄語、阿拉伯語、韓語、義大利語、德語、越南語、馬來語、印尼語15種語言互譯,基於多場景翻譯評測集自動化評估COMET評分,在十餘種常用語種中外互譯能力上整體優於市場同規模模型。"
1342
- },
1343
- "hunyuan-translation-lite": {
1344
- "description": "混元翻譯模型支持自然語言對話式翻譯;支持中文和英語、日語、法語、葡萄牙語、西班牙語、土耳其語、俄語、阿拉伯語、韓語、義大利語、德語、越南語、馬來語、印尼語15種語言互譯。"
1345
- },
1346
1364
  "hunyuan-turbo": {
1347
1365
  "description": "混元全新一代大語言模型的預覽版,採用全新的混合專家模型(MoE)結構,相較於 hunyuan-pro 推理效率更快,效果表現更強。"
1348
1366
  },
@@ -1355,8 +1373,11 @@
1355
1373
  "hunyuan-turbo-vision": {
1356
1374
  "description": "混元新一代視覺語言旗艦大模型,採用全新的混合專家模型(MoE)結構,在圖文理解相關的基礎識別、內容創作、知識問答、分析推理等能力上相比前一代模型全面提升。"
1357
1375
  },
1358
- "hunyuan-turbos-20250226": {
1359
- "description": "hunyuan-TurboS pv2.1.2 固定版本預訓練底座訓練token數升級;數學/邏輯/代碼等思考能力提升;中英文通用體驗效果提升,包括文本創作、文本理解、知識問答、閒聊等。"
1376
+ "hunyuan-turbos-20250313": {
1377
+ "description": "統一數學解題步驟的風格,加強數學多輪問答。文本創作優化回答風格,去除 AI 味,增加文采。"
1378
+ },
1379
+ "hunyuan-turbos-20250416": {
1380
+ "description": "預訓練底座升級,增強底座的指令理解及遵循能力;對齊階段增強數學、程式碼、邏輯、科學等理科能力;提升文創寫作品質、文本理解、翻譯準確率、知識問答等文科能力;增強各領域 Agent 能力,重點加強多輪對話理解能力等。"
1360
1381
  },
1361
1382
  "hunyuan-turbos-latest": {
1362
1383
  "description": "hunyuan-TurboS 混元旗艦大模型最新版本,具備更強的思考能力,更優的體驗效果。"
@@ -1364,8 +1385,8 @@
1364
1385
  "hunyuan-turbos-longtext-128k-20250325": {
1365
1386
  "description": "擅長處理長文任務如文檔摘要和文檔問答等,同時也具備處理通用文本生成任務的能力。在長文本的分析和生成上表現優異,能有效應對複雜和詳盡的長文內容處理需求。"
1366
1387
  },
1367
- "hunyuan-turbos-vision": {
1368
- "description": "此模型適用於圖文理解場景,是基於混元最新 turbos 的新一代視覺語言旗艦大模型,聚焦圖文理解相關任務,包括基於圖片的實體識別、知識問答、文案創作、拍照解題等方面,相比前一代模型全面提升。"
1388
+ "hunyuan-turbos-role-plus": {
1389
+ "description": "混元最新版角色扮演模型,混元官方精調訓練推出的角色扮演模型,基於混元模型結合角色扮演場景資料集進行增訓,在角色扮演場景具有更好的基礎效果。"
1369
1390
  },
1370
1391
  "hunyuan-vision": {
1371
1392
  "description": "混元最新多模態模型,支持圖片 + 文本輸入生成文本內容。"
@@ -1886,11 +1907,14 @@
1886
1907
  "qvq-72b-preview": {
1887
1908
  "description": "QVQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於提升視覺推理能力,尤其在數學推理領域。"
1888
1909
  },
1889
- "qvq-max-latest": {
1890
- "description": "通義千問 QVQ 視覺推理模型,支持視覺輸入及思維鏈輸出,在數學、程式設計、視覺分析、創作以及通用任務上都表現了更強的能力。"
1910
+ "qvq-max": {
1911
+ "description": "通義千問 QVQ 視覺推理模型,支援視覺輸入及思維鏈輸出,在數學、程式設計、視覺分析、創作以及通用任務上都展現了更強的能力。"
1891
1912
  },
1892
- "qwen-coder-plus-latest": {
1893
- "description": "通義千問代碼模型。"
1913
+ "qwen-coder-plus": {
1914
+ "description": "通義千問程式碼模型。"
1915
+ },
1916
+ "qwen-coder-turbo": {
1917
+ "description": "通義千問程式碼模型。"
1894
1918
  },
1895
1919
  "qwen-coder-turbo-latest": {
1896
1920
  "description": "通義千問代碼模型。"
@@ -1898,41 +1922,44 @@
1898
1922
  "qwen-long": {
1899
1923
  "description": "通義千問超大規模語言模型,支持長文本上下文,以及基於長文檔、多文檔等多個場景的對話功能。"
1900
1924
  },
1925
+ "qwen-math-plus": {
1926
+ "description": "通義千問數學模型是專門用於數學解題的語言模型。"
1927
+ },
1901
1928
  "qwen-math-plus-latest": {
1902
1929
  "description": "通義千問數學模型是專門用於數學解題的語言模型。"
1903
1930
  },
1931
+ "qwen-math-turbo": {
1932
+ "description": "通義千問數學模型是專門用於數學解題的語言模型。"
1933
+ },
1904
1934
  "qwen-math-turbo-latest": {
1905
1935
  "description": "通義千問數學模型是專門用於數學解題的語言模型。"
1906
1936
  },
1907
1937
  "qwen-max": {
1908
1938
  "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,當前通義千問 2.5 產品版本背後的 API 模型。"
1909
1939
  },
1910
- "qwen-max-latest": {
1911
- "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,當前通義千問2.5產品版本背後的API模型。"
1912
- },
1913
- "qwen-omni-turbo-latest": {
1914
- "description": "Qwen-Omni 系列模型支持輸入多種模態的數據,包括視頻、音頻、圖片、文本,並輸出音頻與文本。"
1940
+ "qwen-omni-turbo": {
1941
+ "description": "Qwen-Omni 系列模型支援輸入多種模態的資料,包括影片、音訊、圖片、文本,並輸出音訊與文本。"
1915
1942
  },
1916
1943
  "qwen-plus": {
1917
1944
  "description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入。"
1918
1945
  },
1919
- "qwen-plus-latest": {
1920
- "description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入。"
1921
- },
1922
1946
  "qwen-turbo": {
1923
1947
  "description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入。"
1924
1948
  },
1925
- "qwen-turbo-latest": {
1926
- "description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入。"
1927
- },
1928
1949
  "qwen-vl-chat-v1": {
1929
1950
  "description": "通義千問VL支持靈活的交互方式,包括多圖、多輪問答、創作等能力的模型。"
1930
1951
  },
1952
+ "qwen-vl-max": {
1953
+ "description": "通義千問超大規模視覺語言模型。相比增強版,再次提升視覺推理能力和指令遵循能力,提供更高的視覺感知和認知水準。"
1954
+ },
1931
1955
  "qwen-vl-max-latest": {
1932
1956
  "description": "通義千問超大規模視覺語言模型。相比增強版,再次提升視覺推理能力和指令遵循能力,提供更高的視覺感知和認知水平。"
1933
1957
  },
1934
- "qwen-vl-ocr-latest": {
1935
- "description": "通義千問OCR是文字提取專有模型,專注於文檔、表格、試題、手寫體文字等類型圖像的文字提取能力。它能夠識別多種文字,目前支持的語言有:漢語、英語、法語、日語、韓語、德語、俄語、意大利語、越南語、阿拉伯語。"
1958
+ "qwen-vl-ocr": {
1959
+ "description": "通義千問 OCR 是文字擷取專有模型,專注於文件、表格、試題、手寫體文字等類型影像的文字擷取能力。它能夠識別多種文字,目前支援的語言有:漢語、英語、法語、日語、韓語、德語、俄語、義大利語、越南語、阿拉伯語。"
1960
+ },
1961
+ "qwen-vl-plus": {
1962
+ "description": "通義千問大規模視覺語言模型增強版。大幅提升細節識別能力和文字識別能力,支援超百萬像素解析度和任意長寬比規格的影像。"
1936
1963
  },
1937
1964
  "qwen-vl-plus-latest": {
1938
1965
  "description": "通義千問大規模視覺語言模型增強版。大幅提升細節識別能力和文字識別能力,支持超百萬像素解析度和任意長寬比規格的圖像。"
@@ -2021,6 +2048,9 @@
2021
2048
  "qwen2.5-coder-1.5b-instruct": {
2022
2049
  "description": "通義千問代碼模型開源版。"
2023
2050
  },
2051
+ "qwen2.5-coder-14b-instruct": {
2052
+ "description": "通義千問程式碼模型開源版。"
2053
+ },
2024
2054
  "qwen2.5-coder-32b-instruct": {
2025
2055
  "description": "通義千問代碼模型開源版。"
2026
2056
  },
@@ -2111,8 +2141,8 @@
2111
2141
  "qwq-32b-preview": {
2112
2142
  "description": "QwQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於增強 AI 推理能力。"
2113
2143
  },
2114
- "qwq-plus-latest": {
2115
- "description": "基於 Qwen2.5 模型訓練的 QwQ 推理模型,通過強化學習大幅度提升了模型推理能力。模型數學代碼等核心指標(AIME 24/25、LiveCodeBench)以及部分通用指標(IFEval、LiveBench等)達到 DeepSeek-R1 滿血版水平。"
2144
+ "qwq-plus": {
2145
+ "description": "基於 Qwen2.5 模型訓練的 QwQ 推理模型,透過強化學習大幅度提升了模型推理能力。模型數學程式碼等核心指標(AIME 24/25、LiveCodeBench)以及部分通用指標(IFEval、LiveBench等)達到 DeepSeek-R1 滿血版水準。"
2116
2146
  },
2117
2147
  "qwq_32b": {
2118
2148
  "description": "Qwen 系列中等規模的推理模型。與傳統的指令調優模型相比,具備思考和推理能力的 QwQ 在下游任務中,尤其是在解決難題時,能夠顯著提升性能。"
@@ -71,6 +71,9 @@
71
71
  "mistral": {
72
72
  "description": "Mistral 提供先進的通用、專業和研究型模型,廣泛應用於複雜推理、多語言任務、代碼生成等領域,通過功能調用接口,用戶可以集成自定義功能,實現特定應用。"
73
73
  },
74
+ "modelscope": {
75
+ "description": "ModelScope是阿里雲推出的模型即服務平台,提供豐富的AI模型和推理服務。"
76
+ },
74
77
  "moonshot": {
75
78
  "description": "Moonshot 是由北京月之暗面科技有限公司推出的開源平台,提供多種自然語言處理模型,應用領域廣泛,包括但不限於內容創作、學術研究、智能推薦、醫療診斷等,支持長文本處理和複雜生成任務。"
76
79
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.92.3",
3
+ "version": "1.93.0",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -134,6 +134,7 @@ const ProviderConfig = memo<ProviderConfigProps>(
134
134
  defaultShowBrowserRequest,
135
135
  disableBrowserRequest,
136
136
  showChecker = true,
137
+ supportResponsesApi,
137
138
  } = settings || {};
138
139
  const { t } = useTranslation('modelProvider');
139
140
  const [form] = Form.useForm();
@@ -146,6 +147,7 @@ const ProviderConfig = memo<ProviderConfigProps>(
146
147
  isLoading,
147
148
  configUpdating,
148
149
  isFetchOnClient,
150
+ enableResponseApi,
149
151
  isProviderEndpointNotEmpty,
150
152
  isProviderApiKeyNotEmpty,
151
153
  ] = useAiInfraStore((s) => [
@@ -155,6 +157,7 @@ const ProviderConfig = memo<ProviderConfigProps>(
155
157
  aiProviderSelectors.isAiProviderConfigLoading(id)(s),
156
158
  aiProviderSelectors.isProviderConfigUpdating(id)(s),
157
159
  aiProviderSelectors.isProviderFetchOnClient(id)(s),
160
+ aiProviderSelectors.isProviderEnableResponseApi(id)(s),
158
161
  aiProviderSelectors.isActiveProviderEndpointNotEmpty(s),
159
162
  aiProviderSelectors.isActiveProviderApiKeyNotEmpty(s),
160
163
  ]);
@@ -278,6 +281,19 @@ const ProviderConfig = memo<ProviderConfigProps>(
278
281
  const configItems = [
279
282
  ...apiKeyItem,
280
283
  endpointItem,
284
+ supportResponsesApi
285
+ ? {
286
+ children: isLoading ? (
287
+ <Skeleton.Button active />
288
+ ) : (
289
+ <Switch loading={configUpdating} value={enableResponseApi} />
290
+ ),
291
+ desc: t('providerModels.config.responsesApi.desc'),
292
+ label: t('providerModels.config.responsesApi.title'),
293
+ minWidth: undefined,
294
+ name: ['config', 'enableResponseApi'],
295
+ }
296
+ : undefined,
281
297
  clientFetchItem,
282
298
  showChecker
283
299
  ? {
@@ -80,7 +80,8 @@ const OpenAI: ModelProviderCard = {
80
80
  },
81
81
  {
82
82
  contextWindowTokens: 128_000,
83
- description: 'GPT-4o mini search preview 是一个专门为搜索功能优化的预览版本,具有增强的网络搜索能力和实时信息检索功能。',
83
+ description:
84
+ 'GPT-4o mini search preview 是一个专门为搜索功能优化的预览版本,具有增强的网络搜索能力和实时信息检索功能。',
84
85
  displayName: 'GPT-4o mini Search Preview',
85
86
  functionCall: true,
86
87
  id: 'gpt-4o-mini-search-preview',
@@ -335,6 +336,7 @@ const OpenAI: ModelProviderCard = {
335
336
  smoothing: {
336
337
  text: true,
337
338
  },
339
+ supportResponsesApi: true,
338
340
  },
339
341
  url: 'https://openai.com',
340
342
  };
@@ -489,5 +489,30 @@
489
489
  "bps": true,
490
490
  "folderMillis": 1748925630721,
491
491
  "hash": "15815e06e3b188933119f380ae12ef8694f2c5f8003cebb397ed00053a065be4"
492
+ },
493
+ {
494
+ "sql": [
495
+ "CREATE TABLE \"rbac_permissions\" (\n\t\"id\" integer PRIMARY KEY GENERATED BY DEFAULT AS IDENTITY (sequence name \"rbac_permissions_id_seq\" INCREMENT BY 1 MINVALUE 1 MAXVALUE 2147483647 START WITH 1 CACHE 1),\n\t\"code\" text NOT NULL,\n\t\"name\" text NOT NULL,\n\t\"description\" text,\n\t\"category\" text NOT NULL,\n\t\"is_active\" boolean DEFAULT true NOT NULL,\n\t\"accessed_at\" timestamp with time zone DEFAULT now() NOT NULL,\n\t\"created_at\" timestamp with time zone DEFAULT now() NOT NULL,\n\t\"updated_at\" timestamp with time zone DEFAULT now() NOT NULL,\n\tCONSTRAINT \"rbac_permissions_code_unique\" UNIQUE(\"code\")\n);\n",
496
+ "\nCREATE TABLE \"rbac_role_permissions\" (\n\t\"role_id\" integer NOT NULL,\n\t\"permission_id\" integer NOT NULL,\n\t\"created_at\" timestamp with time zone DEFAULT now() NOT NULL,\n\tCONSTRAINT \"rbac_role_permissions_role_id_permission_id_pk\" PRIMARY KEY(\"role_id\",\"permission_id\")\n);\n",
497
+ "\nCREATE TABLE \"rbac_roles\" (\n\t\"id\" integer PRIMARY KEY GENERATED BY DEFAULT AS IDENTITY (sequence name \"rbac_roles_id_seq\" INCREMENT BY 1 MINVALUE 1 MAXVALUE 2147483647 START WITH 1 CACHE 1),\n\t\"name\" text NOT NULL,\n\t\"display_name\" text NOT NULL,\n\t\"description\" text,\n\t\"is_system\" boolean DEFAULT false NOT NULL,\n\t\"is_active\" boolean DEFAULT true NOT NULL,\n\t\"accessed_at\" timestamp with time zone DEFAULT now() NOT NULL,\n\t\"created_at\" timestamp with time zone DEFAULT now() NOT NULL,\n\t\"updated_at\" timestamp with time zone DEFAULT now() NOT NULL,\n\tCONSTRAINT \"rbac_roles_name_unique\" UNIQUE(\"name\")\n);\n",
498
+ "\nCREATE TABLE \"rbac_user_roles\" (\n\t\"user_id\" text NOT NULL,\n\t\"role_id\" integer NOT NULL,\n\t\"created_at\" timestamp with time zone DEFAULT now() NOT NULL,\n\t\"expires_at\" timestamp with time zone,\n\tCONSTRAINT \"rbac_user_roles_user_id_role_id_pk\" PRIMARY KEY(\"user_id\",\"role_id\")\n);\n",
499
+ "\nALTER TABLE \"rbac_role_permissions\" ADD CONSTRAINT \"rbac_role_permissions_role_id_rbac_roles_id_fk\" FOREIGN KEY (\"role_id\") REFERENCES \"public\".\"rbac_roles\"(\"id\") ON DELETE cascade ON UPDATE no action;",
500
+ "\nALTER TABLE \"rbac_role_permissions\" ADD CONSTRAINT \"rbac_role_permissions_permission_id_rbac_permissions_id_fk\" FOREIGN KEY (\"permission_id\") REFERENCES \"public\".\"rbac_permissions\"(\"id\") ON DELETE cascade ON UPDATE no action;",
501
+ "\nALTER TABLE \"rbac_user_roles\" ADD CONSTRAINT \"rbac_user_roles_user_id_users_id_fk\" FOREIGN KEY (\"user_id\") REFERENCES \"public\".\"users\"(\"id\") ON DELETE cascade ON UPDATE no action;",
502
+ "\nALTER TABLE \"rbac_user_roles\" ADD CONSTRAINT \"rbac_user_roles_role_id_rbac_roles_id_fk\" FOREIGN KEY (\"role_id\") REFERENCES \"public\".\"rbac_roles\"(\"id\") ON DELETE cascade ON UPDATE no action;",
503
+ "\nCREATE INDEX \"rbac_role_permissions_role_id_idx\" ON \"rbac_role_permissions\" USING btree (\"role_id\");",
504
+ "\nCREATE INDEX \"rbac_role_permissions_permission_id_idx\" ON \"rbac_role_permissions\" USING btree (\"permission_id\");",
505
+ "\nCREATE INDEX \"rbac_user_roles_user_id_idx\" ON \"rbac_user_roles\" USING btree (\"user_id\");",
506
+ "\nCREATE INDEX \"rbac_user_roles_role_id_idx\" ON \"rbac_user_roles\" USING btree (\"role_id\");"
507
+ ],
508
+ "bps": true,
509
+ "folderMillis": 1749301573666,
510
+ "hash": "a7ccf007fd185ff922823148d1eae6fafe652fc98d2fd2793f84a84f29e93cd1"
511
+ },
512
+ {
513
+ "sql": ["ALTER TABLE \"ai_providers\" ADD COLUMN \"config\" jsonb;"],
514
+ "bps": true,
515
+ "folderMillis": 1749309388370,
516
+ "hash": "39cea379f08ee4cb944875c0b67f7791387b508c2d47958bb4cd501ed1ef33eb"
492
517
  }
493
518
  ]
@@ -0,0 +1 @@
1
+ ALTER TABLE "ai_providers" ADD COLUMN "config" jsonb;