@lobehub/chat 1.115.0 → 1.116.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (115) hide show
  1. package/.cursor/rules/add-provider-doc.mdc +183 -0
  2. package/.env.example +8 -0
  3. package/.github/workflows/claude.yml +1 -1
  4. package/.github/workflows/release.yml +3 -3
  5. package/.github/workflows/test.yml +3 -7
  6. package/CHANGELOG.md +42 -0
  7. package/CLAUDE.md +6 -6
  8. package/Dockerfile +5 -1
  9. package/Dockerfile.database +5 -1
  10. package/Dockerfile.pglite +5 -1
  11. package/changelog/v1.json +14 -0
  12. package/docs/development/basic/setup-development.mdx +10 -13
  13. package/docs/development/basic/setup-development.zh-CN.mdx +9 -12
  14. package/docs/development/database-schema.dbml +44 -0
  15. package/docs/self-hosting/environment-variables/model-provider.mdx +27 -2
  16. package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +27 -2
  17. package/docs/usage/providers/bfl.mdx +68 -0
  18. package/docs/usage/providers/bfl.zh-CN.mdx +67 -0
  19. package/locales/ar/components.json +11 -0
  20. package/locales/ar/error.json +11 -0
  21. package/locales/ar/models.json +64 -4
  22. package/locales/ar/providers.json +3 -0
  23. package/locales/bg-BG/components.json +11 -0
  24. package/locales/bg-BG/error.json +11 -0
  25. package/locales/bg-BG/models.json +64 -4
  26. package/locales/bg-BG/providers.json +3 -0
  27. package/locales/de-DE/components.json +11 -0
  28. package/locales/de-DE/error.json +11 -12
  29. package/locales/de-DE/models.json +64 -4
  30. package/locales/de-DE/providers.json +3 -0
  31. package/locales/en-US/components.json +6 -0
  32. package/locales/en-US/error.json +11 -12
  33. package/locales/en-US/models.json +64 -4
  34. package/locales/en-US/providers.json +3 -0
  35. package/locales/es-ES/components.json +11 -0
  36. package/locales/es-ES/error.json +11 -0
  37. package/locales/es-ES/models.json +64 -6
  38. package/locales/es-ES/providers.json +3 -0
  39. package/locales/fa-IR/components.json +11 -0
  40. package/locales/fa-IR/error.json +11 -0
  41. package/locales/fa-IR/models.json +64 -4
  42. package/locales/fa-IR/providers.json +3 -0
  43. package/locales/fr-FR/components.json +11 -0
  44. package/locales/fr-FR/error.json +11 -12
  45. package/locales/fr-FR/models.json +64 -4
  46. package/locales/fr-FR/providers.json +3 -0
  47. package/locales/it-IT/components.json +11 -0
  48. package/locales/it-IT/error.json +11 -0
  49. package/locales/it-IT/models.json +64 -4
  50. package/locales/it-IT/providers.json +3 -0
  51. package/locales/ja-JP/components.json +11 -0
  52. package/locales/ja-JP/error.json +11 -12
  53. package/locales/ja-JP/models.json +64 -4
  54. package/locales/ja-JP/providers.json +3 -0
  55. package/locales/ko-KR/components.json +11 -0
  56. package/locales/ko-KR/error.json +11 -12
  57. package/locales/ko-KR/models.json +64 -6
  58. package/locales/ko-KR/providers.json +3 -0
  59. package/locales/nl-NL/components.json +11 -0
  60. package/locales/nl-NL/error.json +11 -0
  61. package/locales/nl-NL/models.json +62 -4
  62. package/locales/nl-NL/providers.json +3 -0
  63. package/locales/pl-PL/components.json +11 -0
  64. package/locales/pl-PL/error.json +11 -0
  65. package/locales/pl-PL/models.json +64 -4
  66. package/locales/pl-PL/providers.json +3 -0
  67. package/locales/pt-BR/components.json +11 -0
  68. package/locales/pt-BR/error.json +11 -0
  69. package/locales/pt-BR/models.json +64 -4
  70. package/locales/pt-BR/providers.json +3 -0
  71. package/locales/ru-RU/components.json +11 -0
  72. package/locales/ru-RU/error.json +11 -0
  73. package/locales/ru-RU/models.json +64 -4
  74. package/locales/ru-RU/providers.json +3 -0
  75. package/locales/tr-TR/components.json +11 -0
  76. package/locales/tr-TR/error.json +11 -0
  77. package/locales/tr-TR/models.json +64 -4
  78. package/locales/tr-TR/providers.json +3 -0
  79. package/locales/vi-VN/components.json +11 -0
  80. package/locales/vi-VN/error.json +11 -0
  81. package/locales/vi-VN/models.json +64 -4
  82. package/locales/vi-VN/providers.json +3 -0
  83. package/locales/zh-CN/components.json +6 -0
  84. package/locales/zh-CN/error.json +11 -0
  85. package/locales/zh-CN/models.json +64 -4
  86. package/locales/zh-CN/providers.json +3 -0
  87. package/locales/zh-TW/components.json +11 -0
  88. package/locales/zh-TW/error.json +11 -12
  89. package/locales/zh-TW/models.json +64 -6
  90. package/locales/zh-TW/providers.json +3 -0
  91. package/package.json +1 -1
  92. package/packages/database/migrations/0030_add_group_chat.sql +36 -0
  93. package/packages/database/migrations/meta/0030_snapshot.json +6417 -0
  94. package/packages/database/migrations/meta/_journal.json +7 -0
  95. package/packages/database/src/core/migrations.json +19 -0
  96. package/packages/database/src/models/__tests__/topic.test.ts +3 -1
  97. package/packages/database/src/repositories/tableViewer/index.test.ts +1 -1
  98. package/packages/database/src/schemas/chatGroup.ts +98 -0
  99. package/packages/database/src/schemas/index.ts +1 -0
  100. package/packages/database/src/schemas/message.ts +4 -1
  101. package/packages/database/src/schemas/relations.ts +26 -0
  102. package/packages/database/src/schemas/topic.ts +2 -0
  103. package/packages/database/src/types/chatGroup.ts +9 -0
  104. package/packages/database/src/utils/idGenerator.ts +1 -0
  105. package/packages/model-runtime/src/google/index.ts +3 -0
  106. package/packages/model-runtime/src/qwen/createImage.test.ts +0 -19
  107. package/packages/model-runtime/src/qwen/createImage.ts +1 -27
  108. package/packages/model-runtime/src/utils/modelParse.ts +17 -8
  109. package/packages/model-runtime/src/utils/streams/google-ai.ts +26 -14
  110. package/packages/types/src/aiModel.ts +2 -1
  111. package/src/config/aiModels/google.ts +22 -1
  112. package/src/config/aiModels/qwen.ts +2 -2
  113. package/src/config/aiModels/vertexai.ts +22 -0
  114. package/src/features/FileViewer/Renderer/PDF/index.tsx +2 -2
  115. package/.cursor/rules/debug.mdc +0 -193
@@ -332,12 +332,21 @@
332
332
  "Qwen/Qwen3-30B-A3B-Instruct-2507": {
333
333
  "description": "Qwen3-30B-A3B-Instruct-2507 是 Qwen3-30B-A3B 非思考模式的更新版本。這是一個擁有 305 億總參數和 33 億激活參數的混合專家(MoE)模型。該模型在多個方面進行了關鍵增強,包括顯著提升了指令遵循、邏輯推理、文本理解、數學、科學、編碼和工具使用等通用能力。同時,它在多語言的長尾知識覆蓋範圍上取得了實質性進展,並能更好地與用戶在主觀和開放式任務中的偏好對齊,從而能夠生成更有幫助的回覆和更高品質的文本。此外,該模型的長文本理解能力也增強到了 256K。此模型僅支援非思考模式,其輸出中不會生成 `<think></think>` 標籤。"
334
334
  },
335
+ "Qwen/Qwen3-30B-A3B-Thinking-2507": {
336
+ "description": "Qwen3-30B-A3B-Thinking-2507 是由阿里巴巴通義千問團隊發布的 Qwen3 系列最新的思考型模型。作為一個擁有 305 億總參數與 33 億激活參數的混合專家(MoE)模型,它專注於提升處理複雜任務的能力。該模型在邏輯推理、數學、科學、程式設計以及需仰賴人類專業知識的學術基準測試上,展現出顯著的性能提升。同時,它在指令遵循、工具使用、文本生成及與人類偏好對齊等通用能力方面也有顯著增強。模型原生支援 256K 的長上下文理解能力,並可擴展至 100 萬 tokens。此版本專為「思考模式」設計,旨在透過詳盡的逐步推理來解決高度複雜的任務,其 Agent 智能代理能力亦表現出色。"
337
+ },
335
338
  "Qwen/Qwen3-32B": {
336
339
  "description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
337
340
  },
338
341
  "Qwen/Qwen3-8B": {
339
342
  "description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
340
343
  },
344
+ "Qwen/Qwen3-Coder-30B-A3B-Instruct": {
345
+ "description": "Qwen3-Coder-30B-A3B-Instruct 是由阿里巴巴通義千問團隊開發的 Qwen3 系列中的程式碼模型。作為一個經過精簡優化的模型,它在保持高效能與高效率的同時,專注於提升程式碼處理能力。該模型在代理式程式設計(Agentic Coding)、自動化瀏覽器操作與工具呼叫等複雜任務上,在開源模型中展現出顯著的效能優勢。它原生支援 256K tokens 的長上下文,並可擴充至 1M tokens,從而能更好地進行程式碼庫層級的理解與處理。此外,該模型為 Qwen Code、CLINE 等平台提供了強大的代理編碼支援,並設計了專門的函式呼叫格式。"
346
+ },
347
+ "Qwen/Qwen3-Coder-480B-A35B-Instruct": {
348
+ "description": "Qwen3-Coder-480B-A35B-Instruct 是由阿里巴巴發佈的、迄今為止最具代理(Agentic)能力的程式碼模型。它是一個擁有 4,800 億總參數和 350 億激活參數的混合專家(MoE)模型,在效率和效能之間取得了平衡。該模型原生支援 256K(約 26 萬)tokens 的上下文長度,並可透過 YaRN 等外推方法擴展至 100 萬 tokens,使其能夠處理大規模程式碼庫與複雜的程式設計任務。Qwen3-Coder 專為代理式編碼工作流程設計,不僅能產生程式碼,還能與開發工具與環境自主互動,以解決複雜的程式設計問題。在多個編碼與代理任務的基準測試中,該模型在開源模型中達到頂尖水準,其表現可與 Claude Sonnet 4 等領先模型相媲美。"
349
+ },
341
350
  "Qwen2-72B-Instruct": {
342
351
  "description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,對比當前最優的開源模型,Qwen2-72B 在自然語言理解、知識、代碼、數學及多語言等多項能力上均顯著超越當前領先的模型。"
343
352
  },
@@ -1103,12 +1112,27 @@
1103
1112
  "flux-dev": {
1104
1113
  "description": "FLUX.1 [dev] 是一款面向非商業應用的開源權重、精煉模型。FLUX.1 [dev] 在保持了與 FLUX 專業版相近的圖像品質和指令遵循能力的同時,具備更高的運行效率。相較於同尺寸的標準模型,它在資源利用上更為高效。"
1105
1114
  },
1115
+ "flux-kontext-max": {
1116
+ "description": "最先進的上下文影像生成與編輯——結合文字與影像以獲得精準、連貫的結果。"
1117
+ },
1118
+ "flux-kontext-pro": {
1119
+ "description": "最先進的上下文圖像生成與編輯——結合文字與圖像以獲得精準、連貫的結果。"
1120
+ },
1106
1121
  "flux-kontext/dev": {
1107
1122
  "description": "專注於圖像編輯任務的FLUX.1模型,支援文字和圖像輸入。"
1108
1123
  },
1109
1124
  "flux-merged": {
1110
1125
  "description": "FLUX.1-merged 模型結合了 \"DEV\" 在開發階段探索的深度特性和 \"Schnell\" 所代表的高速執行優勢。透過這一舉措,FLUX.1-merged 不僅提升了模型的性能界限,還拓寬了其應用範圍。"
1111
1126
  },
1127
+ "flux-pro": {
1128
+ "description": "頂級商用 AI 圖像生成模型——無與倫比的圖像品質與多樣化輸出表現。"
1129
+ },
1130
+ "flux-pro-1.1": {
1131
+ "description": "升級版專業級AI圖像生成模型——提供卓越的圖像品質與對提示詞的精準遵從能力。"
1132
+ },
1133
+ "flux-pro-1.1-ultra": {
1134
+ "description": "超高解析度 AI 圖像生成——支援 4 兆像素輸出,10 秒內生成超清圖像。"
1135
+ },
1112
1136
  "flux-pro/kontext": {
1113
1137
  "description": "FLUX.1 Kontext [pro] 能夠處理文字和參考圖像作為輸入,無縫實現目標性的局部編輯和複雜的整體場景變換。"
1114
1138
  },
@@ -1193,6 +1217,9 @@
1193
1217
  "gemini-2.5-flash": {
1194
1218
  "description": "Gemini 2.5 Flash 是 Google 性價比最高的模型,提供全面的功能。"
1195
1219
  },
1220
+ "gemini-2.5-flash-image-preview": {
1221
+ "description": "Gemini 2.5 Flash Image Preview 是 Google 最新、速度最快且效率最高的原生多模態模型,允許您透過對話生成與編輯圖像。"
1222
+ },
1196
1223
  "gemini-2.5-flash-lite": {
1197
1224
  "description": "Gemini 2.5 Flash-Lite 是 Google 最小、性價比最高的模型,專為大規模使用而設計。"
1198
1225
  },
@@ -1295,6 +1322,9 @@
1295
1322
  "glm-4.5-x": {
1296
1323
  "description": "GLM-4.5 的極速版,在性能強勁的同時,生成速度可達 100 tokens/秒。"
1297
1324
  },
1325
+ "glm-4.5v": {
1326
+ "description": "智譜新一代基於 MOE 架構的視覺推理模型,總參數量為106B、激活參數量為12B,在各類基準測試中達到同級別開源多模態模型的全球 SOTA,涵蓋圖像、視訊、文件理解及 GUI 任務等常見任務。"
1327
+ },
1298
1328
  "glm-4v": {
1299
1329
  "description": "GLM-4V提供強大的圖像理解與推理能力,支持多種視覺任務。"
1300
1330
  },
@@ -1433,9 +1463,7 @@
1433
1463
  "gpt-4.1-nano": {
1434
1464
  "description": "GPT-4.1 mini 提供了智能、速度和成本之間的平衡,使其成為許多用例中具吸引力的模型。"
1435
1465
  },
1436
- "gpt-4.5-preview": {
1437
- "description": "GPT-4.5 的研究預覽版,它是我們迄今為止最大、最強大的 GPT 模型。它擁有廣泛的世界知識,並能更好地理解用戶意圖,使其在創造性任務和自主規劃方面表現出色。GPT-4.5 可接受文本和圖像輸入,並生成文本輸出(包括結構化輸出)。支持關鍵的開發者功能,如函數調用、批量 API 和串流輸出。在需要創造性、開放式思考和對話的任務(如寫作、學習或探索新想法)中,GPT-4.5 表現尤為出色。知識截止日期為 2023 年 10 月。"
1438
- },
1466
+ "gpt-4.5-preview": "GPT-4.5-preview 是最新的通用模型,具備深厚的世界知識並能更好地理解使用者意圖,擅長創意任務與代理規劃。此模型的知識截至 2023 年 10 月。",
1439
1467
  "gpt-4o": {
1440
1468
  "description": "ChatGPT-4o是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。"
1441
1469
  },
@@ -1637,9 +1665,18 @@
1637
1665
  "image-01-live": {
1638
1666
  "description": "圖像生成模型,畫面表現細膩,支持文生圖並進行畫風設定。"
1639
1667
  },
1668
+ "imagen-4.0-fast-generate-001": {
1669
+ "description": "Imagen 第4代文字生成影像模型系列(快速版)"
1670
+ },
1671
+ "imagen-4.0-generate-001": {
1672
+ "description": "Imagen 第四代文字生成影像模型系列"
1673
+ },
1640
1674
  "imagen-4.0-generate-preview-06-06": {
1641
1675
  "description": "Imagen 第四代文字轉圖像模型系列"
1642
1676
  },
1677
+ "imagen-4.0-ultra-generate-001": {
1678
+ "description": "Imagen 第四代文字生成影像模型系列 Ultra 版"
1679
+ },
1643
1680
  "imagen-4.0-ultra-generate-preview-06-06": {
1644
1681
  "description": "Imagen 第四代文字轉圖像模型系列 超級版"
1645
1682
  },
@@ -1679,6 +1716,9 @@
1679
1716
  "kimi-k2-0711-preview": {
1680
1717
  "description": "kimi-k2 是一款具備超強程式碼和 Agent 能力的 MoE 架構基礎模型,總參數 1T,激活參數 32B。在通用知識推理、程式設計、數學、Agent 等主要類別的基準性能測試中,K2 模型的性能超越其他主流開源模型。"
1681
1718
  },
1719
+ "kimi-k2-turbo-preview": {
1720
+ "description": "kimi-k2 是一款具備超強程式碼與 Agent 能力的 MoE 架構的基礎模型,總參數 1T,激活參數 32B。在通用知識推理、程式設計、數學與 Agent 等主要類別的基準效能測試中,K2 模型的表現超越其他主流開源模型。"
1721
+ },
1682
1722
  "kimi-latest": {
1683
1723
  "description": "Kimi 智能助手產品使用最新的 Kimi 大模型,可能包含尚未穩定的特性。支持圖片理解,同時會自動根據請求的上下文長度選擇 8k/32k/128k 模型作為計費模型"
1684
1724
  },
@@ -1763,6 +1803,9 @@
1763
1803
  "llava:34b": {
1764
1804
  "description": "LLaVA 是結合視覺編碼器和 Vicuna 的多模態模型,用於強大的視覺和語言理解。"
1765
1805
  },
1806
+ "magistral-medium-latest": {
1807
+ "description": "Magistral Medium 1.1 為 Mistral AI 於 2025 年 7 月發佈的尖端推理模型。"
1808
+ },
1766
1809
  "mathstral": {
1767
1810
  "description": "MathΣtral 專為科學研究和數學推理設計,提供有效的計算能力和結果解釋。"
1768
1811
  },
@@ -2094,7 +2137,7 @@
2094
2137
  "description": "o1-mini是一款針對程式設計、數學和科學應用場景而設計的快速、經濟高效的推理模型。該模型具有128K上下文和2023年10月的知識截止日期。"
2095
2138
  },
2096
2139
  "o1-preview": {
2097
- "description": "o1是OpenAI新的推理模型,適用於需要廣泛通用知識的複雜任務。該模型具有128K上下文和2023年10月的知識截止日期。"
2140
+ "description": "專注於高階推理與解決複雜問題(包括數學與科學任務)。非常適合需要深入上下文理解並能自主執行工作流程的應用。"
2098
2141
  },
2099
2142
  "o1-pro": {
2100
2143
  "description": "o1 系列模型經過強化學習訓練,能夠在回答前進行思考,並執行複雜的推理任務。o1-pro 模型使用了更多計算資源,以進行更深入的思考,從而持續提供更優質的回答。"
@@ -2213,8 +2256,14 @@
2213
2256
  "qwen-coder-turbo-latest": {
2214
2257
  "description": "通義千問代碼模型。"
2215
2258
  },
2259
+ "qwen-flash": {
2260
+ "description": "通義千問系列為速度最快、成本極低的模型,適合用於簡單任務。"
2261
+ },
2216
2262
  "qwen-image": {
2217
- "description": "Qwen團隊帶來的強大生圖模型,具有令人印象深刻的中文文字生成能力和多樣圖片視覺風格。"
2263
+ "description": "Qwen-Image 是一款通用圖像生成模型,支援多種藝術風格,尤其擅長複雜文字渲染,特別是中英文文字的呈現。模型支援多行版式、段落級文字生成以及細緻的細節刻畫,可實現複雜的圖文混合版面設計。"
2264
+ },
2265
+ "qwen-image-edit": {
2266
+ "description": "Qwen 團隊發布的專業圖像編輯模型,支援語意編輯與外觀編輯,能夠精確編輯中文與英文字元,實現風格轉換、物件旋轉等高品質圖像編輯。"
2218
2267
  },
2219
2268
  "qwen-long": {
2220
2269
  "description": "通義千問超大規模語言模型,支持長文本上下文,以及基於長文檔、多文檔等多個場景的對話功能。"
@@ -2241,7 +2290,7 @@
2241
2290
  "description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入。"
2242
2291
  },
2243
2292
  "qwen-turbo": {
2244
- "description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入。"
2293
+ "description": "通義千問 Turbo 將不再更新,建議以通義千問 Flash 取代。通義千問為超大規模語言模型,支援中文、英文等多種語言輸入。"
2245
2294
  },
2246
2295
  "qwen-vl-chat-v1": {
2247
2296
  "description": "通義千問VL支持靈活的交互方式,包括多圖、多輪問答、創作等能力的模型。"
@@ -2558,9 +2607,15 @@
2558
2607
  "step-2x-large": {
2559
2608
  "description": "階躍星辰新一代生圖模型,該模型專注於圖像生成任務,能夠根據用戶提供的文本描述,生成高品質的圖像。新模型生成圖片質感更真實,中英文文字生成能力更強。"
2560
2609
  },
2610
+ "step-3": {
2611
+ "description": "該模型具備強大的視覺感知與複雜推理能力,能準確完成跨領域的複雜知識理解、數學與視覺資訊的交叉分析,以及日常生活中各類視覺分析任務。"
2612
+ },
2561
2613
  "step-r1-v-mini": {
2562
2614
  "description": "該模型是擁有強大的圖像理解能力的推理大模型,能夠處理圖像和文字信息,經過深度思考後輸出文本生成文本內容。該模型在視覺推理領域表現突出,同時擁有第一梯隊的數學、程式碼、文本推理能力。上下文長度為100k。"
2563
2615
  },
2616
+ "stepfun-ai/step3": {
2617
+ "description": "Step3 是由階躍星辰(StepFun)發布的前沿多模態推理模型,它基於擁有 321B 總參數和 38B 激活參數的專家混合(MoE)架構構建。該模型採用端到端設計,旨在將解碼成本降到最低,同時在視覺-語言推理方面提供頂級效能。透過多矩陣分解注意力(MFA)與注意力與 FFN 解耦(AFD)的協同設計,Step3 在旗艦級與較低階的加速器上仍能維持卓越效率。在預訓練階段,Step3 處理了超過 20T 的文字 token 與 4T 的圖文混合 token,涵蓋十多種語言。該模型在數學、程式碼及多模態等多項基準測試中,均達到開源模型的領先水準。"
2618
+ },
2564
2619
  "taichu_llm": {
2565
2620
  "description": "紫東太初語言大模型具備超強語言理解能力以及文本創作、知識問答、代碼編程、數學計算、邏輯推理、情感分析、文本摘要等能力。創新性地將大數據預訓練與多源豐富知識相結合,通過持續打磨算法技術,並不斷吸收海量文本數據中詞彙、結構、語法、語義等方面的新知識,實現模型效果不斷進化。為用戶提供更加便捷的信息和服務以及更為智能化的體驗。"
2566
2621
  },
@@ -2707,5 +2762,8 @@
2707
2762
  },
2708
2763
  "zai-org/GLM-4.5-Air": {
2709
2764
  "description": "GLM-4.5-Air 是一款專為智能體應用打造的基礎模型,使用了混合專家(Mixture-of-Experts)架構。在工具調用、網頁瀏覽、軟體工程、前端程式設計領域進行了深度優化,支持無縫接入 Claude Code、Roo Code 等程式碼智能體中使用。GLM-4.5 採用混合推理模式,可以適應複雜推理和日常使用等多種應用場景。"
2765
+ },
2766
+ "zai-org/GLM-4.5V": {
2767
+ "description": "GLM-4.5V 是由智譜 AI(Zhipu AI)發布的最新一代視覺語言模型(VLM)。該模型基於擁有 106B 總參數和 12B 激活參數的旗艦文本模型 GLM-4.5-Air 構建,採用了混合專家(MoE)架構,旨在以更低的推理成本實現卓越性能。GLM-4.5V 在技術上延續了 GLM-4.1V-Thinking 的路線,並引入了三維旋轉位置編碼(3D-RoPE)等創新,顯著增強了對三維空間關係的感知與推理能力。透過在預訓練、監督微調和強化學習階段的優化,該模型具備處理影像、影片、長文檔等多種視覺內容的能力,在 41 個公開的多模態基準測試中達到同級別開源模型的頂尖水準。此外,模型還新增了「思考模式」開關,允許使用者在快速回應與深度推理之間靈活選擇,以平衡效率與效果。"
2710
2768
  }
2711
2769
  }
@@ -26,6 +26,9 @@
26
26
  "bedrock": {
27
27
  "description": "Bedrock 是亞馬遜 AWS 提供的一項服務,專注於為企業提供先進的 AI 語言模型和視覺模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵蓋從輕量級到高性能的多種選擇,支持文本生成、對話、圖像處理等多種任務,適用於不同規模和需求的企業應用。"
28
28
  },
29
+ "bfl": {
30
+ "description": "領先的前沿人工智慧研究實驗室,打造明日的視覺基礎設施。"
31
+ },
29
32
  "cloudflare": {
30
33
  "description": "在 Cloudflare 的全球網絡上運行由無伺服器 GPU 驅動的機器學習模型。"
31
34
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.115.0",
3
+ "version": "1.116.1",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -0,0 +1,36 @@
1
+ CREATE TABLE IF NOT EXISTS "chat_groups" (
2
+ "id" text PRIMARY KEY NOT NULL,
3
+ "title" text,
4
+ "description" text,
5
+ "config" jsonb,
6
+ "client_id" text,
7
+ "user_id" text NOT NULL,
8
+ "pinned" boolean DEFAULT false,
9
+ "accessed_at" timestamp with time zone DEFAULT now() NOT NULL,
10
+ "created_at" timestamp with time zone DEFAULT now() NOT NULL,
11
+ "updated_at" timestamp with time zone DEFAULT now() NOT NULL
12
+ );
13
+ --> statement-breakpoint
14
+ CREATE TABLE IF NOT EXISTS "chat_groups_agents" (
15
+ "chat_group_id" text NOT NULL,
16
+ "agent_id" text NOT NULL,
17
+ "user_id" text NOT NULL,
18
+ "enabled" boolean DEFAULT true,
19
+ "order" integer DEFAULT 0,
20
+ "role" text DEFAULT 'participant',
21
+ "accessed_at" timestamp with time zone DEFAULT now() NOT NULL,
22
+ "created_at" timestamp with time zone DEFAULT now() NOT NULL,
23
+ "updated_at" timestamp with time zone DEFAULT now() NOT NULL,
24
+ CONSTRAINT "chat_groups_agents_chat_group_id_agent_id_pk" PRIMARY KEY("chat_group_id","agent_id")
25
+ );
26
+ --> statement-breakpoint
27
+ ALTER TABLE "messages" ADD COLUMN IF NOT EXISTS "group_id" text;--> statement-breakpoint
28
+ ALTER TABLE "messages" ADD COLUMN IF NOT EXISTS "target_id" text;--> statement-breakpoint
29
+ ALTER TABLE "topics" ADD COLUMN IF NOT EXISTS "group_id" text;--> statement-breakpoint
30
+ ALTER TABLE "chat_groups" ADD CONSTRAINT "chat_groups_user_id_users_id_fk" FOREIGN KEY ("user_id") REFERENCES "public"."users"("id") ON DELETE cascade ON UPDATE no action;--> statement-breakpoint
31
+ ALTER TABLE "chat_groups_agents" ADD CONSTRAINT "chat_groups_agents_chat_group_id_chat_groups_id_fk" FOREIGN KEY ("chat_group_id") REFERENCES "public"."chat_groups"("id") ON DELETE cascade ON UPDATE no action;--> statement-breakpoint
32
+ ALTER TABLE "chat_groups_agents" ADD CONSTRAINT "chat_groups_agents_agent_id_agents_id_fk" FOREIGN KEY ("agent_id") REFERENCES "public"."agents"("id") ON DELETE cascade ON UPDATE no action;--> statement-breakpoint
33
+ ALTER TABLE "chat_groups_agents" ADD CONSTRAINT "chat_groups_agents_user_id_users_id_fk" FOREIGN KEY ("user_id") REFERENCES "public"."users"("id") ON DELETE cascade ON UPDATE no action;--> statement-breakpoint
34
+ CREATE UNIQUE INDEX "chat_groups_client_id_user_id_unique" ON "chat_groups" USING btree ("client_id","user_id");--> statement-breakpoint
35
+ ALTER TABLE "messages" ADD CONSTRAINT "messages_group_id_chat_groups_id_fk" FOREIGN KEY ("group_id") REFERENCES "public"."chat_groups"("id") ON DELETE set null ON UPDATE no action;--> statement-breakpoint
36
+ ALTER TABLE "topics" ADD CONSTRAINT "topics_group_id_chat_groups_id_fk" FOREIGN KEY ("group_id") REFERENCES "public"."chat_groups"("id") ON DELETE cascade ON UPDATE no action;