@lobehub/chat 1.84.23 → 1.84.24

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (63) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/hotkey.json +4 -0
  4. package/locales/ar/models.json +55 -13
  5. package/locales/ar/providers.json +0 -3
  6. package/locales/bg-BG/hotkey.json +4 -0
  7. package/locales/bg-BG/models.json +55 -13
  8. package/locales/bg-BG/providers.json +0 -3
  9. package/locales/de-DE/hotkey.json +4 -0
  10. package/locales/de-DE/models.json +55 -13
  11. package/locales/de-DE/providers.json +0 -3
  12. package/locales/en-US/hotkey.json +4 -0
  13. package/locales/en-US/models.json +55 -13
  14. package/locales/en-US/providers.json +0 -3
  15. package/locales/es-ES/hotkey.json +4 -0
  16. package/locales/es-ES/models.json +55 -13
  17. package/locales/es-ES/providers.json +0 -3
  18. package/locales/fa-IR/hotkey.json +4 -0
  19. package/locales/fa-IR/models.json +55 -13
  20. package/locales/fa-IR/providers.json +0 -3
  21. package/locales/fr-FR/hotkey.json +4 -0
  22. package/locales/fr-FR/models.json +55 -13
  23. package/locales/fr-FR/providers.json +0 -3
  24. package/locales/it-IT/hotkey.json +4 -0
  25. package/locales/it-IT/models.json +55 -13
  26. package/locales/it-IT/providers.json +0 -3
  27. package/locales/ja-JP/hotkey.json +4 -0
  28. package/locales/ja-JP/models.json +55 -13
  29. package/locales/ja-JP/providers.json +0 -3
  30. package/locales/ko-KR/hotkey.json +4 -0
  31. package/locales/ko-KR/models.json +55 -13
  32. package/locales/ko-KR/providers.json +0 -3
  33. package/locales/nl-NL/hotkey.json +4 -0
  34. package/locales/nl-NL/models.json +55 -13
  35. package/locales/nl-NL/providers.json +0 -3
  36. package/locales/pl-PL/hotkey.json +4 -0
  37. package/locales/pl-PL/models.json +55 -13
  38. package/locales/pl-PL/providers.json +0 -3
  39. package/locales/pt-BR/hotkey.json +4 -0
  40. package/locales/pt-BR/models.json +55 -13
  41. package/locales/pt-BR/providers.json +0 -3
  42. package/locales/ru-RU/hotkey.json +4 -0
  43. package/locales/ru-RU/models.json +55 -13
  44. package/locales/ru-RU/providers.json +0 -3
  45. package/locales/tr-TR/hotkey.json +4 -0
  46. package/locales/tr-TR/models.json +55 -13
  47. package/locales/tr-TR/providers.json +0 -3
  48. package/locales/vi-VN/hotkey.json +4 -0
  49. package/locales/vi-VN/models.json +55 -13
  50. package/locales/vi-VN/providers.json +0 -3
  51. package/locales/zh-CN/hotkey.json +4 -0
  52. package/locales/zh-CN/models.json +55 -13
  53. package/locales/zh-CN/providers.json +0 -3
  54. package/locales/zh-TW/hotkey.json +4 -0
  55. package/locales/zh-TW/models.json +55 -13
  56. package/locales/zh-TW/providers.json +0 -3
  57. package/package.json +1 -1
  58. package/src/const/hotkeys.ts +7 -0
  59. package/src/const/url.ts +1 -1
  60. package/src/features/User/UserPanel/useMenu.tsx +2 -1
  61. package/src/locales/default/hotkey.ts +4 -0
  62. package/src/services/__tests__/_url.test.ts +23 -0
  63. package/src/types/hotkey.ts +1 -0
@@ -71,6 +71,9 @@
71
71
  "DeepSeek-V3": {
72
72
  "description": "DeepSeek-V3 是一款由深度求索公司自研的MoE模型。DeepSeek-V3 多項評測成績超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他開源模型,並在性能上和世界頂尖的閉源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。"
73
73
  },
74
+ "Doubao-1.5-thinking-pro-m": {
75
+ "description": "Doubao-1.5 全新深度思考模型 (m 版本自帶原生多模態深度推理能力),在數學、程式設計、科學推理等專業領域及創意寫作等通用任務中表現突出,在 AIME 2024、Codeforces、GPQA 等多項權威基準上達到或接近業界第一梯隊水平。支持 128k 上下文窗口,16k 輸出。"
76
+ },
74
77
  "Doubao-1.5-vision-pro": {
75
78
  "description": "Doubao-1.5-vision-pro 全新升級的多模態大模型,支持任意解析度和極端長寬比圖像識別,增強視覺推理、文檔識別、細節信息理解和指令遵循能力。"
76
79
  },
@@ -293,6 +296,21 @@
293
296
  "Qwen/Qwen2.5-VL-72B-Instruct": {
294
297
  "description": "Qwen2.5-VL 是 Qwen2.5 系列中的視覺語言模型。該模型在多方面有顯著提升:具備更強的視覺理解能力,能夠識別常見物體、分析文本、圖表和版面配置;作為視覺代理能夠推理並動態指導工具使用;支援理解超過 1 小時的長影片並捕捉關鍵事件;能夠透過生成邊界框或點準確定位圖像中的物體;支援生成結構化輸出,尤其適用於發票、表格等掃描資料。"
295
298
  },
299
+ "Qwen/Qwen3-14B": {
300
+ "description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
301
+ },
302
+ "Qwen/Qwen3-235B-A22B": {
303
+ "description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
304
+ },
305
+ "Qwen/Qwen3-30B-A3B": {
306
+ "description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
307
+ },
308
+ "Qwen/Qwen3-32B": {
309
+ "description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
310
+ },
311
+ "Qwen/Qwen3-8B": {
312
+ "description": "Qwen3 是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent 和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
313
+ },
296
314
  "Qwen2-72B-Instruct": {
297
315
  "description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,對比當前最優的開源模型,Qwen2-72B 在自然語言理解、知識、代碼、數學及多語言等多項能力上均顯著超越當前領先的模型。"
298
316
  },
@@ -398,9 +416,6 @@
398
416
  "THUDM/glm-4-9b-chat": {
399
417
  "description": "GLM-4 9B 開放源碼版本,為會話應用提供優化後的對話體驗。"
400
418
  },
401
- "TeleAI/TeleChat2": {
402
- "description": "TeleChat2大模型是由中國電信從0到1自主研發的生成式語義大模型,支持百科問答、代碼生成、長文生成等功能,為用戶提供對話諮詢服務,能夠與用戶進行對話互動,回答問題,協助創作,高效便捷地幫助用戶獲取信息、知識和靈感。模型在幻覺問題、長文生成、邏輯理解等方面均有較出色表現。"
403
- },
404
419
  "Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
405
420
  "description": "Qwen2.5-72B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 72B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON)方面都有顯著提升"
406
421
  },
@@ -800,6 +815,12 @@
800
815
  "deepseek/deepseek-chat": {
801
816
  "description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力,還更好地對齊了人類偏好。此外,DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。"
802
817
  },
818
+ "deepseek/deepseek-chat-v3-0324": {
819
+ "description": "DeepSeek V3 是一個 685B 參數的專家混合模型,是 DeepSeek 團隊旗艦聊天模型系列的最新迭代。\n\n它繼承了 [DeepSeek V3](/deepseek/deepseek-chat-v3) 模型,並在各種任務上表現出色。"
820
+ },
821
+ "deepseek/deepseek-chat-v3-0324:free": {
822
+ "description": "DeepSeek V3 是一個 685B 參數的專家混合模型,是 DeepSeek 團隊旗艦聊天模型系列的最新迭代。\n\n它繼承了 [DeepSeek V3](/deepseek/deepseek-chat-v3) 模型,並在各種任務上表現出色。"
823
+ },
803
824
  "deepseek/deepseek-r1": {
804
825
  "description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
805
826
  },
@@ -851,9 +872,6 @@
851
872
  "doubao-1.5-thinking-pro": {
852
873
  "description": "Doubao-1.5全新深度思考模型,在數學、程式設計、科學推理等專業領域及創意寫作等通用任務中表現突出,在AIME 2024、Codeforces、GPQA等多項權威基準上達到或接近業界第一梯隊水平。支持128k上下文窗口,16k輸出。"
853
874
  },
854
- "doubao-1.5-thinking-pro-vision": {
855
- "description": "Doubao-1.5全新深度思考模型,在數學、程式設計、科學推理等專業領域及創意寫作等通用任務中表現突出,在AIME 2024、Codeforces、GPQA等多項權威基準上達到或接近業界第一梯隊水平。支持128k上下文窗口,16k輸出。"
856
- },
857
875
  "doubao-1.5-vision-lite": {
858
876
  "description": "Doubao-1.5-vision-lite 全新升級的多模態大模型,支持任意解析度和極端長寬比圖像識別,增強視覺推理、文檔識別、細節信息理解和指令遵循能力。支持 128k 上下文窗口,輸出長度支持最大 16k tokens。"
859
877
  },
@@ -995,9 +1013,6 @@
995
1013
  "gemini-2.0-flash-thinking-exp-01-21": {
996
1014
  "description": "Gemini 2.0 Flash Exp 是 Google 最新的實驗性多模態AI模型,擁有下一代特性,卓越的速度,原生工具調用以及多模態生成。"
997
1015
  },
998
- "gemini-2.0-pro-exp-02-05": {
999
- "description": "Gemini 2.0 Pro Experimental 是 Google 最新的實驗性多模態AI模型,與歷史版本相比有一定的質量提升,特別是對於世界知識、代碼和長上下文。"
1000
- },
1001
1016
  "gemini-2.5-flash-preview-04-17": {
1002
1017
  "description": "Gemini 2.5 Flash Preview 是 Google 性價比最高的模型,提供全面的功能。"
1003
1018
  },
@@ -1007,6 +1022,9 @@
1007
1022
  "gemini-2.5-pro-preview-03-25": {
1008
1023
  "description": "Gemini 2.5 Pro Preview 是 Google 最先進的思維模型,能夠對程式碼、數學和STEM領域的複雜問題進行推理,以及使用長上下文分析大型數據集、程式庫和文檔。"
1009
1024
  },
1025
+ "gemini-2.5-pro-preview-05-06": {
1026
+ "description": "Gemini 2.5 Pro Preview 是 Google 最先進的思維模型,能夠對程式碼、數學和 STEM 領域的複雜問題進行推理,以及使用長上下文分析大型數據集、程式庫和文檔。"
1027
+ },
1010
1028
  "gemma-7b-it": {
1011
1029
  "description": "Gemma 7B 適合中小規模任務處理,兼具成本效益。"
1012
1030
  },
@@ -1091,8 +1109,17 @@
1091
1109
  "google/gemini-2.0-flash-001": {
1092
1110
  "description": "Gemini 2.0 Flash 提供下一代功能和改進,包括卓越的速度、原生工具使用、多模態生成和1M令牌上下文窗口。"
1093
1111
  },
1094
- "google/gemini-2.0-pro-exp-02-05:free": {
1095
- "description": "Gemini 2.0 Pro Experimental 是 Google 最新的實驗性多模態AI模型,與歷史版本相比有一定的質量提升,特別是對於世界知識、代碼和長上下文。"
1112
+ "google/gemini-2.0-flash-exp:free": {
1113
+ "description": "Gemini 2.0 Flash Experimental 是 Google 最新的實驗性多模態 AI 模型,與歷史版本相比有一定的質量提升,特別是對於世界知識、程式碼和長上下文。"
1114
+ },
1115
+ "google/gemini-2.5-flash-preview": {
1116
+ "description": "Gemini 2.5 Flash 是 Google 最先進的主力模型,專為高級推理、編碼、數學和科學任務而設計。它包含內建的「思考」能力,使其能夠提供具有更高準確性和細緻上下文處理的回應。\n\n注意:此模型有兩個變體:思考和非思考。輸出定價根據思考能力是否啟用而有顯著差異。如果您選擇標準變體(不帶「:thinking」後綴),模型將明確避免生成思考令牌。\n\n要利用思考能力並接收思考令牌,您必須選擇「:thinking」變體,這將產生更高的思考輸出定價。\n\n此外,Gemini 2.5 Flash 可通過「推理最大令牌數」參數進行配置,如文檔中所述 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。"
1117
+ },
1118
+ "google/gemini-2.5-flash-preview:thinking": {
1119
+ "description": "Gemini 2.5 Flash 是 Google 最先進的主力模型,專為高級推理、編碼、數學和科學任務而設計。它包含內建的「思考」能力,使其能夠提供具有更高準確性和細緻上下文處理的回應。\n\n注意:此模型有兩個變體:思考和非思考。輸出定價根據思考能力是否啟用而有顯著差異。如果您選擇標準變體(不帶「:thinking」後綴),模型將明確避免生成思考令牌。\n\n要利用思考能力並接收思考令牌,您必須選擇「:thinking」變體,這將產生更高的思考輸出定價。\n\n此外,Gemini 2.5 Flash 可通過「推理最大令牌數」參數進行配置,如文檔中所述 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。"
1120
+ },
1121
+ "google/gemini-2.5-pro-preview-03-25": {
1122
+ "description": "Gemini 2.5 Pro 是 Google 最先進的 AI 模型,專為高級推理、編碼、數學和科學任務而設計。它採用「思考」能力,使其能夠以更高的準確性和細緻的上下文處理來推理回應。Gemini 2.5 Pro 在多個基準測試中取得了頂級性能,包括在 LMArena 排行榜上排名第一,反映了卓越的人類偏好對齊和複雜問題解決能力。"
1096
1123
  },
1097
1124
  "google/gemini-flash-1.5": {
1098
1125
  "description": "Gemini 1.5 Flash 提供了優化後的多模態處理能力,適用於多種複雜任務場景。"
@@ -1592,6 +1619,9 @@
1592
1619
  "mistral-large-latest": {
1593
1620
  "description": "Mistral Large 是旗艦大模型,擅長多語言任務、複雜推理和代碼生成,是高端應用的理想選擇。"
1594
1621
  },
1622
+ "mistral-medium-latest": {
1623
+ "description": "Mistral Medium 3 以 8 倍的成本提供最先進的性能,並從根本上簡化了企業部署。"
1624
+ },
1595
1625
  "mistral-nemo": {
1596
1626
  "description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。"
1597
1627
  },
@@ -1763,8 +1793,8 @@
1763
1793
  "qvq-72b-preview": {
1764
1794
  "description": "QVQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於提升視覺推理能力,尤其在數學推理領域。"
1765
1795
  },
1766
- "qvq-max": {
1767
- "description": "通義千問QVQ視覺推理模型,支持視覺輸入及思維鏈輸出,在數學、程式設計、視覺分析、創作以及通用任務上都表現了更強的能力。"
1796
+ "qvq-max-latest": {
1797
+ "description": "通義千問 QVQ 視覺推理模型,支持視覺輸入及思維鏈輸出,在數學、程式設計、視覺分析、創作以及通用任務上都表現了更強的能力。"
1768
1798
  },
1769
1799
  "qwen-coder-plus-latest": {
1770
1800
  "description": "通義千問代碼模型。"
@@ -2075,12 +2105,24 @@
2075
2105
  "text-embedding-3-small": {
2076
2106
  "description": "高效且經濟的新一代 Embedding 模型,適用於知識檢索、RAG 應用等場景"
2077
2107
  },
2108
+ "thudm/glm-4-32b": {
2109
+ "description": "GLM-4-32B-0414 是一個 32B 雙語(中英)開放權重語言模型,針對程式碼生成、函數調用和代理式任務進行了優化。它在 15T 高質量和重推理數據上進行了預訓練,並使用人類偏好對齊、拒絕採樣和強化學習進一步完善。該模型在複雜推理、工件生成和結構化輸出任務方面表現出色,在多個基準測試中達到了與 GPT-4o 和 DeepSeek-V3-0324 相當的性能。"
2110
+ },
2111
+ "thudm/glm-4-32b:free": {
2112
+ "description": "GLM-4-32B-0414 是一個 32B 雙語(中英)開放權重語言模型,針對程式碼生成、函數調用和代理式任務進行了優化。它在 15T 高質量和重推理數據上進行了預訓練,並使用人類偏好對齊、拒絕採樣和強化學習進一步完善。該模型在複雜推理、工件生成和結構化輸出任務方面表現出色,在多個基準測試中達到了與 GPT-4o 和 DeepSeek-V3-0324 相當的性能。"
2113
+ },
2078
2114
  "thudm/glm-4-9b-chat": {
2079
2115
  "description": "智譜AI發布的GLM-4系列最新一代預訓練模型的開源版本。"
2080
2116
  },
2081
2117
  "thudm/glm-4-9b:free": {
2082
2118
  "description": "GLM-4-9B-0414 是 THUDM 開發的 GLM-4 系列中的 90 億參數語言模型。GLM-4-9B-0414 使用與其較大的 32B 對應模型相同的強化學習和對齊策略進行訓練,相對於其規模實現了高性能,使其適用於仍需要強大語言理解和生成能力的資源受限部署。"
2083
2119
  },
2120
+ "thudm/glm-z1-32b": {
2121
+ "description": "GLM-Z1-32B-0414 是 GLM-4-32B 的增強推理變體,專為深度數學、邏輯和面向程式碼的問題解決而構建。它應用擴展強化學習(任務特定和基於通用成對偏好)來提高複雜多步驟任務的性能。與基礎 GLM-4-32B 模型相比,Z1 顯著提升了結構化推理和形式化領域的能力。\n\n該模型支持通過提示工程強制執行「思考」步驟,並為長格式輸出提供改進的連貫性。它針對代理工作流進行了優化,並支持長上下文(通過 YaRN)、JSON 工具調用和用於穩定推理的細粒度採樣配置。非常適合需要深思熟慮、多步驟推理或形式化推導的用例。"
2122
+ },
2123
+ "thudm/glm-z1-32b:free": {
2124
+ "description": "GLM-Z1-32B-0414 是 GLM-4-32B 的增強推理變體,專為深度數學、邏輯和面向程式碼的問題解決而構建。它應用擴展強化學習(任務特定和基於通用成對偏好)來提高複雜多步驟任務的性能。與基礎 GLM-4-32B 模型相比,Z1 顯著提升了結構化推理和形式化領域的能力。\n\n該模型支持通過提示工程強制執行「思考」步驟,並為長格式輸出提供改進的連貫性。它針對代理工作流進行了優化,並支持長上下文(通過 YaRN)、JSON 工具調用和用於穩定推理的細粒度採樣配置。非常適合需要深思熟慮、多步驟推理或形式化推導的用例。"
2125
+ },
2084
2126
  "thudm/glm-z1-9b:free": {
2085
2127
  "description": "GLM-Z1-9B-0414 是由 THUDM 開發的 GLM-4 系列中的 9B 參數語言模型。它採用了最初應用於更大 GLM-Z1 模型的技術,包括擴展強化學習、成對排名對齊以及對數學、代碼和邏輯等推理密集型任務的訓練。儘管其規模較小,但它在通用推理任務上表現出強大的性能,並在其權重級別中優於許多開源模型。"
2086
2128
  },
@@ -29,9 +29,6 @@
29
29
  "deepseek": {
30
30
  "description": "DeepSeek 是一家專注於人工智慧技術研究和應用的公司,其最新模型 DeepSeek-V2.5 融合了通用對話和代碼處理能力,並在人類偏好對齊、寫作任務和指令跟隨等方面實現了顯著提升。"
31
31
  },
32
- "doubao": {
33
- "description": "字節跳動推出的自研大模型。透過字節跳動內部50+業務場景實踐驗證,每日萬億級tokens大使用量持續打磨,提供多種模態能力,以優質模型效果為企業打造豐富的業務體驗。"
34
- },
35
32
  "fireworksai": {
36
33
  "description": "Fireworks AI 是一家領先的高級語言模型服務商,專注於功能調用和多模態處理。其最新模型 Firefunction V2 基於 Llama-3,優化用於函數調用、對話及指令跟隨。視覺語言模型 FireLLaVA-13B 支持圖像和文本混合輸入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多語言指令跟隨與生成支持。"
37
34
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.84.23",
3
+ "version": "1.84.24",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -11,6 +11,13 @@ const combineKeys = (keys: string[]) => keys.join('+');
11
11
  // mod 在 Mac 上是 command 键,alt 在 Win 上是 ctrl 键
12
12
  export const HOTKEYS_REGISTRATION: HotkeyRegistration = [
13
13
  // basic
14
+ {
15
+ group: HotkeyGroupEnum.Essential,
16
+ id: HotkeyEnum.ShowApp,
17
+ keys: combineKeys([KeyEnum.Mod, 'e']),
18
+ nonEditable: true,
19
+ scopes: [HotkeyScopeEnum.Global],
20
+ },
14
21
  {
15
22
  group: HotkeyGroupEnum.Essential,
16
23
  id: HotkeyEnum.Search,
package/src/const/url.ts CHANGED
@@ -17,7 +17,7 @@ export const OG_URL = '/og/cover.png?v=1';
17
17
 
18
18
  export const GITHUB = pkg.homepage;
19
19
  export const GITHUB_ISSUES = urlJoin(GITHUB, 'issues/new/choose');
20
- export const CHANGELOG = urlJoin(GITHUB, 'blob/main/CHANGELOG.md');
20
+ export const CHANGELOG = 'https://lobehub.com/changelog';
21
21
  export const DOCKER_IMAGE = 'https://hub.docker.com/r/lobehub/lobe-chat';
22
22
 
23
23
  export const DOCUMENTS = urlJoin(OFFICIAL_SITE, '/docs');
@@ -25,6 +25,7 @@ import { enableAuth } from '@/const/auth';
25
25
  import { LOBE_CHAT_CLOUD } from '@/const/branding';
26
26
  import { DEFAULT_HOTKEY_CONFIG } from '@/const/settings';
27
27
  import {
28
+ CHANGELOG,
28
29
  DISCORD,
29
30
  DOCUMENTS_REFER_URL,
30
31
  EMAIL_SUPPORT,
@@ -144,7 +145,7 @@ export const useMenu = () => {
144
145
  {
145
146
  icon: <Icon icon={FileClockIcon} />,
146
147
  key: 'changelog',
147
- label: <Link href={'/changelog/modal'}>{t('changelog')}</Link>,
148
+ label: <Link href={isDesktop ? CHANGELOG : '/changelog/modal'}>{t('changelog')}</Link>,
148
149
  },
149
150
  {
150
151
  children: [
@@ -37,6 +37,10 @@ const hotkey: HotkeyI18nTranslations = {
37
37
  desc: '唤起当前页面主要搜索框',
38
38
  title: '搜索',
39
39
  },
40
+ showApp: {
41
+ desc: '快速唤起应用主窗口',
42
+ title: '显示主窗口',
43
+ },
40
44
  switchAgent: {
41
45
  desc: '通过按住 Ctrl 加数字 0~9 切换固定在侧边栏的助手',
42
46
  title: '快捷切换助手',
@@ -0,0 +1,23 @@
1
+ import { describe, expect, it } from 'vitest';
2
+
3
+ import { API_ENDPOINTS } from '../_url';
4
+
5
+ describe('API_ENDPOINTS', () => {
6
+ it('should return correct basePath URLs', () => {
7
+ expect(API_ENDPOINTS.oauth).toBe('/api/auth');
8
+ expect(API_ENDPOINTS.proxy).toBe('/webapi/proxy');
9
+ expect(API_ENDPOINTS.gateway).toBe('/webapi/plugin/gateway');
10
+ expect(API_ENDPOINTS.trace).toBe('/webapi/trace');
11
+ expect(API_ENDPOINTS.stt).toBe('/webapi/stt/openai');
12
+ expect(API_ENDPOINTS.tts).toBe('/webapi/tts/openai');
13
+ expect(API_ENDPOINTS.edge).toBe('/webapi/tts/edge');
14
+ expect(API_ENDPOINTS.microsoft).toBe('/webapi/tts/microsoft');
15
+ });
16
+
17
+ it('should return correct dynamic URLs', () => {
18
+ expect(API_ENDPOINTS.chat('openai')).toBe('/webapi/chat/openai');
19
+ expect(API_ENDPOINTS.models('anthropic')).toBe('/webapi/models/anthropic');
20
+ expect(API_ENDPOINTS.modelPull('azure')).toBe('/webapi/models/azure/pull');
21
+ expect(API_ENDPOINTS.images('dalle')).toBe('/webapi/text-to-image/dalle');
22
+ });
23
+ });
@@ -66,6 +66,7 @@ export const HotkeyEnum = {
66
66
  RegenerateMessage: 'regenerateMessage',
67
67
  SaveTopic: 'saveTopic',
68
68
  Search: 'search',
69
+ ShowApp: 'showApp',
69
70
  SwitchAgent: 'switchAgent',
70
71
  ToggleLeftPanel: 'toggleLeftPanel',
71
72
  ToggleRightPanel: 'toggleRightPanel',