@lobehub/chat 1.50.2 → 1.50.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/docs/self-hosting/server-database/docker-compose.mdx +31 -31
- package/docs/self-hosting/server-database/docker-compose.zh-CN.mdx +32 -32
- package/locales/ar/models.json +22 -34
- package/locales/bg-BG/models.json +22 -34
- package/locales/de-DE/models.json +22 -34
- package/locales/en-US/models.json +22 -34
- package/locales/es-ES/models.json +22 -34
- package/locales/fa-IR/models.json +22 -34
- package/locales/fr-FR/models.json +22 -34
- package/locales/it-IT/models.json +22 -34
- package/locales/ja-JP/models.json +22 -34
- package/locales/ko-KR/models.json +25 -38
- package/locales/nl-NL/models.json +22 -34
- package/locales/pl-PL/models.json +22 -34
- package/locales/pt-BR/models.json +22 -34
- package/locales/ru-RU/models.json +22 -34
- package/locales/tr-TR/models.json +22 -34
- package/locales/vi-VN/models.json +22 -34
- package/locales/zh-CN/models.json +39 -51
- package/locales/zh-TW/models.json +22 -34
- package/package.json +1 -1
@@ -323,21 +323,15 @@
|
|
323
323
|
"abab7-chat-preview": {
|
324
324
|
"description": "相對於abab6.5系列模型在長文、數學、寫作等能力有大幅度提升。"
|
325
325
|
},
|
326
|
-
"accounts/fireworks/models/
|
327
|
-
"description": "
|
326
|
+
"accounts/fireworks/models/deepseek-r1": {
|
327
|
+
"description": "DeepSeek-R1 是一款最先進的大型語言模型,經過強化學習和冷啟動數據的優化,具有出色的推理、數學和編程性能。"
|
328
328
|
},
|
329
|
-
"accounts/fireworks/models/
|
330
|
-
"description": "
|
331
|
-
},
|
332
|
-
"accounts/fireworks/models/firellava-13b": {
|
333
|
-
"description": "fireworks-ai/FireLLaVA-13b 是一款視覺語言模型,可以同時接收圖像和文本輸入,經過高質量數據訓練,適合多模態任務。"
|
329
|
+
"accounts/fireworks/models/deepseek-v3": {
|
330
|
+
"description": "Deepseek 提供的強大 Mixture-of-Experts (MoE) 語言模型,總參數量為 671B,每個標記激活 37B 參數。"
|
334
331
|
},
|
335
332
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
336
333
|
"description": "Llama 3 70B 指令模型,專為多語言對話和自然語言理解優化,性能優於多數競爭模型。"
|
337
334
|
},
|
338
|
-
"accounts/fireworks/models/llama-v3-70b-instruct-hf": {
|
339
|
-
"description": "Llama 3 70B 指令模型(HF 版本),與官方實現結果保持一致,適合高質量的指令跟隨任務。"
|
340
|
-
},
|
341
335
|
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
342
336
|
"description": "Llama 3 8B 指令模型,優化用於對話及多語言任務,表現卓越且高效。"
|
343
337
|
},
|
@@ -356,24 +350,24 @@
|
|
356
350
|
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
357
351
|
"description": "Meta的11B參數指令調整圖像推理模型。該模型針對視覺識別、圖像推理、圖像描述和回答關於圖像的一般性問題進行了優化。該模型能夠理解視覺數據,如圖表和圖形,並通過生成文本描述圖像細節來弥合視覺與語言之間的差距。"
|
358
352
|
},
|
359
|
-
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
360
|
-
"description": "Llama 3.2 1B 指令模型是Meta推出的一款輕量級多語言模型。該模型旨在提高效率,與更大型的模型相比,在延遲和成本方面提供了顯著的改進。該模型的示例用例包括檢索和摘要。"
|
361
|
-
},
|
362
353
|
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
363
354
|
"description": "Llama 3.2 3B 指令模型是Meta推出的一款輕量級多語言模型。該模型旨在提高效率,與更大型的模型相比,在延遲和成本方面提供了顯著的改進。該模型的示例用例包括查詢和提示重寫以及寫作輔助。"
|
364
355
|
},
|
365
356
|
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
366
357
|
"description": "Meta的90B參數指令調整圖像推理模型。該模型針對視覺識別、圖像推理、圖像描述和回答關於圖像的一般性問題進行了優化。該模型能夠理解視覺數據,如圖表和圖形,並通過生成文本描述圖像細節來弥合視覺與語言之間的差距。"
|
367
358
|
},
|
359
|
+
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
|
360
|
+
"description": "Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。該模型在 Llama 3.1 70B(於 2024 年 7 月發布)的基礎上進行了改進,增強了工具調用、多語言文本支持、數學和編程能力。該模型在推理、數學和指令遵循方面達到了行業領先水平,並且能夠提供與 3.1 405B 相似的性能,同時在速度和成本上具有顯著優勢。"
|
361
|
+
},
|
362
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
|
363
|
+
"description": "24B 參數模型,具備與更大型模型相當的最先進能力。"
|
364
|
+
},
|
368
365
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
369
366
|
"description": "Mixtral MoE 8x22B 指令模型,大規模參數和多專家架構,全方位支持複雜任務的高效處理。"
|
370
367
|
},
|
371
368
|
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
372
369
|
"description": "Mixtral MoE 8x7B 指令模型,多專家架構提供高效的指令跟隨及執行。"
|
373
370
|
},
|
374
|
-
"accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
|
375
|
-
"description": "Mixtral MoE 8x7B 指令模型(HF 版本),性能與官方實現一致,適合多種高效任務場景。"
|
376
|
-
},
|
377
371
|
"accounts/fireworks/models/mythomax-l2-13b": {
|
378
372
|
"description": "MythoMax L2 13B 模型,結合新穎的合併技術,擅長敘事和角色扮演。"
|
379
373
|
},
|
@@ -383,18 +377,15 @@
|
|
383
377
|
"accounts/fireworks/models/qwen-qwq-32b-preview": {
|
384
378
|
"description": "QwQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於增強 AI 推理能力。"
|
385
379
|
},
|
380
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
|
381
|
+
"description": "Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的創新。"
|
382
|
+
},
|
386
383
|
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
387
384
|
"description": "Qwen2.5 是由阿里雲 Qwen 團隊開發的一系列僅包含解碼器的語言模型。這些模型提供不同的大小,包括 0.5B、1.5B、3B、7B、14B、32B 和 72B,並且有基礎版(base)和指令版(instruct)兩種變體。"
|
388
385
|
},
|
389
386
|
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
|
390
387
|
"description": "Qwen2.5 Coder 32B Instruct 是阿里雲發布的代碼特定大語言模型系列的最新版本。該模型在 Qwen2.5 的基礎上,通過 5.5 萬億個 tokens 的訓練,顯著提升了代碼生成、推理和修復能力。它不僅增強了編碼能力,還保持了數學和通用能力的優勢。模型為代碼智能體等實際應用提供了更全面的基礎"
|
391
388
|
},
|
392
|
-
"accounts/fireworks/models/starcoder-16b": {
|
393
|
-
"description": "StarCoder 15.5B 模型,支持高級編程任務,多語言能力增強,適合複雜代碼生成和理解。"
|
394
|
-
},
|
395
|
-
"accounts/fireworks/models/starcoder-7b": {
|
396
|
-
"description": "StarCoder 7B 模型,針對 80 多種編程語言訓練,擁有出色的編程填充能力和語境理解。"
|
397
|
-
},
|
398
389
|
"accounts/yi-01-ai/models/yi-large": {
|
399
390
|
"description": "Yi-Large 模型,具備卓越的多語言處理能力,可用於各類語言生成和理解任務。"
|
400
391
|
},
|
@@ -887,30 +878,18 @@
|
|
887
878
|
"lite": {
|
888
879
|
"description": "Spark Lite 是一款輕量級大語言模型,具備極低的延遲與高效的處理能力,完全免費開放,支持即時在線搜索功能。其快速響應的特性使其在低算力設備上的推理應用和模型微調中表現出色,為用戶帶來出色的成本效益和智能體驗,尤其在知識問答、內容生成及搜索場景下表現不俗。"
|
889
880
|
},
|
890
|
-
"llama-3.1-70b-instruct": {
|
891
|
-
"description": "Llama 3.1 70B Instruct 模型,具備 70B 參數,能在大型文本生成和指示任務中提供卓越性能。"
|
892
|
-
},
|
893
881
|
"llama-3.1-70b-versatile": {
|
894
882
|
"description": "Llama 3.1 70B 提供更強大的 AI 推理能力,適合複雜應用,支持超多的計算處理並保證高效和準確率。"
|
895
883
|
},
|
896
884
|
"llama-3.1-8b-instant": {
|
897
885
|
"description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常適合需要大規模效率和成本效益的應用場景。"
|
898
886
|
},
|
899
|
-
"llama-3.1-8b-instruct": {
|
900
|
-
"description": "Llama 3.1 8B Instruct 模型,具備 8B 參數,支持畫面指示任務的高效執行,提供優質的文本生成能力。"
|
901
|
-
},
|
902
887
|
"llama-3.1-sonar-huge-128k-online": {
|
903
888
|
"description": "Llama 3.1 Sonar Huge Online 模型,具備 405B 參數,支持約 127,000 個標記的上下文長度,設計用於複雜的在線聊天應用。"
|
904
889
|
},
|
905
|
-
"llama-3.1-sonar-large-128k-chat": {
|
906
|
-
"description": "Llama 3.1 Sonar Large Chat 模型,具備 70B 參數,支持約 127,000 個標記的上下文長度,適合於複雜的離線聊天任務。"
|
907
|
-
},
|
908
890
|
"llama-3.1-sonar-large-128k-online": {
|
909
891
|
"description": "Llama 3.1 Sonar Large Online 模型,具備 70B 參數,支持約 127,000 個標記的上下文長度,適用於高容量和多樣化聊天任務。"
|
910
892
|
},
|
911
|
-
"llama-3.1-sonar-small-128k-chat": {
|
912
|
-
"description": "Llama 3.1 Sonar Small Chat 模型,具備 8B 參數,專為離線聊天設計,支持約 127,000 個標記的上下文長度。"
|
913
|
-
},
|
914
893
|
"llama-3.1-sonar-small-128k-online": {
|
915
894
|
"description": "Llama 3.1 Sonar Small Online 模型,具備 8B 參數,支持約 127,000 個標記的上下文長度,專為在線聊天設計,能高效處理各種文本交互。"
|
916
895
|
},
|
@@ -1355,6 +1334,15 @@
|
|
1355
1334
|
"solar-pro": {
|
1356
1335
|
"description": "Solar Pro 是 Upstage 推出的一款高智能LLM,專注於單GPU的指令跟隨能力,IFEval得分80以上。目前支持英語,正式版本計劃於2024年11月推出,將擴展語言支持和上下文長度。"
|
1357
1336
|
},
|
1337
|
+
"sonar": {
|
1338
|
+
"description": "基於搜索上下文的輕量級搜索產品,比 Sonar Pro 更快、更便宜。"
|
1339
|
+
},
|
1340
|
+
"sonar-pro": {
|
1341
|
+
"description": "支持搜索上下文的高級搜索產品,支持高級查詢和跟進。"
|
1342
|
+
},
|
1343
|
+
"sonar-reasoning": {
|
1344
|
+
"description": "由 DeepSeek 推理模型提供支持的新 API 產品。"
|
1345
|
+
},
|
1358
1346
|
"step-1-128k": {
|
1359
1347
|
"description": "平衡性能與成本,適合一般場景。"
|
1360
1348
|
},
|
package/package.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
{
|
2
2
|
"name": "@lobehub/chat",
|
3
|
-
"version": "1.50.
|
3
|
+
"version": "1.50.3",
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
5
5
|
"keywords": [
|
6
6
|
"framework",
|