@lobehub/chat 1.74.2 → 1.74.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +33 -0
- package/changelog/v1.json +9 -0
- package/docs/developer/database-schema.dbml +54 -2
- package/locales/ar/common.json +51 -0
- package/locales/ar/models.json +69 -3
- package/locales/ar/providers.json +6 -0
- package/locales/bg-BG/common.json +51 -0
- package/locales/bg-BG/models.json +69 -3
- package/locales/bg-BG/providers.json +6 -0
- package/locales/de-DE/common.json +51 -0
- package/locales/de-DE/models.json +69 -3
- package/locales/de-DE/providers.json +6 -0
- package/locales/en-US/common.json +51 -0
- package/locales/en-US/models.json +69 -3
- package/locales/en-US/providers.json +6 -3
- package/locales/es-ES/common.json +51 -0
- package/locales/es-ES/models.json +69 -3
- package/locales/es-ES/providers.json +6 -0
- package/locales/fa-IR/common.json +51 -0
- package/locales/fa-IR/models.json +69 -3
- package/locales/fa-IR/providers.json +6 -0
- package/locales/fr-FR/common.json +51 -0
- package/locales/fr-FR/models.json +69 -3
- package/locales/fr-FR/providers.json +6 -0
- package/locales/it-IT/common.json +51 -0
- package/locales/it-IT/models.json +69 -3
- package/locales/it-IT/providers.json +6 -0
- package/locales/ja-JP/common.json +51 -0
- package/locales/ja-JP/models.json +78 -4
- package/locales/ja-JP/providers.json +6 -0
- package/locales/ko-KR/common.json +51 -0
- package/locales/ko-KR/models.json +69 -3
- package/locales/ko-KR/providers.json +6 -0
- package/locales/nl-NL/common.json +51 -0
- package/locales/nl-NL/models.json +69 -3
- package/locales/nl-NL/providers.json +6 -0
- package/locales/pl-PL/common.json +51 -0
- package/locales/pl-PL/models.json +69 -3
- package/locales/pl-PL/providers.json +6 -0
- package/locales/pt-BR/common.json +51 -0
- package/locales/pt-BR/models.json +69 -3
- package/locales/pt-BR/providers.json +6 -0
- package/locales/ru-RU/common.json +51 -0
- package/locales/ru-RU/models.json +69 -3
- package/locales/ru-RU/providers.json +6 -0
- package/locales/tr-TR/common.json +51 -0
- package/locales/tr-TR/models.json +69 -3
- package/locales/tr-TR/providers.json +6 -0
- package/locales/vi-VN/common.json +51 -0
- package/locales/vi-VN/models.json +69 -3
- package/locales/vi-VN/providers.json +6 -0
- package/locales/zh-CN/common.json +53 -2
- package/locales/zh-CN/models.json +79 -13
- package/locales/zh-CN/providers.json +6 -4
- package/locales/zh-TW/common.json +51 -0
- package/locales/zh-TW/models.json +81 -4
- package/locales/zh-TW/providers.json +6 -0
- package/package.json +1 -1
- package/packages/web-crawler/src/utils/__tests__/withTimeout.test.ts +0 -1
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/Checker.tsx +4 -0
- package/src/database/client/db.ts +102 -11
- package/src/database/client/migrations.json +38 -8
- package/src/database/migrations/0018_add_client_id_for_entities.sql +32 -0
- package/src/database/migrations/meta/0018_snapshot.json +4212 -0
- package/src/database/migrations/meta/_journal.json +7 -0
- package/src/database/models/drizzleMigration.ts +23 -0
- package/src/database/schemas/agent.ts +48 -31
- package/src/database/schemas/file.ts +32 -16
- package/src/database/schemas/message.ts +91 -54
- package/src/database/schemas/rag.ts +65 -32
- package/src/database/schemas/session.ts +6 -3
- package/src/database/schemas/topic.ts +31 -24
- package/src/features/InitClientDB/ErrorResult.tsx +53 -32
- package/src/features/InitClientDB/features/DatabaseRepair/Backup.tsx +77 -0
- package/src/features/InitClientDB/features/DatabaseRepair/Diagnosis.tsx +98 -0
- package/src/features/InitClientDB/features/DatabaseRepair/Repair.tsx +220 -0
- package/src/features/InitClientDB/features/DatabaseRepair/index.tsx +85 -0
- package/src/features/ModelSwitchPanel/index.tsx +13 -7
- package/src/locales/default/common.ts +53 -1
- package/src/store/global/actions/clientDb.ts +19 -3
- package/src/store/global/initialState.ts +6 -1
- package/src/store/global/selectors/clientDB.ts +43 -0
- package/src/store/global/selectors/index.ts +1 -0
- package/src/store/user/slices/settings/selectors/general.test.ts +90 -0
- package/src/types/clientDB.ts +13 -0
@@ -518,6 +518,18 @@
|
|
518
518
|
"baichuan/baichuan2-13b-chat": {
|
519
519
|
"description": "Baichuan-13B 百川智能开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果"
|
520
520
|
},
|
521
|
+
"c4ai-aya-expanse-32b": {
|
522
|
+
"description": "Aya Expanse 是一款高性能的 32B 多语言模型,旨在通过指令调优、数据套利、偏好训练和模型合并的创新,挑战单语言模型的表现。它支持 23 种语言。"
|
523
|
+
},
|
524
|
+
"c4ai-aya-expanse-8b": {
|
525
|
+
"description": "Aya Expanse 是一款高性能的 8B 多语言模型,旨在通过指令调优、数据套利、偏好训练和模型合并的创新,挑战单语言模型的表现。它支持 23 种语言。"
|
526
|
+
},
|
527
|
+
"c4ai-aya-vision-32b": {
|
528
|
+
"description": "Aya Vision 是一款最先进的多模态模型,在语言、文本和图像能力的多个关键基准上表现出色。它支持 23 种语言。这个 320 亿参数的版本专注于最先进的多语言表现。"
|
529
|
+
},
|
530
|
+
"c4ai-aya-vision-8b": {
|
531
|
+
"description": "Aya Vision 是一款最先进的多模态模型,在语言、文本和图像能力的多个关键基准上表现出色。这个 80 亿参数的版本专注于低延迟和最佳性能。"
|
532
|
+
},
|
521
533
|
"charglm-3": {
|
522
534
|
"description": "CharGLM-3 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。"
|
523
535
|
},
|
@@ -602,12 +614,39 @@
|
|
602
614
|
"cohere-command-r-plus": {
|
603
615
|
"description": "Command R+是一个最先进的RAG优化模型,旨在应对企业级工作负载。"
|
604
616
|
},
|
617
|
+
"command": {
|
618
|
+
"description": "一个遵循指令的对话模型,在语言任务中表现出高质量、更可靠,并且相比我们的基础生成模型具有更长的上下文长度。"
|
619
|
+
},
|
620
|
+
"command-a-03-2025": {
|
621
|
+
"description": "Command A 是我们迄今为止性能最强的模型,在工具使用、代理、检索增强生成(RAG)和多语言应用场景方面表现出色。Command A 具有 256K 的上下文长度,仅需两块 GPU 即可运行,并且相比于 Command R+ 08-2024,吞吐量提高了 150%。"
|
622
|
+
},
|
623
|
+
"command-light": {
|
624
|
+
"description": "一个更小、更快的 Command 版本,几乎同样强大,但速度更快。"
|
625
|
+
},
|
626
|
+
"command-light-nightly": {
|
627
|
+
"description": "为了缩短主要版本发布之间的时间间隔,我们推出了 Command 模型的每夜版本。对于 command-light 系列,这一版本称为 command-light-nightly。请注意,command-light-nightly 是最新、最具实验性且(可能)不稳定的版本。每夜版本会定期更新,且不会提前通知,因此不建议在生产环境中使用。"
|
628
|
+
},
|
629
|
+
"command-nightly": {
|
630
|
+
"description": "为了缩短主要版本发布之间的时间间隔,我们推出了 Command 模型的每夜版本。对于 Command 系列,这一版本称为 command-cightly。请注意,command-nightly 是最新、最具实验性且(可能)不稳定的版本。每夜版本会定期更新,且不会提前通知,因此不建议在生产环境中使用。"
|
631
|
+
},
|
605
632
|
"command-r": {
|
606
633
|
"description": "Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。"
|
607
634
|
},
|
635
|
+
"command-r-03-2024": {
|
636
|
+
"description": "Command R 是一个遵循指令的对话模型,在语言任务方面表现出更高的质量、更可靠,并且相比以往模型具有更长的上下文长度。它可用于复杂的工作流程,如代码生成、检索增强生成(RAG)、工具使用和代理。"
|
637
|
+
},
|
638
|
+
"command-r-08-2024": {
|
639
|
+
"description": "command-r-08-2024 是 Command R 模型的更新版本,于 2024 年 8 月发布。"
|
640
|
+
},
|
608
641
|
"command-r-plus": {
|
609
642
|
"description": "Command R+ 是一款高性能的大型语言模型,专为真实企业场景和复杂应用而设计。"
|
610
643
|
},
|
644
|
+
"command-r-plus-04-2024": {
|
645
|
+
"description": "Command R+ 是一个遵循指令的对话模型,在语言任务方面表现出更高的质量、更可靠,并且相比以往模型具有更长的上下文长度。它最适用于复杂的 RAG 工作流和多步工具使用。"
|
646
|
+
},
|
647
|
+
"command-r7b-12-2024": {
|
648
|
+
"description": "command-r7b-12-2024 是一个小型且高效的更新版本,于 2024 年 12 月发布。它在 RAG、工具使用、代理等需要复杂推理和多步处理的任务中表现出色。"
|
649
|
+
},
|
611
650
|
"dall-e-2": {
|
612
651
|
"description": "第二代 DALL·E 模型,支持更真实、准确的图像生成,分辨率是第一代的4倍"
|
613
652
|
},
|
@@ -668,23 +707,41 @@
|
|
668
707
|
"deepseek-r1": {
|
669
708
|
"description": "DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。"
|
670
709
|
},
|
710
|
+
"deepseek-r1-70b-fast-online": {
|
711
|
+
"description": "DeepSeek R1 70B 快速版,支持实时联网搜索,在保持模型性能的同时提供更快的响应速度。"
|
712
|
+
},
|
713
|
+
"deepseek-r1-70b-online": {
|
714
|
+
"description": "DeepSeek R1 70B 标准版,支持实时联网搜索,适合需要最新信息的对话和文本处理任务。"
|
715
|
+
},
|
671
716
|
"deepseek-r1-distill-llama-70b": {
|
672
|
-
"description": "DeepSeek-R1-Distill-Llama-70B
|
717
|
+
"description": "DeepSeek-R1-Distill-Llama-70B是DeepSeek-R1基于Llama3.3-70B-Instruct的蒸馏模型。"
|
673
718
|
},
|
674
719
|
"deepseek-r1-distill-llama-8b": {
|
675
|
-
"description": "DeepSeek-R1-Distill-Llama-8B
|
720
|
+
"description": "DeepSeek-R1-Distill-Llama-8B是DeepSeek-R1基于Llama3.1-8B-Base的蒸馏模型。"
|
721
|
+
},
|
722
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
723
|
+
"description": "2025年2月14日首次发布,由千帆大模型研发团队以 Llama3_70B为base模型(Built with Meta Llama)蒸馏所得,蒸馏数据中也同步添加了千帆的语料。"
|
724
|
+
},
|
725
|
+
"deepseek-r1-distill-qianfan-llama-8b": {
|
726
|
+
"description": "2025年2月14日首次发布,由千帆大模型研发团队以 Llama3_8B为base模型(Built with Meta Llama)蒸馏所得,蒸馏数据中也同步添加了千帆的语料。"
|
676
727
|
},
|
677
728
|
"deepseek-r1-distill-qwen-1.5b": {
|
678
|
-
"description": "DeepSeek-R1-Distill-Qwen-1.5B
|
729
|
+
"description": "DeepSeek-R1-Distill-Qwen-1.5B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。"
|
679
730
|
},
|
680
731
|
"deepseek-r1-distill-qwen-14b": {
|
681
|
-
"description": "DeepSeek-R1-Distill-Qwen-14B
|
732
|
+
"description": "DeepSeek-R1-Distill-Qwen-14B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。"
|
682
733
|
},
|
683
734
|
"deepseek-r1-distill-qwen-32b": {
|
684
|
-
"description": "DeepSeek-R1-Distill
|
735
|
+
"description": "DeepSeek-R1-Distill-Qwen-32B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。"
|
685
736
|
},
|
686
737
|
"deepseek-r1-distill-qwen-7b": {
|
687
|
-
"description": "DeepSeek-R1-Distill
|
738
|
+
"description": "DeepSeek-R1-Distill-Qwen-7B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。"
|
739
|
+
},
|
740
|
+
"deepseek-r1-fast-online": {
|
741
|
+
"description": "DeepSeek R1 满血快速版,支持实时联网搜索,结合了 671B 参数的强大能力和更快的响应速度。"
|
742
|
+
},
|
743
|
+
"deepseek-r1-online": {
|
744
|
+
"description": "DeepSeek R1 满血版,拥有 671B 参数,支持实时联网搜索,具有更强大的理解和生成能力。"
|
688
745
|
},
|
689
746
|
"deepseek-reasoner": {
|
690
747
|
"description": "DeepSeek 推出的推理模型。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
|
@@ -764,6 +821,9 @@
|
|
764
821
|
"ernie-4.0-turbo-8k-preview": {
|
765
822
|
"description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
|
766
823
|
},
|
824
|
+
"ernie-4.5-8k-preview": {
|
825
|
+
"description": "文心大模型4.5是百度自主研发的新一代原生多模态基础大模型,通过多个模态联合建模实现协同优化,多模态理解能力优秀;具备更精进的语言能力,理解、生成、逻辑、记忆能力全面提升,去幻觉、逻辑推理、代码能力显著提升。"
|
826
|
+
},
|
767
827
|
"ernie-char-8k": {
|
768
828
|
"description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
|
769
829
|
},
|
@@ -891,7 +951,7 @@
|
|
891
951
|
"description": "GLM-4-0520 是最新模型版本,专为高度复杂和多样化任务设计,表现卓越。"
|
892
952
|
},
|
893
953
|
"glm-4-9b-chat": {
|
894
|
-
"description": "GLM-4-9B-Chat
|
954
|
+
"description": "GLM-4-9B-Chat 是智谱 AI 推出的最新一代预训练模型 GLM-4-9B 的人类偏好对齐版本。"
|
895
955
|
},
|
896
956
|
"glm-4-air": {
|
897
957
|
"description": "GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。"
|
@@ -1095,10 +1155,7 @@
|
|
1095
1155
|
"description": "混元翻译模型支持自然语言对话式翻译;支持中文和英语、日语、法语、葡萄牙语、西班牙语、土耳其语、俄语、阿拉伯语、韩语、意大利语、德语、越南语、马来语、印尼语15种语言互译。"
|
1096
1156
|
},
|
1097
1157
|
"hunyuan-turbo": {
|
1098
|
-
"description": "
|
1099
|
-
},
|
1100
|
-
"hunyuan-turbo-20241120": {
|
1101
|
-
"description": "hunyuan-turbo 2024 年 11 月 20 日固定版本,介于 hunyuan-turbo 和 hunyuan-turbo-latest 之间的一个版本。"
|
1158
|
+
"description": "混元全新一代大语言模型的预览版,采用全新的混合专家模型(MoE)结构,相比hunyuan-pro推理效率更快,效果表现更强。"
|
1102
1159
|
},
|
1103
1160
|
"hunyuan-turbo-20241223": {
|
1104
1161
|
"description": "本版本优化:数据指令scaling,大幅提升模型通用泛化能力;大幅提升数学、代码、逻辑推理能力;优化文本理解字词理解相关能力;优化文本创作内容生成质量"
|
@@ -1109,6 +1166,15 @@
|
|
1109
1166
|
"hunyuan-turbo-vision": {
|
1110
1167
|
"description": "混元新一代视觉语言旗舰大模型,采用全新的混合专家模型(MoE)结构,在图文理解相关的基础识别、内容创作、知识问答、分析推理等能力上相比前一代模型全面提升。"
|
1111
1168
|
},
|
1169
|
+
"hunyuan-turbos-20250226": {
|
1170
|
+
"description": "hunyuan-TurboS pv2.1.2 固定版本预训练底座训练token 数升级;数学/逻辑/代码等思考能力提升;中英文通用体验效果提升,包括文本创作、文本理解、知识问答、闲聊等。"
|
1171
|
+
},
|
1172
|
+
"hunyuan-turbos-20250313": {
|
1173
|
+
"description": "统一数学解题步骤的风格,加强数学多轮问答。文本创作优化回答风格,去除AI味,增加文采。"
|
1174
|
+
},
|
1175
|
+
"hunyuan-turbos-latest": {
|
1176
|
+
"description": "hunyuan-TurboS 混元旗舰大模型最新版本,具备更强的思考能力,更优的体验效果。"
|
1177
|
+
},
|
1112
1178
|
"hunyuan-vision": {
|
1113
1179
|
"description": "混元最新多模态模型,支持图片+文本输入生成文本内容。"
|
1114
1180
|
},
|
@@ -1161,7 +1227,7 @@
|
|
1161
1227
|
"description": "Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
|
1162
1228
|
},
|
1163
1229
|
"llama-3.3-70b-instruct": {
|
1164
|
-
"description": "
|
1230
|
+
"description": "Meta 发布的 LLaMA 3.3 多语言大规模语言模型(LLMs)是一个经过预训练和指令微调的生成模型,提供 70B 规模(文本输入/文本输出)。该模型使用超过 15T 的数据进行训练,支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语,知识更新截止于 2023 年 12 月。"
|
1165
1231
|
},
|
1166
1232
|
"llama-3.3-70b-versatile": {
|
1167
1233
|
"description": "Meta Llama 3.3 多语言大语言模型 ( LLM ) 是 70B(文本输入/文本输出)中的预训练和指令调整生成模型。 Llama 3.3 指令调整的纯文本模型针对多语言对话用例进行了优化,并且在常见行业基准上优于许多可用的开源和封闭式聊天模型。"
|
@@ -1677,7 +1743,7 @@
|
|
1677
1743
|
"description": "QwQ 是一个实验研究模型,专注于提高 AI 推理能力。"
|
1678
1744
|
},
|
1679
1745
|
"qwq-32b": {
|
1680
|
-
"description": "
|
1746
|
+
"description": "通义千问团队推出的高效推理模型,支持消费级硬件部署,具备强大的实时推理能力和与智能体Agent集成的潜力。"
|
1681
1747
|
},
|
1682
1748
|
"qwq-32b-preview": {
|
1683
1749
|
"description": "QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。"
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "在 Cloudflare 的全球网络上运行由无服务器 GPU 驱动的机器学习模型。"
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohere 为您带来最前沿的多语言模型、先进的检索功能以及为现代企业量身定制的 AI 工作空间 — 一切都集成在一个安全的平台中。"
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "DeepSeek 是一家专注于人工智能技术研究和应用的公司,其最新模型 DeepSeek-V3 多项评测成绩超越 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,性能对齐领军闭源模型 GPT-4o 与 Claude-3.5-Sonnet。"
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "SambaNova Cloud 可让开发者轻松使用最佳的开源模型,并享受最快的推理速度。"
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1API 提供可根据需要自行联网的 DeepSeek 系列模型的访问,包括标准版和快速版本,支持多种参数规模的模型选择。"
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "商汤日日新,依托商汤大装置的强大的基础支撑,提供高效易用的全栈大模型服务。"
|
106
112
|
},
|
@@ -145,9 +151,5 @@
|
|
145
151
|
},
|
146
152
|
"zhipu": {
|
147
153
|
"description": "智谱 AI 提供多模态与语言模型的开放平台,支持广泛的AI应用场景,包括文本处理、图像理解与编程辅助等。"
|
148
|
-
},
|
149
|
-
"ppio": {
|
150
|
-
"description": "PPIO 派欧云提供稳定、高性价比的开源模型 API 服务,支持 DeepSeek 全系列、Llama、Qwen 等行业领先大模型。"
|
151
154
|
}
|
152
155
|
}
|
153
|
-
|
@@ -41,7 +41,10 @@
|
|
41
41
|
"error": {
|
42
42
|
"desc": "非常抱歉,Pglite 資料庫初始化過程發生異常。請點擊按鈕重試。如多次重試後仍重複出錯,請 <1>提交問題</1> ,我們將會第一時間幫你排查",
|
43
43
|
"detail": "錯誤原因:[{{type}}] {{message}},明細如下:",
|
44
|
+
"detailTitle": "錯誤原因",
|
45
|
+
"report": "反饋問題",
|
44
46
|
"retry": "重試",
|
47
|
+
"selfSolve": "自助解決",
|
45
48
|
"title": "資料庫初始化失敗"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "立即使用",
|
81
84
|
"desc": "立即想用",
|
82
85
|
"title": "PGlite 數據庫已就緒"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "備份",
|
90
|
+
"backupSuccess": "備份成功",
|
91
|
+
"desc": "導出當前資料庫中的關鍵數據",
|
92
|
+
"export": "導出全部數據",
|
93
|
+
"exportDesc": "導出的數據將以JSON格式保存,可用於後續恢復或分析。",
|
94
|
+
"reset": {
|
95
|
+
"alert": "警告",
|
96
|
+
"alertDesc": "以下操作可能會導致數據丟失。請確保您已備份重要數據後再繼續。",
|
97
|
+
"button": "完全重置資料庫(刪除所有數據)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "此操作將會刪除所有數據並且不可撤銷,確認繼續嗎?",
|
100
|
+
"title": "確認重置資料庫"
|
101
|
+
},
|
102
|
+
"desc": "在遷移無法恢復的情況下重置資料庫",
|
103
|
+
"title": "資料庫重置"
|
104
|
+
},
|
105
|
+
"restore": "恢復",
|
106
|
+
"restoreSuccess": "恢復成功",
|
107
|
+
"title": "數據備份"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "創建時間",
|
111
|
+
"migratedAt": "遷移完成時間",
|
112
|
+
"sql": "遷移SQL",
|
113
|
+
"title": "遷移狀態"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "手動管理遷移狀態",
|
117
|
+
"runSQL": "自定義執行",
|
118
|
+
"sql": {
|
119
|
+
"clear": "清空",
|
120
|
+
"desc": "執行自定義SQL語句修復資料庫問題",
|
121
|
+
"markFinished": "標記為已完成",
|
122
|
+
"placeholder": "輸入SQL語句...",
|
123
|
+
"result": "執行結果",
|
124
|
+
"run": "執行",
|
125
|
+
"title": "SQL執行器"
|
126
|
+
},
|
127
|
+
"title": "遷移控制"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "備份恢復",
|
131
|
+
"diagnosis": "診斷",
|
132
|
+
"repair": "修復"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "關閉",
|
@@ -1,5 +1,4 @@
|
|
1
1
|
{
|
2
|
-
"0": "{",
|
3
2
|
"01-ai/Yi-1.5-34B-Chat-16K": {
|
4
3
|
"description": "Yi-1.5 34B,以豐富的訓練樣本在行業應用中提供優越表現。"
|
5
4
|
},
|
@@ -519,12 +518,27 @@
|
|
519
518
|
"baichuan/baichuan2-13b-chat": {
|
520
519
|
"description": "Baichuan-13B百川智能開發的包含130億參數的開源可商用的大規模語言模型,在權威的中文和英文benchmark上均取得同尺寸最好的效果。"
|
521
520
|
},
|
521
|
+
"c4ai-aya-expanse-32b": {
|
522
|
+
"description": "Aya Expanse 是一款高性能的 32B 多語言模型,旨在通過指令調優、數據套利、偏好訓練和模型合併的創新,挑戰單語言模型的表現。它支持 23 種語言。"
|
523
|
+
},
|
524
|
+
"c4ai-aya-expanse-8b": {
|
525
|
+
"description": "Aya Expanse 是一款高性能的 8B 多語言模型,旨在通過指令調優、數據套利、偏好訓練和模型合併的創新,挑戰單語言模型的表現。它支持 23 種語言。"
|
526
|
+
},
|
527
|
+
"c4ai-aya-vision-32b": {
|
528
|
+
"description": "Aya Vision 是一款最先進的多模態模型,在語言、文本和圖像能力的多個關鍵基準上表現出色。它支持 23 種語言。這個 320 億參數的版本專注於最先進的多語言表現。"
|
529
|
+
},
|
530
|
+
"c4ai-aya-vision-8b": {
|
531
|
+
"description": "Aya Vision 是一款最先進的多模態模型,在語言、文本和圖像能力的多個關鍵基準上表現出色。這個 80 億參數的版本專注於低延遲和最佳性能。"
|
532
|
+
},
|
522
533
|
"charglm-3": {
|
523
534
|
"description": "CharGLM-3專為角色扮演與情感陪伴設計,支持超長多輪記憶與個性化對話,應用廣泛。"
|
524
535
|
},
|
525
536
|
"chatglm3": {
|
526
537
|
"description": "ChatGLM3 是智譜 AI 與清華 KEG 實驗室發佈的閉源模型,經過海量中英標識符的預訓練與人類偏好對齊訓練,相比一代模型在 MMLU、C-Eval、GSM8K 分別取得了 16%、36%、280% 的提升,並登頂中文任務榜單 C-Eval。適用於對知識量、推理能力、創造力要求較高的場景,比如廣告文案、小說寫作、知識類寫作、代碼生成等。"
|
527
538
|
},
|
539
|
+
"chatglm3-6b-base": {
|
540
|
+
"description": "ChatGLM3-6b-base 是由智譜開發的 ChatGLM 系列最新一代的 60 億參數規模的開源的基礎模型。"
|
541
|
+
},
|
528
542
|
"chatgpt-4o-latest": {
|
529
543
|
"description": "ChatGPT-4o是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。"
|
530
544
|
},
|
@@ -600,12 +614,39 @@
|
|
600
614
|
"cohere-command-r-plus": {
|
601
615
|
"description": "Command R+是一個最先進的RAG優化模型,旨在應對企業級工作負載。"
|
602
616
|
},
|
617
|
+
"command": {
|
618
|
+
"description": "一個遵循指令的對話模型,在語言任務中表現出高質量、更可靠,並且相比我們的基礎生成模型具有更長的上下文長度。"
|
619
|
+
},
|
620
|
+
"command-a-03-2025": {
|
621
|
+
"description": "Command A 是我們迄今為止性能最強的模型,在工具使用、代理、檢索增強生成(RAG)和多語言應用場景方面表現出色。Command A 具有 256K 的上下文長度,僅需兩塊 GPU 即可運行,並且相比於 Command R+ 08-2024,吞吐量提高了 150%。"
|
622
|
+
},
|
623
|
+
"command-light": {
|
624
|
+
"description": "一個更小、更快的 Command 版本,幾乎同樣強大,但速度更快。"
|
625
|
+
},
|
626
|
+
"command-light-nightly": {
|
627
|
+
"description": "為了縮短主要版本發布之間的時間間隔,我們推出了 Command 模型的每夜版本。對於 command-light 系列,這一版本稱為 command-light-nightly。請注意,command-light-nightly 是最新、最具實驗性且(可能)不穩定的版本。每夜版本會定期更新,且不會提前通知,因此不建議在生產環境中使用。"
|
628
|
+
},
|
629
|
+
"command-nightly": {
|
630
|
+
"description": "為了縮短主要版本發布之間的時間間隔,我們推出了 Command 模型的每夜版本。對於 Command 系列,這一版本稱為 command-cightly。請注意,command-nightly 是最新、最具實驗性且(可能)不穩定的版本。每夜版本會定期更新,且不會提前通知,因此不建議在生產環境中使用。"
|
631
|
+
},
|
603
632
|
"command-r": {
|
604
633
|
"description": "Command R 是優化用於對話和長上下文任務的 LLM,特別適合動態交互與知識管理。"
|
605
634
|
},
|
635
|
+
"command-r-03-2024": {
|
636
|
+
"description": "Command R 是一個遵循指令的對話模型,在語言任務方面表現出更高的質量、更可靠,並且相比以往模型具有更長的上下文長度。它可用於複雜的工作流程,如代碼生成、檢索增強生成(RAG)、工具使用和代理。"
|
637
|
+
},
|
638
|
+
"command-r-08-2024": {
|
639
|
+
"description": "command-r-08-2024 是 Command R 模型的更新版本,於 2024 年 8 月發布。"
|
640
|
+
},
|
606
641
|
"command-r-plus": {
|
607
642
|
"description": "Command R+ 是一款高性能的大型語言模型,專為真實企業場景和複雜應用而設計。"
|
608
643
|
},
|
644
|
+
"command-r-plus-04-2024": {
|
645
|
+
"description": "Command R+ 是一個遵循指令的對話模型,在語言任務方面表現出更高的質量、更可靠,並且相比以往模型具有更長的上下文長度。它最適用於複雜的 RAG 工作流和多步工具使用。"
|
646
|
+
},
|
647
|
+
"command-r7b-12-2024": {
|
648
|
+
"description": "command-r7b-12-2024 是一個小型且高效的更新版本,於 2024 年 12 月發布。它在 RAG、工具使用、代理等需要複雜推理和多步處理的任務中表現出色。"
|
649
|
+
},
|
609
650
|
"dall-e-2": {
|
610
651
|
"description": "第二代 DALL·E 模型,支持更真實、準確的圖像生成,解析度是第一代的4倍"
|
611
652
|
},
|
@@ -666,12 +707,24 @@
|
|
666
707
|
"deepseek-r1": {
|
667
708
|
"description": "DeepSeek-R1 是一款強化學習(RL)驅動的推理模型,解決了模型中的重複性和可讀性問題。在 RL 之前,DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、程式碼和推理任務中與 OpenAI-o1 表現相當,並且通過精心設計的訓練方法,提升了整體效果。"
|
668
709
|
},
|
710
|
+
"deepseek-r1-70b-fast-online": {
|
711
|
+
"description": "DeepSeek R1 70B 快速版,支持即時聯網搜索,在保持模型性能的同時提供更快的響應速度。"
|
712
|
+
},
|
713
|
+
"deepseek-r1-70b-online": {
|
714
|
+
"description": "DeepSeek R1 70B 標準版,支持即時聯網搜索,適合需要最新信息的對話和文本處理任務。"
|
715
|
+
},
|
669
716
|
"deepseek-r1-distill-llama-70b": {
|
670
717
|
"description": "DeepSeek R1——DeepSeek 套件中更大更智能的模型——被蒸餾到 Llama 70B 架構中。基於基準測試和人工評估,該模型比原始 Llama 70B 更智能,尤其在需要數學和事實精確性的任務上表現出色。"
|
671
718
|
},
|
672
719
|
"deepseek-r1-distill-llama-8b": {
|
673
720
|
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
|
674
721
|
},
|
722
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
723
|
+
"description": "2025年2月14日首次發布,由千帆大模型研發團隊以 Llama3_70B為base模型(Built with Meta Llama)蒸餾所得,蒸餾數據中也同步添加了千帆的語料。"
|
724
|
+
},
|
725
|
+
"deepseek-r1-distill-qianfan-llama-8b": {
|
726
|
+
"description": "2025年2月14日首次發布,由千帆大模型研發團隊以 Llama3_8B為base模型(Built with Meta Llama)蒸餾所得,蒸餾數據中也同步添加了千帆的語料。"
|
727
|
+
},
|
675
728
|
"deepseek-r1-distill-qwen-1.5b": {
|
676
729
|
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
|
677
730
|
},
|
@@ -684,6 +737,12 @@
|
|
684
737
|
"deepseek-r1-distill-qwen-7b": {
|
685
738
|
"description": "DeepSeek-R1-Distill 系列模型透過知識蒸餾技術,將 DeepSeek-R1 生成的樣本對 Qwen、Llama 等開源模型進行微調後得到。"
|
686
739
|
},
|
740
|
+
"deepseek-r1-fast-online": {
|
741
|
+
"description": "DeepSeek R1 滿血快速版,支持即時聯網搜索,結合了 671B 參數的強大能力和更快的響應速度。"
|
742
|
+
},
|
743
|
+
"deepseek-r1-online": {
|
744
|
+
"description": "DeepSeek R1 滿血版,擁有 671B 參數,支持即時聯網搜索,具有更強大的理解和生成能力。"
|
745
|
+
},
|
687
746
|
"deepseek-reasoner": {
|
688
747
|
"description": "DeepSeek 推出的推理模型。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
|
689
748
|
},
|
@@ -762,6 +821,9 @@
|
|
762
821
|
"ernie-4.0-turbo-8k-preview": {
|
763
822
|
"description": "百度自研的旗艦級超大規模大語言模型,綜合效果表現出色,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀"
|
764
823
|
},
|
824
|
+
"ernie-4.5-8k-preview": {
|
825
|
+
"description": "文心大模型4.5是百度自主研發的新一代原生多模態基礎大模型,通過多個模態聯合建模實現協同優化,多模態理解能力優秀;具備更精進的語言能力,理解、生成、邏輯、記憶能力全面提升,去幻覺、邏輯推理、代碼能力顯著提升。"
|
826
|
+
},
|
765
827
|
"ernie-char-8k": {
|
766
828
|
"description": "百度自研的垂直場景大語言模型,適合遊戲NPC、客服對話、對話角色扮演等應用場景,人設風格更為鮮明、一致,指令遵循能力更強,推理性能更優。"
|
767
829
|
},
|
@@ -1095,9 +1157,6 @@
|
|
1095
1157
|
"hunyuan-turbo": {
|
1096
1158
|
"description": "混元全新一代大語言模型的預覽版,採用全新的混合專家模型(MoE)結構,相較於 hunyuan-pro 推理效率更快,效果表現更強。"
|
1097
1159
|
},
|
1098
|
-
"hunyuan-turbo-20241120": {
|
1099
|
-
"description": "hunyuan-turbo 2024 年 11 月 20 日固定版本,介於 hunyuan-turbo 和 hunyuan-turbo-latest 之間的一個版本。"
|
1100
|
-
},
|
1101
1160
|
"hunyuan-turbo-20241223": {
|
1102
1161
|
"description": "本版本優化:數據指令scaling,大幅提升模型通用泛化能力;大幅提升數學、程式碼、邏輯推理能力;優化文本理解字詞理解相關能力;優化文本創作內容生成質量"
|
1103
1162
|
},
|
@@ -1107,6 +1166,15 @@
|
|
1107
1166
|
"hunyuan-turbo-vision": {
|
1108
1167
|
"description": "混元新一代視覺語言旗艦大模型,採用全新的混合專家模型(MoE)結構,在圖文理解相關的基礎識別、內容創作、知識問答、分析推理等能力上相比前一代模型全面提升。"
|
1109
1168
|
},
|
1169
|
+
"hunyuan-turbos-20250226": {
|
1170
|
+
"description": "hunyuan-TurboS pv2.1.2 固定版本預訓練底座訓練token數升級;數學/邏輯/代碼等思考能力提升;中英文通用體驗效果提升,包括文本創作、文本理解、知識問答、閒聊等。"
|
1171
|
+
},
|
1172
|
+
"hunyuan-turbos-20250313": {
|
1173
|
+
"description": "統一數學解題步驟的風格,加強數學多輪問答。文本創作優化回答風格,去除AI味,增加文采。"
|
1174
|
+
},
|
1175
|
+
"hunyuan-turbos-latest": {
|
1176
|
+
"description": "hunyuan-TurboS 混元旗艦大模型最新版本,具備更強的思考能力,更優的體驗效果。"
|
1177
|
+
},
|
1110
1178
|
"hunyuan-vision": {
|
1111
1179
|
"description": "混元最新多模態模型,支持圖片 + 文本輸入生成文本內容。"
|
1112
1180
|
},
|
@@ -1593,6 +1661,15 @@
|
|
1593
1661
|
"qwen/qwen2.5-coder-7b-instruct": {
|
1594
1662
|
"description": "強大的中型代碼模型,支持 32K 上下文長度,擅長多語言編程。"
|
1595
1663
|
},
|
1664
|
+
"qwen1.5-14b-chat": {
|
1665
|
+
"description": "Qwen1.5 系列是 Qwen2 的 Beta 版本,是一個基於 Transformer 的僅解碼語言模型,在海量數據上進行預訓練。與之前發布的 Qwen 系列版本相比,Qwen1.5 系列 base 與 chat 模型均能支持多種語言,在整體聊天和基礎能力上都得到了提升。Qwen1.5-14b-chat 是其中專用於 chat 場景的 140 億參數的主流大小模型。"
|
1666
|
+
},
|
1667
|
+
"qwen1.5-32b-chat": {
|
1668
|
+
"description": "Qwen1.5 系列是 Qwen2 的 Beta 版本,是一個基於 Transformer 的僅解碼語言模型,在海量數據上進行預訓練。與之前發布的 Qwen 系列版本相比,Qwen1.5 系列 base 與 chat 模型均能支持多種語言,在整體聊天和基礎能力上都得到了提升。Qwen1.5-32b-chat 是其中專用於 chat 場景的 320 億參數的大模型,較於 14b 模型在智能體場景更強,較於 72b 模型推理成本更低。"
|
1669
|
+
},
|
1670
|
+
"qwen1.5-72b-chat": {
|
1671
|
+
"description": "Qwen1.5 系列是 Qwen2 的 Beta 版本,是一個基於 Transformer 的僅解碼語言模型,在海量數據上進行預訓練。與之前發布的 Qwen 系列版本相比,Qwen1.5 系列 base 與 chat 模型均能支持多種語言,在整體聊天和基礎能力上都得到了提升。Qwen1.5-72b-chat 是其中專用於 chat 場景的 720 億參數的大模型。"
|
1672
|
+
},
|
1596
1673
|
"qwen2": {
|
1597
1674
|
"description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
|
1598
1675
|
},
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "在 Cloudflare 的全球網絡上運行由無伺服器 GPU 驅動的機器學習模型。"
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohere 為您帶來最前沿的多語言模型、先進的檢索功能以及為現代企業量身定制的 AI 工作空間 — 一切都集成在一個安全的平台中。"
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "DeepSeek 是一家專注於人工智慧技術研究和應用的公司,其最新模型 DeepSeek-V2.5 融合了通用對話和代碼處理能力,並在人類偏好對齊、寫作任務和指令跟隨等方面實現了顯著提升。"
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "SambaNova Cloud 讓開發者輕鬆使用最佳的開源模型,並享受最快的推理速度。"
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1API 提供可根據需要自行聯網的 DeepSeek 系列模型的訪問,包括標準版和快速版本,支持多種參數規模的模型選擇。"
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "商湯日日新,依托商湯大裝置的強大基礎支撐,提供高效易用的全棧大模型服務。"
|
106
112
|
},
|
package/package.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
{
|
2
2
|
"name": "@lobehub/chat",
|
3
|
-
"version": "1.74.
|
3
|
+
"version": "1.74.3",
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
5
5
|
"keywords": [
|
6
6
|
"framework",
|
@@ -69,6 +69,10 @@ const Checker = memo<ConnectionCheckerProps>(
|
|
69
69
|
const [error, setError] = useState<ChatMessageError | undefined>();
|
70
70
|
|
71
71
|
const checkConnection = async () => {
|
72
|
+
// Clear previous check results immediately
|
73
|
+
setPass(false);
|
74
|
+
setError(undefined);
|
75
|
+
|
72
76
|
let isError = false;
|
73
77
|
|
74
78
|
await chatService.fetchPresetTaskResult({
|