@lobehub/chat 1.57.0 → 1.58.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/docker-compose/local/docker-compose.yml +1 -0
- package/locales/ar/modelProvider.json +24 -0
- package/locales/ar/models.json +60 -0
- package/locales/ar/providers.json +12 -0
- package/locales/bg-BG/modelProvider.json +24 -0
- package/locales/bg-BG/models.json +60 -0
- package/locales/bg-BG/providers.json +12 -0
- package/locales/de-DE/modelProvider.json +24 -0
- package/locales/de-DE/models.json +60 -0
- package/locales/de-DE/providers.json +12 -0
- package/locales/en-US/modelProvider.json +24 -0
- package/locales/en-US/models.json +60 -0
- package/locales/en-US/providers.json +12 -0
- package/locales/es-ES/modelProvider.json +24 -0
- package/locales/es-ES/models.json +60 -0
- package/locales/es-ES/providers.json +12 -0
- package/locales/fa-IR/modelProvider.json +30 -0
- package/locales/fa-IR/models.json +60 -0
- package/locales/fa-IR/providers.json +12 -0
- package/locales/fr-FR/modelProvider.json +24 -0
- package/locales/fr-FR/models.json +60 -0
- package/locales/fr-FR/providers.json +12 -0
- package/locales/it-IT/modelProvider.json +24 -0
- package/locales/it-IT/models.json +60 -0
- package/locales/it-IT/providers.json +12 -0
- package/locales/ja-JP/modelProvider.json +24 -0
- package/locales/ja-JP/models.json +60 -0
- package/locales/ja-JP/providers.json +12 -0
- package/locales/ko-KR/modelProvider.json +24 -0
- package/locales/ko-KR/models.json +60 -0
- package/locales/ko-KR/providers.json +12 -0
- package/locales/nl-NL/modelProvider.json +24 -0
- package/locales/nl-NL/models.json +60 -0
- package/locales/nl-NL/providers.json +12 -0
- package/locales/pl-PL/modelProvider.json +24 -0
- package/locales/pl-PL/models.json +60 -0
- package/locales/pl-PL/providers.json +12 -0
- package/locales/pt-BR/modelProvider.json +24 -0
- package/locales/pt-BR/models.json +60 -0
- package/locales/pt-BR/providers.json +12 -0
- package/locales/ru-RU/modelProvider.json +24 -0
- package/locales/ru-RU/models.json +60 -0
- package/locales/ru-RU/providers.json +12 -0
- package/locales/tr-TR/modelProvider.json +30 -0
- package/locales/tr-TR/models.json +60 -0
- package/locales/tr-TR/providers.json +12 -0
- package/locales/vi-VN/modelProvider.json +24 -0
- package/locales/vi-VN/models.json +60 -0
- package/locales/vi-VN/providers.json +12 -0
- package/locales/zh-CN/modelProvider.json +24 -0
- package/locales/zh-CN/models.json +1112 -1052
- package/locales/zh-CN/providers.json +80 -68
- package/locales/zh-TW/modelProvider.json +24 -0
- package/locales/zh-TW/models.json +60 -0
- package/locales/zh-TW/providers.json +12 -0
- package/package.json +4 -2
- package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/File.tsx +1 -1
- package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/index.tsx +19 -9
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/index.tsx +1 -2
- package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/Main.tsx +15 -1
- package/src/app/[variants]/(main)/chat/(workspace)/_layout/Mobile/ChatHeader/index.tsx +0 -2
- package/src/app/[variants]/(main)/chat/(workspace)/features/AgentSettings/index.tsx +1 -1
- package/src/app/[variants]/(main)/chat/settings/page.tsx +95 -5
- package/src/app/[variants]/(main)/settings/provider/(detail)/azureai/page.tsx +58 -0
- package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +13 -2
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/Form.tsx +6 -8
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/index.tsx +5 -6
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/ModelConfigModal/index.tsx +4 -3
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/ProviderSettingsContext.ts +2 -0
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/index.tsx +6 -7
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +1 -1
- package/src/config/aiModels/azureai.ts +18 -0
- package/src/config/aiModels/index.ts +3 -0
- package/src/config/modelProviders/azure.ts +2 -1
- package/src/config/modelProviders/azureai.ts +19 -0
- package/src/config/modelProviders/index.ts +3 -0
- package/src/database/server/models/aiProvider.ts +2 -0
- package/src/features/AgentSetting/AgentMeta/index.tsx +19 -9
- package/src/features/AgentSetting/AgentPrompt/index.tsx +32 -2
- package/src/features/AgentSetting/AgentSettings.tsx +4 -5
- package/src/features/AgentSetting/AgentSettingsProvider.tsx +17 -0
- package/src/features/AgentSetting/StoreUpdater.tsx +5 -2
- package/src/features/AgentSetting/index.tsx +1 -1
- package/src/features/AgentSetting/store/initialState.ts +2 -1
- package/src/hooks/useInterceptingRoutes.test.ts +1 -1
- package/src/hooks/useInterceptingRoutes.ts +1 -1
- package/src/layout/GlobalProvider/StoreInitialization.tsx +1 -1
- package/src/libs/agent-runtime/AgentRuntime.ts +13 -6
- package/src/libs/agent-runtime/azureai/index.ts +109 -0
- package/src/libs/agent-runtime/baichuan/index.test.ts +8 -250
- package/src/libs/agent-runtime/cloudflare/index.ts +22 -18
- package/src/libs/agent-runtime/index.ts +1 -0
- package/src/libs/agent-runtime/types/type.ts +1 -0
- package/src/libs/agent-runtime/utils/streams/__snapshots__/protocol.test.ts.snap +331 -0
- package/src/libs/agent-runtime/utils/streams/protocol.test.ts +137 -0
- package/src/libs/agent-runtime/utils/streams/protocol.ts +34 -0
- package/src/locales/default/modelProvider.ts +25 -0
- package/src/server/modules/AgentRuntime/index.ts +8 -1
- package/src/services/chat.ts +12 -3
- package/src/store/agent/slices/chat/action.test.ts +3 -3
- package/src/store/agent/slices/chat/action.ts +2 -5
- package/src/types/aiProvider.ts +1 -0
- package/src/types/user/settings/keyVaults.ts +1 -0
- package/src/app/[variants]/(main)/chat/settings/features/EditPage.tsx +0 -45
- package/src/features/AgentSetting/AgentSettingsStore.tsx +0 -14
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/Image.tsx +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/index.tsx +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/style.ts +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/index.tsx +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/InputArea/Container.tsx +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/InputArea/index.tsx +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Send.tsx +0 -0
@@ -1,122 +1,134 @@
|
|
1
1
|
{
|
2
|
-
"
|
3
|
-
"description": "
|
2
|
+
"ai21": {
|
3
|
+
"description": "AI21 Labs 为企业构建基础模型和人工智能系统,加速生成性人工智能在生产中的应用。"
|
4
|
+
},
|
5
|
+
"ai360": {
|
6
|
+
"description": "360 AI 是 360 公司推出的 AI 模型和服务平台,提供多种先进的自然语言处理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。这些模型结合了大规模参数和多模态能力,广泛应用于文本生成、语义理解、对话系统与代码生成等领域。通过灵活的定价策略,360 AI 满足多样化用户需求,支持开发者集成,推动智能化应用的革新和发展。"
|
7
|
+
},
|
8
|
+
"anthropic": {
|
9
|
+
"description": "Anthropic 是一家专注于人工智能研究和开发的公司,提供了一系列先进的语言模型,如 Claude 3.5 Sonnet、Claude 3 Sonnet、Claude 3 Opus 和 Claude 3 Haiku。这些模型在智能、速度和成本之间取得了理想的平衡,适用于从企业级工作负载到快速响应的各种应用场景。Claude 3.5 Sonnet 作为其最新模型,在多项评估中表现优异,同时保持了较高的性价比。"
|
4
10
|
},
|
5
11
|
"azure": {
|
6
12
|
"description": "Azure 提供多种先进的AI模型,包括GPT-3.5和最新的GPT-4系列,支持多种数据类型和复杂任务,致力于安全、可靠和可持续的AI解决方案。"
|
7
13
|
},
|
8
|
-
"
|
9
|
-
"description": "
|
14
|
+
"azureai": {
|
15
|
+
"description": "Azure 提供多种先进的AI模型,包括GPT-3.5和最新的GPT-4系列,支持多种数据类型和复杂任务,致力于安全、可靠和可持续的AI解决方案。"
|
10
16
|
},
|
11
|
-
"
|
12
|
-
"description": "
|
17
|
+
"baichuan": {
|
18
|
+
"description": "百川智能是一家专注于人工智能大模型研发的公司,其模型在国内知识百科、长文本处理和生成创作等中文任务上表现卓越,超越了国外主流模型。百川智能还具备行业领先的多模态能力,在多项权威评测中表现优异。其模型包括 Baichuan 4、Baichuan 3 Turbo 和 Baichuan 3 Turbo 128k 等,分别针对不同应用场景进行优化,提供高性价比的解决方案。"
|
13
19
|
},
|
14
20
|
"bedrock": {
|
15
21
|
"description": "Bedrock 是亚马逊 AWS 提供的一项服务,专注于为企业提供先进的 AI 语言模型和视觉模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵盖从轻量级到高性能的多种选择,支持文本生成、对话、图像处理等多种任务,适用于不同规模和需求的企业应用。"
|
16
22
|
},
|
17
|
-
"
|
18
|
-
"description": "
|
23
|
+
"cloudflare": {
|
24
|
+
"description": "在 Cloudflare 的全球网络上运行由无服务器 GPU 驱动的机器学习模型。"
|
19
25
|
},
|
20
26
|
"deepseek": {
|
21
27
|
"description": "DeepSeek 是一家专注于人工智能技术研究和应用的公司,其最新模型 DeepSeek-V3 多项评测成绩超越 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,性能对齐领军闭源模型 GPT-4o 与 Claude-3.5-Sonnet。"
|
22
28
|
},
|
23
|
-
"
|
24
|
-
"description": "
|
29
|
+
"doubao": {
|
30
|
+
"description": "字节跳动推出的自研大模型。通过字节跳动内部50+业务场景实践验证,每日万亿级tokens大使用量持续打磨,提供多种模态能力,以优质模型效果为企业打造丰富的业务体验。"
|
25
31
|
},
|
26
|
-
"
|
27
|
-
"description": "
|
32
|
+
"fireworksai": {
|
33
|
+
"description": "Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。"
|
28
34
|
},
|
29
|
-
"
|
30
|
-
"description": "
|
35
|
+
"giteeai": {
|
36
|
+
"description": "Gitee AI 的 Serverless API 为 AI 开发者提供开箱即用的大模型推理 API 服务。"
|
31
37
|
},
|
32
38
|
"github": {
|
33
39
|
"description": "通过GitHub模型,开发人员可以成为AI工程师,并使用行业领先的AI模型进行构建。"
|
34
40
|
},
|
35
|
-
"
|
36
|
-
"description": "
|
37
|
-
},
|
38
|
-
"togetherai": {
|
39
|
-
"description": "Together AI 致力于通过创新的 AI 模型实现领先的性能,提供广泛的自定义能力,包括快速扩展支持和直观的部署流程,满足企业的各种需求。"
|
40
|
-
},
|
41
|
-
"fireworksai": {
|
42
|
-
"description": "Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。"
|
41
|
+
"google": {
|
42
|
+
"description": "Google 的 Gemini 系列是其最先进、通用的 AI模型,由 Google DeepMind 打造,专为多模态设计,支持文本、代码、图像、音频和视频的无缝理解与处理。适用于从数据中心到移动设备的多种环境,极大提升了AI模型的效率与应用广泛性。"
|
43
43
|
},
|
44
44
|
"groq": {
|
45
45
|
"description": "Groq 的 LPU 推理引擎在最新的独立大语言模型(LLM)基准测试中表现卓越,以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。"
|
46
46
|
},
|
47
|
-
"
|
48
|
-
"description": "
|
47
|
+
"higress": {
|
48
|
+
"description": "Higress 是一款云原生 API 网关,在阿里内部为解决 Tengine reload 对长连接业务有损,以及 gRPC/Dubbo 负载均衡能力不足而诞生。"
|
49
|
+
},
|
50
|
+
"huggingface": {
|
51
|
+
"description": "HuggingFace Inference API 提供了一种快速且免费的方式,让您可以探索成千上万种模型,适用于各种任务。无论您是在为新应用程序进行原型设计,还是在尝试机器学习的功能,这个 API 都能让您即时访问多个领域的高性能模型。"
|
52
|
+
},
|
53
|
+
"hunyuan": {
|
54
|
+
"description": "由腾讯研发的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力"
|
55
|
+
},
|
56
|
+
"internlm": {
|
57
|
+
"description": "致力于大模型研究与开发工具链的开源组织。为所有 AI 开发者提供高效、易用的开源平台,让最前沿的大模型与算法技术触手可及"
|
58
|
+
},
|
59
|
+
"jina": {
|
60
|
+
"description": "Jina AI 成立于 2020 年,是一家领先的搜索 AI 公司。我们的搜索底座平台包含了向量模型、重排器和小语言模型,可帮助企业构建可靠且高质量的生成式AI和多模态的搜索应用。"
|
61
|
+
},
|
62
|
+
"lmstudio": {
|
63
|
+
"description": "LM Studio 是一个用于在您的计算机上开发和实验 LLMs 的桌面应用程序。"
|
64
|
+
},
|
65
|
+
"minimax": {
|
66
|
+
"description": "MiniMax 是 2021 年成立的通用人工智能科技公司,致力于与用户共创智能。MiniMax 自主研发了不同模态的通用大模型,其中包括万亿参数的 MoE 文本大模型、语音大模型以及图像大模型。并推出了海螺 AI 等应用。"
|
49
67
|
},
|
50
68
|
"mistral": {
|
51
69
|
"description": "Mistral 提供先进的通用、专业和研究型模型,广泛应用于复杂推理、多语言任务、代码生成等领域,通过功能调用接口,用户可以集成自定义功能,实现特定应用。"
|
52
70
|
},
|
53
|
-
"
|
54
|
-
"description": "
|
71
|
+
"moonshot": {
|
72
|
+
"description": "Moonshot 是由北京月之暗面科技有限公司推出的开源平台,提供多种自然语言处理模型,应用领域广泛,包括但不限于内容创作、学术研究、智能推荐、医疗诊断等,支持长文本处理和复杂生成任务。"
|
55
73
|
},
|
56
|
-
"
|
57
|
-
"description": "
|
74
|
+
"novita": {
|
75
|
+
"description": "Novita AI 是一个提供多种大语言模型与 AI 图像生成的 API 服务的平台,灵活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的开源模型,并为生成式 AI 应用开发提供了全面、用户友好且自动扩展的 API 解决方案,适合 AI 初创公司的快速发展。"
|
58
76
|
},
|
59
|
-
"
|
60
|
-
"description": "
|
77
|
+
"nvidia": {
|
78
|
+
"description": "NVIDIA NIM™ 提供容器,可用于自托管 GPU 加速推理微服务,支持在云端、数据中心、RTX™ AI 个人电脑和工作站上部署预训练和自定义 AI 模型。"
|
61
79
|
},
|
62
|
-
"
|
63
|
-
"description": "
|
80
|
+
"ollama": {
|
81
|
+
"description": "Ollama 提供的模型广泛涵盖代码生成、数学运算、多语种处理和对话互动等领域,支持企业级和本地化部署的多样化需求。"
|
64
82
|
},
|
65
|
-
"
|
66
|
-
"description": "
|
83
|
+
"openai": {
|
84
|
+
"description": "OpenAI 是全球领先的人工智能研究机构,其开发的模型如GPT系列推动了自然语言处理的前沿。OpenAI 致力于通过创新和高效的AI解决方案改变多个行业。他们的产品具有显著的性能和经济性,广泛用于研究、商业和创新应用。"
|
67
85
|
},
|
68
|
-
"
|
69
|
-
"description": "
|
86
|
+
"openrouter": {
|
87
|
+
"description": "OpenRouter 是一个提供多种前沿大模型接口的服务平台,支持 OpenAI、Anthropic、LLaMA 及更多,适合多样化的开发和应用需求。用户可根据自身需求灵活选择最优的模型和价格,助力AI体验的提升。"
|
70
88
|
},
|
71
|
-
"
|
72
|
-
"description": "
|
89
|
+
"perplexity": {
|
90
|
+
"description": "Perplexity 是一家领先的对话生成模型提供商,提供多种先进的Llama 3.1模型,支持在线和离线应用,特别适用于复杂的自然语言处理任务。"
|
73
91
|
},
|
74
|
-
"
|
75
|
-
"description": "
|
92
|
+
"qwen": {
|
93
|
+
"description": "通义千问是阿里云自主研发的超大规模语言模型,具有强大的自然语言理解和生成能力。它可以回答各种问题、创作文字内容、表达观点看法、撰写代码等,在多个领域发挥作用。"
|
94
|
+
},
|
95
|
+
"sensenova": {
|
96
|
+
"description": "商汤日日新,依托商汤大装置的强大的基础支撑,提供高效易用的全栈大模型服务。"
|
76
97
|
},
|
77
98
|
"siliconcloud": {
|
78
99
|
"description": "SiliconCloud,基于优秀开源基础模型的高性价比 GenAI 云服务"
|
79
100
|
},
|
80
|
-
"zeroone": {
|
81
|
-
"description": "零一万物致力于推动以人为本的AI 2.0技术革命,旨在通过大语言模型创造巨大的经济和社会价值,并开创新的AI生态与商业模式。"
|
82
|
-
},
|
83
101
|
"spark": {
|
84
102
|
"description": "科大讯飞星火大模型提供多领域、多语言的强大 AI 能力,利用先进的自然语言处理技术,构建适用于智能硬件、智慧医疗、智慧金融等多种垂直场景的创新应用。"
|
85
103
|
},
|
86
|
-
"sensenova": {
|
87
|
-
"description": "商汤日日新,依托商汤大装置的强大的基础支撑,提供高效易用的全栈大模型服务。"
|
88
|
-
},
|
89
104
|
"stepfun": {
|
90
105
|
"description": "阶级星辰大模型具备行业领先的多模态及复杂推理能力,支持超长文本理解和强大的自主调度搜索引擎功能。"
|
91
106
|
},
|
92
|
-
"
|
93
|
-
"description": "
|
94
|
-
},
|
95
|
-
"baichuan": {
|
96
|
-
"description": "百川智能是一家专注于人工智能大模型研发的公司,其模型在国内知识百科、长文本处理和生成创作等中文任务上表现卓越,超越了国外主流模型。百川智能还具备行业领先的多模态能力,在多项权威评测中表现优异。其模型包括 Baichuan 4、Baichuan 3 Turbo 和 Baichuan 3 Turbo 128k 等,分别针对不同应用场景进行优化,提供高性价比的解决方案。"
|
107
|
+
"taichu": {
|
108
|
+
"description": "中科院自动化研究所和武汉人工智能研究院推出新一代多模态大模型,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力,带来全新互动体验。"
|
97
109
|
},
|
98
|
-
"
|
99
|
-
"description": "
|
110
|
+
"tencentcloud": {
|
111
|
+
"description": "知识引擎原子能力(LLM Knowledge Engine Atomic Power)基于知识引擎研发的知识问答全链路能力,面向企业及开发者,提供灵活组建及开发模型应用的能力。您可通过多款原子能力组建您专属的模型服务,调用文档解析、拆分、embedding、多轮改写等服务进行组装,定制企业专属 AI 业务。"
|
100
112
|
},
|
101
|
-
"
|
102
|
-
"description": "
|
113
|
+
"togetherai": {
|
114
|
+
"description": "Together AI 致力于通过创新的 AI 模型实现领先的性能,提供广泛的自定义能力,包括快速扩展支持和直观的部署流程,满足企业的各种需求。"
|
103
115
|
},
|
104
|
-
"
|
105
|
-
"description": "
|
116
|
+
"upstage": {
|
117
|
+
"description": "Upstage 专注于为各种商业需求开发AI模型,包括 Solar LLM 和文档 AI,旨在实现工作的人造通用智能(AGI)。通过 Chat API 创建简单的对话代理,并支持功能调用、翻译、嵌入以及特定领域应用。"
|
106
118
|
},
|
107
|
-
"
|
108
|
-
"description": "
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM 是一个快速且易于使用的库,用于 LLM 推理和服务。"
|
109
121
|
},
|
110
|
-
"
|
111
|
-
"description": "
|
122
|
+
"wenxin": {
|
123
|
+
"description": "企业级一站式大模型与AI原生应用开发及服务平台,提供最全面易用的生成式人工智能模型开发、应用开发全流程工具链"
|
112
124
|
},
|
113
|
-
"
|
114
|
-
"description": "
|
125
|
+
"xai": {
|
126
|
+
"description": "xAI 是一家致力于构建人工智能以加速人类科学发现的公司。我们的使命是推动我们对宇宙的共同理解。"
|
115
127
|
},
|
116
|
-
"
|
117
|
-
"description": "
|
128
|
+
"zeroone": {
|
129
|
+
"description": "零一万物致力于推动以人为本的AI 2.0技术革命,旨在通过大语言模型创造巨大的经济和社会价值,并开创新的AI生态与商业模式。"
|
118
130
|
},
|
119
|
-
"
|
120
|
-
"description": "
|
131
|
+
"zhipu": {
|
132
|
+
"description": "智谱 AI 提供多模态与语言模型的开放平台,支持广泛的AI应用场景,包括文本处理、图像理解与编程辅助等。"
|
121
133
|
}
|
122
|
-
}
|
134
|
+
}
|
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "API 金鑰"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "Azure 的 API 版本,遵循 YYYY-MM-DD 格式,查閱[最新版本](https://learn.microsoft.com/zh-tw/azure/ai-services/openai/reference#chat-completions)",
|
25
|
+
"fetch": "獲取列表",
|
26
|
+
"title": "Azure API 版本"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "從 Azure AI 專案概述找到 Azure AI 模型推理終結點",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "Azure AI 終結點"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "從 Azure AI 專案概述找到 API 密鑰",
|
36
|
+
"placeholder": "Azure 密鑰",
|
37
|
+
"title": "密鑰"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "填入AWS Access Key Id",
|
@@ -97,6 +115,7 @@
|
|
97
115
|
"title": "代理地址"
|
98
116
|
},
|
99
117
|
"sdkType": {
|
118
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
119
|
"required": "請選擇 SDK 類型",
|
101
120
|
"title": "請求格式"
|
102
121
|
},
|
@@ -210,6 +229,11 @@
|
|
210
229
|
"placeholder": "請輸入 Azure 中的模型部署名稱",
|
211
230
|
"title": "模型部署名稱"
|
212
231
|
},
|
232
|
+
"deployName": {
|
233
|
+
"extra": "發送請求時會將該字段作為模型 ID",
|
234
|
+
"placeholder": "請輸入模型實際部署的名稱或 id",
|
235
|
+
"title": "模型部署名稱"
|
236
|
+
},
|
213
237
|
"displayName": {
|
214
238
|
"placeholder": "請輸入模型的展示名稱,例如 ChatGPT、GPT-4 等",
|
215
239
|
"title": "模型展示名稱"
|
@@ -578,6 +578,9 @@
|
|
578
578
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
579
579
|
"description": "DeepSeek 67B 是為高複雜性對話訓練的先進模型。"
|
580
580
|
},
|
581
|
+
"deepseek-ai/deepseek-r1": {
|
582
|
+
"description": "最先進的高效 LLM,擅長推理、數學和編程。"
|
583
|
+
},
|
581
584
|
"deepseek-ai/deepseek-vl2": {
|
582
585
|
"description": "DeepSeek-VL2 是一個基於 DeepSeekMoE-27B 開發的混合專家(MoE)視覺語言模型,採用稀疏激活的 MoE 架構,在僅激活 4.5B 參數的情況下實現了卓越性能。該模型在視覺問答、光學字符識別、文檔/表格/圖表理解和視覺定位等多個任務中表現優異。"
|
583
586
|
},
|
@@ -629,6 +632,12 @@
|
|
629
632
|
"deepseek/deepseek-chat": {
|
630
633
|
"description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力,還更好地對齊了人類偏好。此外,DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。"
|
631
634
|
},
|
635
|
+
"deepseek/deepseek-r1": {
|
636
|
+
"description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
|
637
|
+
},
|
638
|
+
"deepseek/deepseek-r1:free": {
|
639
|
+
"description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
|
640
|
+
},
|
632
641
|
"emohaa": {
|
633
642
|
"description": "Emohaa是一個心理模型,具備專業諮詢能力,幫助用戶理解情感問題。"
|
634
643
|
},
|
@@ -821,12 +830,18 @@
|
|
821
830
|
"google/gemini-pro-1.5": {
|
822
831
|
"description": "Gemini 1.5 Pro 結合最新的優化技術,帶來更高效的多模態數據處理能力。"
|
823
832
|
},
|
833
|
+
"google/gemma-2-27b": {
|
834
|
+
"description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。"
|
835
|
+
},
|
824
836
|
"google/gemma-2-27b-it": {
|
825
837
|
"description": "Gemma 2 延續了輕量化與高效的設計理念。"
|
826
838
|
},
|
827
839
|
"google/gemma-2-2b-it": {
|
828
840
|
"description": "Google的輕量級指令調優模型"
|
829
841
|
},
|
842
|
+
"google/gemma-2-9b": {
|
843
|
+
"description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。"
|
844
|
+
},
|
830
845
|
"google/gemma-2-9b-it": {
|
831
846
|
"description": "Gemma 2 是 Google 輕量化的開源文本模型系列。"
|
832
847
|
},
|
@@ -998,6 +1013,9 @@
|
|
998
1013
|
"internlm3-latest": {
|
999
1014
|
"description": "我們最新的模型系列,有著卓越的推理性能,領跑同量級開源模型。默認指向我們最新發布的 InternLM3 系列模型"
|
1000
1015
|
},
|
1016
|
+
"jina-deepsearch-v1": {
|
1017
|
+
"description": "深度搜索結合了網路搜索、閱讀和推理,可進行全面調查。您可以將其視為一個代理,接受您的研究任務 - 它會進行廣泛搜索並經過多次迭代,然後才能給出答案。這個過程涉及持續的研究、推理和從各個角度解決問題。這與直接從預訓練數據生成答案的標準大模型以及依賴一次性表面搜索的傳統 RAG 系統有著根本的不同。"
|
1018
|
+
},
|
1001
1019
|
"learnlm-1.5-pro-experimental": {
|
1002
1020
|
"description": "LearnLM 是一個實驗性的、特定於任務的語言模型,經過訓練以符合學習科學原則,可在教學和學習場景中遵循系統指令,充當專家導師等。"
|
1003
1021
|
},
|
@@ -1139,6 +1157,9 @@
|
|
1139
1157
|
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
1140
1158
|
"description": "405B 的 Llama 3.1 Turbo 模型,為大數據處理提供超大容量的上下文支持,在超大規模的人工智慧應用中表現突出。"
|
1141
1159
|
},
|
1160
|
+
"meta-llama/Meta-Llama-3.1-70B": {
|
1161
|
+
"description": "Llama 3.1 是 Meta 推出的領先模型,支持高達 405B 參數,可應用於複雜對話、多語言翻譯和數據分析領域。"
|
1162
|
+
},
|
1142
1163
|
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
1143
1164
|
"description": "LLaMA 3.1 70B 提供多語言的高效對話支持。"
|
1144
1165
|
},
|
@@ -1196,6 +1217,30 @@
|
|
1196
1217
|
"meta.llama3-8b-instruct-v1:0": {
|
1197
1218
|
"description": "Meta Llama 3 是一款面向開發者、研究人員和企業的開放大型語言模型 (LLM),旨在幫助他們構建、實驗並負責任地擴展他們的生成 AI 想法。作為全球社區創新的基礎系統的一部分,它非常適合計算能力和資源有限、邊緣設備和更快的訓練時間。"
|
1198
1219
|
},
|
1220
|
+
"meta/llama-3.1-405b-instruct": {
|
1221
|
+
"description": "高級 LLM,支持合成數據生成、知識蒸餾和推理,適用於聊天機器人、編程和特定領域任務。"
|
1222
|
+
},
|
1223
|
+
"meta/llama-3.1-70b-instruct": {
|
1224
|
+
"description": "賦能複雜對話,具備卓越的上下文理解、推理能力和文本生成能力。"
|
1225
|
+
},
|
1226
|
+
"meta/llama-3.1-8b-instruct": {
|
1227
|
+
"description": "先進的最尖端模型,具備語言理解、卓越的推理能力和文本生成能力。"
|
1228
|
+
},
|
1229
|
+
"meta/llama-3.2-11b-vision-instruct": {
|
1230
|
+
"description": "尖端的視覺-語言模型,擅長從圖像中進行高品質推理。"
|
1231
|
+
},
|
1232
|
+
"meta/llama-3.2-1b-instruct": {
|
1233
|
+
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
|
1234
|
+
},
|
1235
|
+
"meta/llama-3.2-3b-instruct": {
|
1236
|
+
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
|
1237
|
+
},
|
1238
|
+
"meta/llama-3.2-90b-vision-instruct": {
|
1239
|
+
"description": "尖端的視覺-語言模型,擅長從圖像中進行高品質推理。"
|
1240
|
+
},
|
1241
|
+
"meta/llama-3.3-70b-instruct": {
|
1242
|
+
"description": "先進的 LLM,擅長推理、數學、常識和函數調用。"
|
1243
|
+
},
|
1199
1244
|
"microsoft/WizardLM-2-8x22B": {
|
1200
1245
|
"description": "WizardLM 2 是微軟AI提供的語言模型,在複雜對話、多語言、推理和智能助手領域表現尤為出色。"
|
1201
1246
|
},
|
@@ -1292,6 +1337,12 @@
|
|
1292
1337
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
1293
1338
|
"description": "Llama 3.1 Nemotron 70B 是由 NVIDIA 定制的大型語言模型,旨在提高 LLM 生成的回應對用戶查詢的幫助程度。該模型在 Arena Hard、AlpacaEval 2 LC 和 GPT-4-Turbo MT-Bench 等基準測試中表現出色,截至 2024 年 10 月 1 日,在所有三個自動對齊基準測試中排名第一。該模型使用 RLHF(特別是 REINFORCE)、Llama-3.1-Nemotron-70B-Reward 和 HelpSteer2-Preference 提示在 Llama-3.1-70B-Instruct 模型基礎上進行訓練"
|
1294
1339
|
},
|
1340
|
+
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
1341
|
+
"description": "獨特的語言模型,提供無與倫比的準確性和效率表現。"
|
1342
|
+
},
|
1343
|
+
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
1344
|
+
"description": "Llama-3.1-Nemotron-70B-Instruct 是 NVIDIA 定制的大型語言模型,旨在提高 LLM 生成的響應的幫助性。"
|
1345
|
+
},
|
1295
1346
|
"o1": {
|
1296
1347
|
"description": "專注於高級推理和解決複雜問題,包括數學和科學任務。非常適合需要深入上下文理解和代理工作流程的應用程序。"
|
1297
1348
|
},
|
@@ -1406,6 +1457,15 @@
|
|
1406
1457
|
"qwen/qwen-2-7b-instruct:free": {
|
1407
1458
|
"description": "Qwen2 是全新的大型語言模型系列,具有更強的理解和生成能力。"
|
1408
1459
|
},
|
1460
|
+
"qwen/qwen2.5-7b-instruct": {
|
1461
|
+
"description": "面向中文和英文的 LLM,針對語言、編程、數學、推理等領域。"
|
1462
|
+
},
|
1463
|
+
"qwen/qwen2.5-coder-32b-instruct": {
|
1464
|
+
"description": "高級 LLM,支持代碼生成、推理和修復,涵蓋主流編程語言。"
|
1465
|
+
},
|
1466
|
+
"qwen/qwen2.5-coder-7b-instruct": {
|
1467
|
+
"description": "強大的中型代碼模型,支持 32K 上下文長度,擅長多語言編程。"
|
1468
|
+
},
|
1409
1469
|
"qwen2": {
|
1410
1470
|
"description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
|
1411
1471
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"azure": {
|
12
12
|
"description": "Azure 提供多種先進的 AI 模型,包括 GPT-3.5 和最新的 GPT-4 系列,支持多種數據類型和複雜任務,致力於安全、可靠和可持續的 AI 解決方案。"
|
13
13
|
},
|
14
|
+
"azureai": {
|
15
|
+
"description": "Azure 提供多種先進的 AI 模型,包括 GPT-3.5 和最新的 GPT-4 系列,支持多種數據類型和複雜任務,致力於安全、可靠和可持續的 AI 解決方案。"
|
16
|
+
},
|
14
17
|
"baichuan": {
|
15
18
|
"description": "百川智能是一家專注於人工智慧大模型研發的公司,其模型在國內知識百科、長文本處理和生成創作等中文任務上表現卓越,超越了國外主流模型。百川智能還具備行業領先的多模態能力,在多項權威評測中表現優異。其模型包括 Baichuan 4、Baichuan 3 Turbo 和 Baichuan 3 Turbo 128k 等,分別針對不同應用場景進行優化,提供高性價比的解決方案。"
|
16
19
|
},
|
@@ -53,6 +56,9 @@
|
|
53
56
|
"internlm": {
|
54
57
|
"description": "致力於大模型研究與開發工具鏈的開源組織。為所有 AI 開發者提供高效、易用的開源平台,讓最前沿的大模型與算法技術觸手可及"
|
55
58
|
},
|
59
|
+
"jina": {
|
60
|
+
"description": "Jina AI 成立於 2020 年,是一家領先的搜索 AI 公司。我們的搜索底座平台包含了向量模型、重排器和小語言模型,可幫助企業構建可靠且高品質的生成式 AI 和多模態的搜索應用。"
|
61
|
+
},
|
56
62
|
"lmstudio": {
|
57
63
|
"description": "LM Studio 是一個用於在您的電腦上開發和實驗 LLMs 的桌面應用程式。"
|
58
64
|
},
|
@@ -68,6 +74,9 @@
|
|
68
74
|
"novita": {
|
69
75
|
"description": "Novita AI 是一個提供多種大語言模型與 AI 圖像生成的 API 服務的平台,靈活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的開源模型,並為生成式 AI 應用開發提供了全面、用戶友好且自動擴展的 API 解決方案,適合 AI 初創公司的快速發展。"
|
70
76
|
},
|
77
|
+
"nvidia": {
|
78
|
+
"description": "NVIDIA NIM™ 提供容器,可用於自托管 GPU 加速推理微服務,支持在雲端、數據中心、RTX™ AI 個人電腦和工作站上部署預訓練和自定義 AI 模型。"
|
79
|
+
},
|
71
80
|
"ollama": {
|
72
81
|
"description": "Ollama 提供的模型廣泛涵蓋代碼生成、數學運算、多語種處理和對話互動等領域,支持企業級和本地化部署的多樣化需求。"
|
73
82
|
},
|
@@ -107,6 +116,9 @@
|
|
107
116
|
"upstage": {
|
108
117
|
"description": "Upstage 專注於為各種商業需求開發 AI 模型,包括 Solar LLM 和文檔 AI,旨在實現工作的人工通用智能(AGI)。通過 Chat API 創建簡單的對話代理,並支持功能調用、翻譯、嵌入以及特定領域應用。"
|
109
118
|
},
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM 是一個快速且易於使用的庫,用於 LLM 推理和服務。"
|
121
|
+
},
|
110
122
|
"wenxin": {
|
111
123
|
"description": "企業級一站式大模型與AI原生應用開發及服務平台,提供最全面易用的生成式人工智慧模型開發、應用開發全流程工具鏈"
|
112
124
|
},
|
package/package.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
{
|
2
2
|
"name": "@lobehub/chat",
|
3
|
-
"version": "1.
|
3
|
+
"version": "1.58.0",
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
5
5
|
"keywords": [
|
6
6
|
"framework",
|
@@ -109,6 +109,8 @@
|
|
109
109
|
"@aws-sdk/client-bedrock-runtime": "^3.723.0",
|
110
110
|
"@aws-sdk/client-s3": "^3.723.0",
|
111
111
|
"@aws-sdk/s3-request-presigner": "^3.723.0",
|
112
|
+
"@azure-rest/ai-inference": "1.0.0-beta.5",
|
113
|
+
"@azure/core-auth": "^1.9.0",
|
112
114
|
"@cfworker/json-schema": "^4.1.0",
|
113
115
|
"@clerk/localizations": "^3.9.6",
|
114
116
|
"@clerk/nextjs": "^6.10.6",
|
@@ -124,7 +126,7 @@
|
|
124
126
|
"@lobehub/charts": "^1.12.0",
|
125
127
|
"@lobehub/chat-plugin-sdk": "^1.32.4",
|
126
128
|
"@lobehub/chat-plugins-gateway": "^1.9.0",
|
127
|
-
"@lobehub/icons": "^1.
|
129
|
+
"@lobehub/icons": "^1.73.1",
|
128
130
|
"@lobehub/tts": "^1.28.0",
|
129
131
|
"@lobehub/ui": "^1.164.15",
|
130
132
|
"@neondatabase/serverless": "^0.10.4",
|
@@ -8,7 +8,7 @@ import { Flexbox } from 'react-layout-kit';
|
|
8
8
|
import FileIcon from '@/components/FileIcon';
|
9
9
|
import { UploadFileItem } from '@/types/files';
|
10
10
|
|
11
|
-
import UploadDetail from '
|
11
|
+
import UploadDetail from '../../../../../../../../../../../features/ChatInput/components/UploadDetail';
|
12
12
|
|
13
13
|
const useStyles = createStyles(({ css, token }) => ({
|
14
14
|
container: css`
|
@@ -1,8 +1,10 @@
|
|
1
1
|
'use client';
|
2
2
|
|
3
|
+
import { Skeleton } from 'antd';
|
3
4
|
import { useTheme } from 'antd-style';
|
4
5
|
import { TextAreaRef } from 'antd/es/input/TextArea';
|
5
6
|
import { memo, useRef, useState } from 'react';
|
7
|
+
import { Flexbox } from 'react-layout-kit';
|
6
8
|
|
7
9
|
import ActionBar from '@/features/ChatInput/ActionBar';
|
8
10
|
import { ActionKeys } from '@/features/ChatInput/ActionBar/config';
|
@@ -12,6 +14,7 @@ import { useSendMessage } from '@/features/ChatInput/useSend';
|
|
12
14
|
import { useChatStore } from '@/store/chat';
|
13
15
|
import { chatSelectors } from '@/store/chat/selectors';
|
14
16
|
|
17
|
+
import { useInitAgentConfig } from '../../../../_layout/useInitAgentConfig';
|
15
18
|
import Files from './Files';
|
16
19
|
import InputArea from './InputArea';
|
17
20
|
import SendButton from './Send';
|
@@ -33,6 +36,7 @@ const MobileChatInput = memo(() => {
|
|
33
36
|
const ref = useRef<TextAreaRef>(null);
|
34
37
|
const [expand, setExpand] = useState<boolean>(false);
|
35
38
|
const { send: sendMessage, canSend } = useSendMessage();
|
39
|
+
const { isLoading } = useInitAgentConfig();
|
36
40
|
|
37
41
|
const [loading, value, onInput, onStop] = useChatStore((s) => [
|
38
42
|
chatSelectors.isAIGenerating(s),
|
@@ -63,15 +67,21 @@ const MobileChatInput = memo(() => {
|
|
63
67
|
<SendButton disabled={!canSend} loading={loading} onSend={sendMessage} onStop={onStop} />
|
64
68
|
}
|
65
69
|
topAddons={
|
66
|
-
|
67
|
-
<
|
68
|
-
|
69
|
-
|
70
|
-
|
71
|
-
|
72
|
-
|
73
|
-
|
74
|
-
|
70
|
+
isLoading ? (
|
71
|
+
<Flexbox paddingInline={8}>
|
72
|
+
<Skeleton.Button active block size={'small'} />
|
73
|
+
</Flexbox>
|
74
|
+
) : (
|
75
|
+
<>
|
76
|
+
<Files />
|
77
|
+
<ActionBar
|
78
|
+
leftActions={defaultLeftActions}
|
79
|
+
padding={'0 8px'}
|
80
|
+
rightActions={defaultRightActions}
|
81
|
+
rightAreaStartRender={<SaveTopic mobile />}
|
82
|
+
/>
|
83
|
+
</>
|
84
|
+
)
|
75
85
|
}
|
76
86
|
value={value}
|
77
87
|
/>
|
package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/index.tsx
CHANGED
@@ -1,6 +1,5 @@
|
|
1
|
-
import MobileChatInput from '@/features/ChatInput/Mobile';
|
2
|
-
|
3
1
|
import DesktopChatInput from './Desktop';
|
2
|
+
import MobileChatInput from './Mobile';
|
4
3
|
|
5
4
|
const ChatInput = ({ mobile }: { mobile: boolean }) => {
|
6
5
|
const Input = mobile ? MobileChatInput : DesktopChatInput;
|
@@ -42,7 +42,21 @@ const Main = memo(() => {
|
|
42
42
|
const updateSystemStatus = useGlobalStore((s) => s.updateSystemStatus);
|
43
43
|
|
44
44
|
return !init ? (
|
45
|
-
<Flexbox horizontal>
|
45
|
+
<Flexbox gap={4} horizontal>
|
46
|
+
{!isPinned && (
|
47
|
+
<ActionIcon
|
48
|
+
aria-label={t('agents')}
|
49
|
+
icon={showSessionPanel ? PanelLeftClose : PanelLeftOpen}
|
50
|
+
onClick={() => {
|
51
|
+
updateSystemStatus({
|
52
|
+
sessionsWidth: showSessionPanel ? 0 : 320,
|
53
|
+
showSessionPanel: !showSessionPanel,
|
54
|
+
});
|
55
|
+
}}
|
56
|
+
size={DESKTOP_HEADER_ICON_SIZE}
|
57
|
+
title={t('agents')}
|
58
|
+
/>
|
59
|
+
)}
|
46
60
|
<Skeleton
|
47
61
|
active
|
48
62
|
avatar={{ shape: 'circle', size: 'default' }}
|
@@ -3,7 +3,6 @@
|
|
3
3
|
import { MobileNavBar } from '@lobehub/ui/mobile';
|
4
4
|
import { memo, useState } from 'react';
|
5
5
|
|
6
|
-
import { useInitAgentConfig } from '@/app/[variants]/(main)/chat/(workspace)/_layout/useInitAgentConfig';
|
7
6
|
import { INBOX_SESSION_ID } from '@/const/session';
|
8
7
|
import { useQueryRoute } from '@/hooks/useQueryRoute';
|
9
8
|
import { featureFlagsSelectors, useServerConfigStore } from '@/store/serverConfig';
|
@@ -17,7 +16,6 @@ const MobileHeader = memo(() => {
|
|
17
16
|
const [open, setOpen] = useState(false);
|
18
17
|
|
19
18
|
const { isAgentEditable } = useServerConfigStore(featureFlagsSelectors);
|
20
|
-
useInitAgentConfig();
|
21
19
|
|
22
20
|
return (
|
23
21
|
<MobileNavBar
|
@@ -101,7 +101,7 @@ const AgentSettings = memo(() => {
|
|
101
101
|
width={'100%'}
|
102
102
|
>
|
103
103
|
{tab === ChatSettingsTabs.Meta && <AgentMeta />}
|
104
|
-
{tab === ChatSettingsTabs.Prompt && <AgentPrompt
|
104
|
+
{tab === ChatSettingsTabs.Prompt && <AgentPrompt />}
|
105
105
|
{tab === ChatSettingsTabs.Chat && <AgentChat />}
|
106
106
|
{tab === ChatSettingsTabs.Modal && <AgentModal />}
|
107
107
|
{tab === ChatSettingsTabs.TTS && <AgentTTS />}
|