@lobehub/lobehub 2.0.0-next.271 → 2.0.0-next.273

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (93) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/e2e/src/features/home/starter.feature +34 -0
  4. package/e2e/src/steps/home/starter.steps.ts +216 -0
  5. package/locales/ar/common.json +1 -1
  6. package/locales/ar/discover.json +2 -2
  7. package/locales/ar/models.json +38 -9
  8. package/locales/ar/onboarding.json +1 -1
  9. package/locales/ar/providers.json +0 -1
  10. package/locales/bg-BG/common.json +2 -0
  11. package/locales/bg-BG/discover.json +2 -2
  12. package/locales/bg-BG/models.json +45 -10
  13. package/locales/bg-BG/onboarding.json +1 -1
  14. package/locales/bg-BG/providers.json +0 -1
  15. package/locales/de-DE/common.json +2 -0
  16. package/locales/de-DE/discover.json +2 -2
  17. package/locales/de-DE/models.json +34 -9
  18. package/locales/de-DE/onboarding.json +3 -0
  19. package/locales/de-DE/providers.json +0 -1
  20. package/locales/en-US/discover.json +2 -2
  21. package/locales/en-US/models.json +10 -10
  22. package/locales/en-US/providers.json +0 -1
  23. package/locales/es-ES/common.json +2 -0
  24. package/locales/es-ES/discover.json +2 -2
  25. package/locales/es-ES/models.json +29 -10
  26. package/locales/es-ES/onboarding.json +3 -0
  27. package/locales/es-ES/providers.json +0 -1
  28. package/locales/fa-IR/common.json +2 -0
  29. package/locales/fa-IR/discover.json +2 -2
  30. package/locales/fa-IR/models.json +33 -10
  31. package/locales/fa-IR/onboarding.json +3 -0
  32. package/locales/fa-IR/providers.json +0 -1
  33. package/locales/fr-FR/common.json +2 -0
  34. package/locales/fr-FR/discover.json +2 -2
  35. package/locales/fr-FR/models.json +45 -10
  36. package/locales/fr-FR/onboarding.json +3 -0
  37. package/locales/fr-FR/providers.json +0 -1
  38. package/locales/it-IT/common.json +2 -0
  39. package/locales/it-IT/discover.json +2 -2
  40. package/locales/it-IT/models.json +5 -10
  41. package/locales/it-IT/onboarding.json +3 -0
  42. package/locales/it-IT/providers.json +0 -1
  43. package/locales/ja-JP/common.json +2 -0
  44. package/locales/ja-JP/discover.json +2 -2
  45. package/locales/ja-JP/models.json +34 -5
  46. package/locales/ja-JP/onboarding.json +3 -0
  47. package/locales/ja-JP/providers.json +0 -1
  48. package/locales/ko-KR/common.json +2 -0
  49. package/locales/ko-KR/discover.json +2 -2
  50. package/locales/ko-KR/models.json +5 -11
  51. package/locales/ko-KR/onboarding.json +3 -0
  52. package/locales/ko-KR/providers.json +0 -1
  53. package/locales/nl-NL/common.json +2 -0
  54. package/locales/nl-NL/discover.json +2 -2
  55. package/locales/nl-NL/models.json +47 -6
  56. package/locales/nl-NL/onboarding.json +3 -0
  57. package/locales/nl-NL/providers.json +0 -1
  58. package/locales/pl-PL/common.json +2 -0
  59. package/locales/pl-PL/discover.json +2 -2
  60. package/locales/pl-PL/models.json +35 -10
  61. package/locales/pl-PL/onboarding.json +3 -0
  62. package/locales/pl-PL/providers.json +0 -1
  63. package/locales/pt-BR/common.json +2 -0
  64. package/locales/pt-BR/discover.json +2 -2
  65. package/locales/pt-BR/models.json +47 -9
  66. package/locales/pt-BR/onboarding.json +3 -0
  67. package/locales/pt-BR/providers.json +0 -1
  68. package/locales/ru-RU/common.json +2 -0
  69. package/locales/ru-RU/discover.json +2 -2
  70. package/locales/ru-RU/models.json +52 -10
  71. package/locales/ru-RU/onboarding.json +3 -0
  72. package/locales/ru-RU/providers.json +0 -1
  73. package/locales/tr-TR/common.json +2 -0
  74. package/locales/tr-TR/discover.json +2 -2
  75. package/locales/tr-TR/models.json +38 -10
  76. package/locales/tr-TR/onboarding.json +3 -0
  77. package/locales/tr-TR/providers.json +0 -1
  78. package/locales/vi-VN/common.json +2 -0
  79. package/locales/vi-VN/discover.json +2 -2
  80. package/locales/vi-VN/models.json +5 -5
  81. package/locales/vi-VN/onboarding.json +3 -0
  82. package/locales/vi-VN/providers.json +0 -1
  83. package/locales/zh-CN/discover.json +2 -2
  84. package/locales/zh-CN/models.json +41 -9
  85. package/locales/zh-CN/onboarding.json +3 -0
  86. package/locales/zh-CN/providers.json +0 -1
  87. package/locales/zh-TW/common.json +2 -0
  88. package/locales/zh-TW/discover.json +2 -2
  89. package/locales/zh-TW/models.json +43 -9
  90. package/locales/zh-TW/onboarding.json +3 -0
  91. package/locales/zh-TW/providers.json +0 -1
  92. package/package.json +1 -1
  93. package/src/store/home/slices/homeInput/action.ts +6 -3
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
272
272
  "claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
273
273
  "claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型,在多项技能上实现提升,并在多个基准测试中超越前旗舰 Claude 3 Opus。",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型。与 Claude 3 Haiku 相比,其各项能力均有提升,并在多个智能基准测试中超越了此前的最大模型 Claude 3 Opus。",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智能的模型,也是市场上首个混合推理模型,支持近乎即时响应或细致的深度思考,具备精细控制能力。",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智能的模型,也是市场上首个混合推理模型。它既能提供近乎即时的响应,也能展示逐步推理过程,用户可清晰看到思考路径。Sonnet 在编程、数据科学、视觉处理和智能体任务方面表现尤为出色。",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快且最智能的 Haiku 模型,兼具闪电般的速度与深度思考能力。",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快、最智能的 Haiku 模型,具备闪电般的响应速度和增强的推理能力。",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今为止最智能的模型,支持近乎即时响应或逐步深入思考,API 用户可实现精细控制。",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 能够提供近乎即时的响应,或展示清晰的逐步思考过程。",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
289
289
  "codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位。",
358
- "deepseek-chat.description": "DeepSeek V3.2 在推理能力与输出长度之间实现平衡,适用于日常问答与智能体任务。在公开基准测试中达到 GPT-5 水平,并首创将思考过程融入工具使用,在开源智能体评估中表现领先。",
358
+ "deepseek-chat.description": "一款结合通用对话与编程能力的开源模型。它保留了对话模型的通用交流能力和编程模型的强大代码能力,并在偏好对齐方面表现更佳。DeepSeek-V2.5 还提升了写作和指令遵循能力。",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练于 2T 数据(87% 代码,13% 中英文文本)。支持 16K 上下文窗口与中间填充任务,提供项目级代码补全与片段填充。",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版本,支持实时网页搜索,结合 671B 规模能力与更快响应。",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 全量版本,具备 671B 参数与实时网页搜索,提供更强理解与生成能力。",
380
380
  "deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,在数学、编程和推理任务中表现可与 OpenAI-o1 相媲美。",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,在输出前生成思维链以提升准确性,在多个竞赛中取得优异成绩,其推理能力可媲美 Gemini-3.0-Pro。",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 推理模式在给出最终答案前输出思维链,以提升准确性。",
382
382
  "deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超轻量模型,适用于简单问答、分类与低成本推理。",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文能力,适合复杂推理与多轮对话。",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款用于评估与测试的思考模型预览版。",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字节跳动 Seed 团队打造,支持文本与图像输入,可根据提示生成高质量、可控性强的图像。",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字节跳动 Seed 团队推出的图像生成模型,支持文本和图像输入,具备高度可控的高质量图像生成能力,可根据文本提示生成图像。",
475
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1 模型专注于图像编辑,支持文本与图像输入。",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文本与参考图像输入,支持局部精准编辑与复杂全局场景变换。",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] 是一款图像生成模型,偏好更真实自然的美学风格。",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "一款强大的原生多模态图像生成模型。",
480
480
  "fal-ai/imagen4/preview.description": "来自 Google 的高质量图像生成模型。",
481
481
  "fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持通过对话生成与编辑图像。",
482
- "fal-ai/qwen-image-edit.description": "Qwen 团队推出的专业图像编辑模型,支持语义与外观编辑、中英文文本精修、风格迁移、旋转等多种功能。",
483
- "fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具备出色的中文文本渲染能力与多样化视觉风格。",
482
+ "fal-ai/qwen-image-edit.description": "Qwen 团队推出的专业图像编辑模型,支持语义和外观编辑,能精准处理中英文文本,并实现风格迁移、物体旋转等高质量编辑。",
483
+ "fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具备出色的中文文本渲染能力和多样化视觉风格。",
484
484
  "flux-1-schnell.description": "来自 Black Forest Labs 的 120 亿参数文本转图像模型,采用潜在对抗扩散蒸馏技术,可在 1-4 步内生成高质量图像。性能媲美闭源模型,采用 Apache-2.0 许可,适用于个人、研究与商业用途。",
485
485
  "flux-dev.description": "FLUX.1 [dev] 是一款开源权重蒸馏模型,仅限非商业用途。保持接近专业图像质量与指令遵循能力,同时运行更高效,资源利用优于同等规模标准模型。",
486
486
  "flux-kontext-max.description": "最先进的上下文图像生成与编辑模型,结合文本与图像输入,实现精准一致的结果。",
@@ -574,6 +574,38 @@
574
574
  "glm-zero-preview.description": "GLM-Zero-Preview 具备强大的复杂推理能力,在逻辑、数学与编程方面表现出色。",
575
575
  "global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要高质量响应与推理的复杂任务。",
576
576
  "google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash 提供下一代能力,包括卓越速度、原生工具使用、多模态生成与 100 万 token 上下文窗口支持。",
577
+ "google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash 实验版是 Google 最新的多模态实验模型,在世界知识、编程和长上下文处理方面相较前代有显著提升。",
578
+ "google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite 是轻量级 Gemini 变体,默认关闭推理功能以优化延迟和成本,但可通过参数启用。",
579
+ "google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite 提供下一代特性,包括极快速度、内置工具使用、多模态生成和 100 万 token 上下文窗口。",
580
+ "google/gemini-2.0-flash.description": "Gemini 2.0 Flash 是 Google 面向扩展多模态任务的高性能推理模型。",
581
+ "google/gemini-2.5-flash-image-free.description": "Gemini 2.5 Flash Image 免费版,支持有限配额的多模态生成。",
582
+ "google/gemini-2.5-flash-image-preview.description": "Gemini 2.5 Flash 实验模型,支持图像生成。",
583
+ "google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image(Nano Banana)是 Google 的图像生成模型,支持多模态对话。",
584
+ "google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite 是 Gemini 2.5 的轻量级变体,优化延迟和成本,适用于高吞吐场景。",
585
+ "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash 是 Google 最先进的旗舰模型,专为高级推理、编程、数学和科学任务打造。内置“思考”机制,提供更高准确率和更精细的上下文处理。\n\n注意:该模型有两个变体——思考版与非思考版。启用思考功能将显著影响输出计费。\n\n如需启用思考并接收思考 token,请选择带“:thinking”后缀的变体。\n\nGemini 2.5 Flash 还可通过“max reasoning tokens”参数进行配置,详见文档:https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning。",
586
+ "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash 是 Google 最先进的旗舰模型,专为高级推理、编程、数学和科学任务打造。内置“思考”机制,提供更高准确率和更精细的上下文处理。\n\n注意:该模型有两个变体——思考版与非思考版。启用思考功能将显著影响输出计费。\n\n如需启用思考并接收思考 token,请选择带“:thinking”后缀的变体。\n\nGemini 2.5 Flash 还可通过“max reasoning tokens”参数进行配置,详见文档:https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning。",
587
+ "google/gemini-2.5-flash.description": "Gemini 2.5 Flash(Lite/Pro/Flash)是 Google 的模型家族,覆盖从低延迟到高性能推理的多种需求。",
588
+ "google/gemini-2.5-pro-free.description": "Gemini 2.5 Pro 免费版提供有限配额的多模态长上下文支持,适合试用和轻量工作流。",
589
+ "google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview 是 Google 最先进的思考模型,擅长处理代码、数学、STEM 等复杂问题,并能分析大规模数据集、代码库和长文档。",
590
+ "google/gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗舰推理模型,支持长上下文,适用于复杂任务。",
591
+ "google/gemini-3-pro-image-preview-free.description": "Gemini 3 Pro Image 免费版,支持有限配额的多模态生成。",
592
+ "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,支持多模态对话。",
593
+ "google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview 免费版具备与标准版相同的多模态理解与推理能力,但有配额和速率限制,适合试用和低频使用。",
594
+ "google/gemini-3-pro-preview.description": "Gemini 3 Pro 是 Gemini 系列的下一代多模态推理模型,支持文本、音频、图像和视频理解,能处理复杂任务和大型代码库。",
595
+ "google/gemini-embedding-001.description": "一款先进的嵌入模型,在英文、多语言和代码任务中表现出色。",
596
+ "google/gemini-flash-1.5.description": "Gemini 1.5 Flash 针对多模态处理进行了优化,适用于多种复杂任务。",
597
+ "google/gemini-pro-1.5.description": "Gemini 1.5 Pro 融合最新优化技术,实现更高效的多模态数据处理。",
598
+ "google/gemma-2-27b-it.description": "Gemma 2 27B 是一款通用大型语言模型,在多种场景下表现优异。",
599
+ "google/gemma-2-27b.description": "Gemma 2 是 Google 推出的高效模型家族,适用于从小型应用到复杂数据处理的多种场景。",
600
+ "google/gemma-2-2b-it.description": "一款专为边缘应用设计的先进小型语言模型。",
601
+ "google/gemma-2-9b-it.description": "Gemma 2 9B 是 Google 开发的高效模型,具备良好的指令遵循能力和整体性能。",
602
+ "google/gemma-2-9b-it:free.description": "Gemma 2 是 Google 推出的轻量级开源文本模型家族。",
603
+ "google/gemma-2-9b.description": "Gemma 2 是 Google 推出的高效模型家族,适用于从小型应用到复杂数据处理的多种场景。",
604
+ "google/gemma-2b-it.description": "Gemma Instruct(2B)为轻量级应用提供基础指令处理能力。",
605
+ "google/gemma-3-12b-it.description": "Gemma 3 12B 是 Google 推出的开源语言模型,在效率和性能方面树立了新标杆。",
606
+ "google/gemma-3-27b-it.description": "Gemma 3 27B 是 Google 推出的开源语言模型,在效率和性能方面树立了新标杆。",
607
+ "google/text-embedding-005.description": "一款专注于英文任务的文本嵌入模型,针对代码和英文任务进行了优化。",
608
+ "google/text-multilingual-embedding-002.description": "一款多语言文本嵌入模型,针对跨语言任务进行了优化,支持多种语言。",
577
609
  "meta/Llama-3.2-90B-Vision-Instruct.description": "适用于视觉理解代理应用的高级图像推理模型。",
578
610
  "meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先进的多语言开源 Llama 模型,在极低成本下实现接近 405B 的性能。该模型基于 Transformer 架构,并通过 SFT 和 RLHF 提升实用性与安全性。其指令微调版本专为多语言对话优化,在行业基准测试中超越众多开源与闭源聊天模型。知识截止时间:2023 年 12 月。",
579
611
  "meta/Meta-Llama-3-70B-Instruct.description": "一款功能强大的 700 亿参数模型,擅长推理、编程和广泛的语言任务。",
@@ -12,6 +12,9 @@
12
12
  "interests.area.writing": "内容创作",
13
13
  "interests.hint": "可随时在设置中修改",
14
14
  "interests.placeholder": "搜索或输入领域…",
15
+ "interests.title": "你感兴趣的领域有哪些?",
16
+ "interests.title2": "这将帮助我更好地了解你",
17
+ "interests.title3": "慢慢来,我会逐渐了解你",
15
18
  "modeSelection.desc": "选择适合你的工作方式",
16
19
  "modeSelection.hint": "可随时在设置中切换",
17
20
  "modeSelection.lite.desc": "适合日常对话、问答与轻量任务",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。",
30
30
  "jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
31
31
  "lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
32
- "lobehub.description": "LobeHub Cloud 使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。",
33
32
  "minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI,拥有多模态基础模型,包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
34
33
  "mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。",
35
34
  "modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。",
@@ -134,6 +134,8 @@
134
134
  "cmdk.search.communityAgent": "社群助手",
135
135
  "cmdk.search.file": "檔案",
136
136
  "cmdk.search.files": "檔案",
137
+ "cmdk.search.folder": "資料夾",
138
+ "cmdk.search.folders": "資料夾",
137
139
  "cmdk.search.loading": "搜尋中...",
138
140
  "cmdk.search.market": "社群",
139
141
  "cmdk.search.mcp": "MCP 伺服器",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "更多",
57
57
  "assistants.plugins": "集成插件",
58
58
  "assistants.recentSubmits": "最近更新",
59
- "assistants.sorts.recommended": "推薦",
60
59
  "assistants.sorts.createdAt": "最近發布",
61
60
  "assistants.sorts.identifier": "助理 ID",
62
61
  "assistants.sorts.knowledgeCount": "資源庫數量",
63
62
  "assistants.sorts.myown": "查看我的",
64
63
  "assistants.sorts.pluginCount": "外掛數量",
64
+ "assistants.sorts.recommended": "推薦",
65
65
  "assistants.sorts.title": "助理名稱",
66
66
  "assistants.sorts.tokenUsage": "Token 使用量",
67
67
  "assistants.status.archived.reasons.official": "助手因安全/政治等問題被官方下架",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "此助手附帶資源庫",
84
84
  "assistants.withPlugin": "該助理附帶外掛",
85
85
  "back": "返回發現",
86
- "category.assistant.discover": "發現",
87
86
  "category.assistant.academic": "學術",
88
87
  "category.assistant.all": "全部",
89
88
  "category.assistant.career": "職業",
90
89
  "category.assistant.copywriting": "文案",
91
90
  "category.assistant.design": "設計",
91
+ "category.assistant.discover": "發現",
92
92
  "category.assistant.education": "教育",
93
93
  "category.assistant.emotions": "情感",
94
94
  "category.assistant.entertainment": "娛樂",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
272
272
  "claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
273
273
  "claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 最新一代中速度最快的模型,在多項技能上有所提升,並在多項基準測試中超越前一代旗艦 Claude 3 Opus。",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的次世代最快模型。相較於 Claude 3 Haiku,其在多項技能上皆有提升,並在多項智能基準測試中超越先前最大模型 Claude 3 Opus。",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智慧的模型,也是市場上首個混合推理模型,支援即時回應與延伸思考,並提供細緻的控制能力。",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最具智慧的模型,也是市場上首款混合推理模型。它能夠即時回應,或進行可視化的逐步推理。Sonnet 尤其擅長程式設計、資料科學、視覺處理與智能代理任務。",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 迄今最快且最智慧的 Haiku 模型,具備閃電般的速度與延伸思考能力。",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 最快且最聰明的 Haiku 模型,具備閃電般的速度與延伸推理能力。",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜任務而設,表現出色,具備卓越的智慧、流暢度與理解力。",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為高度複雜任務設計,表現出色,具備卓越的智能、流暢度與理解力。",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 目前最智慧的模型,為 API 使用者提供即時回應或逐步推理的能力,並具備細緻控制功能。",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 能夠即時回應,或進行可視化的逐步思考過程。",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
289
289
  "codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。",
358
- "deepseek-chat.description": "DeepSeek V3.2 在推理能力與輸出長度之間取得平衡,適用於日常問答與智能代理任務。其公開基準測試達到 GPT-5 水準,並首創將思考整合至工具使用中,在開源代理評估中表現領先。",
358
+ "deepseek-chat.description": "一款結合通用與程式能力的開源模型。保留對話模型的通用對話能力與程式模型的強大編碼能力,並提升偏好對齊。DeepSeek-V2.5 也改善了寫作與指令遵循能力。",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。",
380
380
  "deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,在輸出前先生成思考鏈(chain-of-thought),以提升準確性,在競賽中表現優異,推理能力媲美 Gemini-3.0-Pro。",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 推理模式會在最終答案前輸出思考鏈,以提升準確性。",
382
382
  "deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超輕量模型,適合簡單問答、分類與低成本推理。",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具備 32K 上下文,適合複雜推理與多輪對話。",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 預覽版是一款思考模型預覽,用於評估與測試。",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字節跳動 Seed 團隊打造,支援文字與圖像輸入,能從提示中生成高品質、可控性強的圖像。",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字節跳動 Seed 團隊推出的圖像生成模型,支援文字與圖像輸入,具備高度可控性與高品質圖像生成能力,可根據文字提示生成圖像。",
475
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1 模型專注於圖像編輯,支援文字與圖像輸入。",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文字與參考圖像輸入,實現目標區域編輯與複雜場景轉換。",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] 是一款圖像生成模型,偏好更真實自然的美學風格。",
@@ -479,7 +479,7 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "一款強大的原生多模態圖像生成模型。",
480
480
  "fal-ai/imagen4/preview.description": "來自 Google 的高品質圖像生成模型。",
481
481
  "fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模態模型,支援透過對話進行圖像生成與編輯。",
482
- "fal-ai/qwen-image-edit.description": "來自 Qwen 團隊的專業圖像編輯模型,支援語義與外觀編輯、中英文文字精準修改、風格轉換、旋轉等功能。",
482
+ "fal-ai/qwen-image-edit.description": "Qwen 團隊推出的專業圖像編輯模型,支援語義與外觀編輯,能精確處理中英文文字,並實現風格轉換、物體旋轉等高品質編輯。",
483
483
  "fal-ai/qwen-image.description": "Qwen 團隊推出的強大圖像生成模型,具備優異的中文文字渲染能力與多樣化視覺風格。",
484
484
  "flux-1-schnell.description": "來自黑森林實驗室的 12B 參數文字轉圖像模型,透過潛在對抗擴散蒸餾技術,在 1 至 4 步內生成高品質圖像。其表現媲美封閉式替代方案,並以 Apache-2.0 授權釋出,供個人、研究與商業用途。",
485
485
  "flux-dev.description": "FLUX.1 [dev] 是一款開放權重的蒸餾模型,僅限非商業用途。它保有接近專業水準的圖像品質與指令遵循能力,同時運行更高效,資源使用優於同等大小的標準模型。",
@@ -592,6 +592,40 @@
592
592
  "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,支援多模態對話。",
593
593
  "google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview 免費版具備與標準版相同的多模態理解與推理能力,但有配額與速率限制,適合試用與低頻使用。",
594
594
  "google/gemini-3-pro-preview.description": "Gemini 3 Pro 是 Gemini 家族的次世代多模態推理模型,能理解文字、音訊、圖像與影片,處理複雜任務與大型程式碼庫。",
595
+ "google/gemini-embedding-001.description": "一款最先進的嵌入模型,在英文、多語言與程式任務中表現優異。",
596
+ "google/gemini-flash-1.5.description": "Gemini 1.5 Flash 提供針對複雜任務的多模態處理最佳化。",
597
+ "google/gemini-pro-1.5.description": "Gemini 1.5 Pro 結合最新優化技術,提升多模態資料處理效率。",
598
+ "google/gemma-2-27b-it.description": "Gemma 2 27B 是一款通用大型語言模型,在多種場景中表現出色。",
599
+ "google/gemma-2-27b.description": "Gemma 2 是 Google 推出的高效模型家族,適用於從小型應用到複雜資料處理的各種場景。",
600
+ "google/gemma-2-2b-it.description": "一款專為邊緣應用設計的先進小型語言模型。",
601
+ "google/gemma-2-9b-it.description": "由 Google 開發的 Gemma 2 9B,具備高效的指令遵循能力與穩健的整體表現。",
602
+ "google/gemma-2-9b-it:free.description": "Gemma 2 是 Google 推出的輕量級開源文字模型家族。",
603
+ "google/gemma-2-9b.description": "Gemma 2 是 Google 推出的高效模型家族,適用於從小型應用到複雜資料處理的各種場景。",
604
+ "google/gemma-2b-it.description": "Gemma Instruct (2B) 提供基礎指令處理能力,適用於輕量應用。",
605
+ "google/gemma-3-12b-it.description": "Gemma 3 12B 是 Google 推出的開源語言模型,在效率與效能上樹立新標竿。",
606
+ "google/gemma-3-27b-it.description": "Gemma 3 27B 是 Google 推出的開源語言模型,在效率與效能上樹立新標竿。",
607
+ "google/text-embedding-005.description": "一款專注於英文的文字嵌入模型,針對程式與英文任務進行最佳化。",
608
+ "google/text-multilingual-embedding-002.description": "一款多語言文字嵌入模型,針對跨語言任務進行最佳化,支援多種語言。",
609
+ "gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo 用於文字生成與理解,目前指向 gpt-3.5-turbo-0125。",
610
+ "gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo 用於文字生成與理解,目前指向 gpt-3.5-turbo-0125。",
611
+ "gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo 用於文字生成與理解任務,針對指令遵循進行最佳化。",
612
+ "gpt-3.5-turbo.description": "GPT 3.5 Turbo 用於文字生成與理解,目前指向 gpt-3.5-turbo-0125。",
613
+ "gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k 是一款高容量文字生成模型,適用於複雜任務。",
614
+ "gpt-35-turbo.description": "GPT-3.5 Turbo 是 OpenAI 推出的高效模型,支援聊天與文字生成,具備平行函數呼叫能力。",
615
+ "gpt-4-0125-preview.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
616
+ "gpt-4-0613.description": "GPT-4 提供更大的上下文視窗,能處理更長的輸入,適合廣泛資訊整合與資料分析。",
617
+ "gpt-4-1106-preview.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
618
+ "gpt-4-32k-0613.description": "GPT-4 提供更大的上下文視窗,能處理更長的輸入,適合需要廣泛資訊整合與資料分析的場景。",
619
+ "gpt-4-32k.description": "GPT-4 提供更大的上下文視窗,能處理更長的輸入,適合需要廣泛資訊整合與資料分析的場景。",
620
+ "gpt-4-turbo-2024-04-09.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
621
+ "gpt-4-turbo-preview.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
622
+ "gpt-4-turbo.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
623
+ "gpt-4-vision-preview.description": "GPT-4 Vision 預覽版,專為圖像分析與處理任務設計。",
624
+ "gpt-4.1-mini.description": "GPT-4.1 mini 在智慧、速度與成本之間取得平衡,適用於多種應用場景。",
625
+ "gpt-4.1-nano.description": "GPT-4.1 nano 是 GPT-4.1 系列中最快且最具成本效益的模型。",
626
+ "gpt-4.1.description": "GPT-4.1 是我們的旗艦模型,適用於複雜任務與跨領域問題解決。",
627
+ "gpt-4.5-preview.description": "GPT-4.5-preview 是最新的通用模型,具備深厚的世界知識與更佳的意圖理解能力,擅長創意任務與智能代理規劃。知識截止時間為 2023 年 10 月。",
628
+ "gpt-4.description": "GPT-4 提供更大的上下文視窗,能處理更長的輸入,適合廣泛資訊整合與資料分析。",
595
629
  "meta/Llama-3.2-90B-Vision-Instruct.description": "先進的圖像推理能力,適用於視覺理解代理應用。",
596
630
  "meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先進的多語言開源 Llama 模型,以極低成本提供接近 405B 的效能。該模型基於 Transformer 架構,並透過 SFT 與 RLHF 提升實用性與安全性。經指令微調版本針對多語言對話進行最佳化,在業界基準測試中超越多數開放與封閉模型。知識截止時間:2023 年 12 月。",
597
631
  "meta/Meta-Llama-3-70B-Instruct.description": "一款功能強大的 70B 參數模型,擅長推理、程式編寫與廣泛語言任務。",
@@ -12,6 +12,9 @@
12
12
  "interests.area.writing": "內容創作",
13
13
  "interests.hint": "你可以隨時在設定中修改",
14
14
  "interests.placeholder": "請輸入你感興趣的領域...",
15
+ "interests.title": "你對哪些領域感興趣?",
16
+ "interests.title2": "這將幫助我更了解你",
17
+ "interests.title3": "慢慢來,我會更了解你的",
15
18
  "modeSelection.desc": "選擇適合你的使用模式",
16
19
  "modeSelection.hint": "你可以隨時在設定中修改",
17
20
  "modeSelection.lite.desc": "適合日常對話與問答、輕度工作輔助與模型體驗",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "一個專注於大型模型研究與工具的開源組織,提供高效、易用的平台,讓尖端模型與演算法更易於取得。",
30
30
  "jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。",
31
31
  "lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。",
32
- "lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型,並以與模型代幣相關的點數來計算使用量。",
33
32
  "minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI,擁有多模態基礎模型,包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。",
34
33
  "mistral.description": "Mistral 提供先進的通用、專業與研究模型,支援複雜推理、多語言任務與程式碼生成,並支援函式呼叫以實現自訂整合。",
35
34
  "modelscope.description": "ModelScope 是阿里雲的模型即服務平台,提供多樣化的 AI 模型與推理服務。",
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/lobehub",
3
- "version": "2.0.0-next.271",
3
+ "version": "2.0.0-next.273",
4
4
  "description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -119,13 +119,16 @@ export const createHomeInputSlice: StateCreator<
119
119
  const groupStore = getChatGroupStoreState();
120
120
  await groupStore.loadGroups();
121
121
 
122
- // 4. Navigate to Group profile page
122
+ // 4. Refresh sidebar agent list
123
+ get().refreshAgentList();
124
+
125
+ // 5. Navigate to Group profile page
123
126
  const { navigate } = get();
124
127
  if (navigate) {
125
128
  navigate(`/group/${group.id}/profile`);
126
129
  }
127
130
 
128
- // 5. Update groupAgentBuilder's model config and send initial message
131
+ // 6. Update groupAgentBuilder's model config and send initial message
129
132
  const groupAgentBuilderId = builtinAgentSelectors.groupAgentBuilderId(agentState);
130
133
 
131
134
  if (groupAgentBuilderId) {
@@ -141,7 +144,7 @@ export const createHomeInputSlice: StateCreator<
141
144
  });
142
145
  }
143
146
 
144
- // 6. Clear mode
147
+ // 7. Clear mode
145
148
  set({ inputActiveMode: null }, false, n('sendAsGroup/clearMode'));
146
149
 
147
150
  return group.id;