@lobehub/lobehub 2.0.0-next.331 → 2.0.0-next.332
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/e2e/src/support/webServer.ts +95 -43
- package/locales/ar/chat.json +5 -0
- package/locales/ar/desktop-onboarding.json +5 -0
- package/locales/ar/discover.json +15 -0
- package/locales/ar/models.json +35 -0
- package/locales/bg-BG/chat.json +5 -0
- package/locales/bg-BG/desktop-onboarding.json +5 -0
- package/locales/bg-BG/discover.json +15 -0
- package/locales/bg-BG/models.json +30 -0
- package/locales/de-DE/chat.json +5 -0
- package/locales/de-DE/desktop-onboarding.json +5 -0
- package/locales/de-DE/discover.json +15 -0
- package/locales/de-DE/models.json +38 -0
- package/locales/en-US/desktop-onboarding.json +5 -0
- package/locales/en-US/discover.json +14 -0
- package/locales/es-ES/chat.json +5 -0
- package/locales/es-ES/desktop-onboarding.json +5 -0
- package/locales/es-ES/discover.json +15 -0
- package/locales/es-ES/models.json +38 -0
- package/locales/fa-IR/chat.json +5 -0
- package/locales/fa-IR/desktop-onboarding.json +5 -0
- package/locales/fa-IR/discover.json +15 -0
- package/locales/fa-IR/models.json +11 -0
- package/locales/fr-FR/chat.json +5 -0
- package/locales/fr-FR/desktop-onboarding.json +5 -0
- package/locales/fr-FR/discover.json +15 -0
- package/locales/fr-FR/models.json +36 -0
- package/locales/it-IT/chat.json +5 -0
- package/locales/it-IT/desktop-onboarding.json +5 -0
- package/locales/it-IT/discover.json +15 -0
- package/locales/it-IT/models.json +32 -0
- package/locales/ja-JP/chat.json +5 -0
- package/locales/ja-JP/desktop-onboarding.json +5 -0
- package/locales/ja-JP/discover.json +15 -0
- package/locales/ja-JP/models.json +42 -0
- package/locales/ko-KR/chat.json +5 -0
- package/locales/ko-KR/desktop-onboarding.json +5 -0
- package/locales/ko-KR/discover.json +15 -0
- package/locales/ko-KR/models.json +55 -0
- package/locales/nl-NL/chat.json +5 -0
- package/locales/nl-NL/desktop-onboarding.json +5 -0
- package/locales/nl-NL/discover.json +15 -0
- package/locales/nl-NL/models.json +34 -0
- package/locales/pl-PL/chat.json +5 -0
- package/locales/pl-PL/desktop-onboarding.json +5 -0
- package/locales/pl-PL/discover.json +15 -0
- package/locales/pl-PL/models.json +31 -0
- package/locales/pt-BR/chat.json +5 -0
- package/locales/pt-BR/desktop-onboarding.json +5 -0
- package/locales/pt-BR/discover.json +15 -0
- package/locales/pt-BR/models.json +42 -0
- package/locales/ru-RU/chat.json +5 -0
- package/locales/ru-RU/desktop-onboarding.json +5 -0
- package/locales/ru-RU/discover.json +15 -0
- package/locales/ru-RU/models.json +32 -0
- package/locales/tr-TR/chat.json +5 -0
- package/locales/tr-TR/desktop-onboarding.json +5 -0
- package/locales/tr-TR/discover.json +15 -0
- package/locales/tr-TR/models.json +48 -0
- package/locales/vi-VN/chat.json +5 -0
- package/locales/vi-VN/desktop-onboarding.json +5 -0
- package/locales/vi-VN/discover.json +15 -0
- package/locales/vi-VN/models.json +36 -0
- package/locales/zh-CN/desktop-onboarding.json +3 -3
- package/locales/zh-CN/discover.json +14 -0
- package/locales/zh-CN/models.json +1 -0
- package/locales/zh-TW/chat.json +5 -0
- package/locales/zh-TW/desktop-onboarding.json +5 -0
- package/locales/zh-TW/discover.json +15 -0
- package/locales/zh-TW/models.json +42 -0
- package/package.json +1 -1
|
@@ -356,6 +356,42 @@
|
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 là mô hình thị giác-ngôn ngữ MoE dựa trên DeepSeekMoE-27B với kích hoạt thưa, đạt hiệu suất cao với chỉ 4.5B tham số hoạt động. Mô hình vượt trội trong QA thị giác, OCR, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh.",
|
|
358
358
|
"deepseek-chat.description": "Một mô hình mã nguồn mở mới kết hợp khả năng tổng quát và lập trình. Mô hình giữ lại khả năng đối thoại chung của mô hình trò chuyện và khả năng lập trình mạnh mẽ của mô hình lập trình viên, với sự điều chỉnh sở thích tốt hơn. DeepSeek-V2.5 cũng cải thiện khả năng viết và tuân thủ hướng dẫn.",
|
|
359
|
+
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B là mô hình ngôn ngữ lập trình được huấn luyện trên 2 nghìn tỷ token (87% mã nguồn, 13% văn bản tiếng Trung/Anh). Mô hình này hỗ trợ cửa sổ ngữ cảnh 16K và nhiệm vụ điền vào giữa đoạn mã, cung cấp khả năng hoàn thành mã ở cấp độ dự án và chèn đoạn mã chính xác.",
|
|
360
|
+
"deepseek-coder-v2.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.",
|
|
361
|
+
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.",
|
|
362
|
+
"deepseek-ocr.description": "DeepSeek-OCR là mô hình thị giác-ngôn ngữ từ DeepSeek AI tập trung vào nhận dạng ký tự quang học (OCR) và \"nén quang học theo ngữ cảnh\". Mô hình này khám phá cách nén thông tin ngữ cảnh từ hình ảnh, xử lý tài liệu hiệu quả và chuyển đổi chúng thành định dạng văn bản có cấu trúc như Markdown. Nó nhận diện văn bản trong hình ảnh một cách chính xác, lý tưởng cho số hóa tài liệu, trích xuất văn bản và xử lý có cấu trúc.",
|
|
363
|
+
"deepseek-r1-0528.description": "Mô hình đầy đủ 685B được phát hành vào ngày 28-05-2025. DeepSeek-R1 sử dụng học tăng cường quy mô lớn trong giai đoạn hậu huấn luyện, cải thiện đáng kể khả năng suy luận với dữ liệu gán nhãn tối thiểu, và thể hiện hiệu suất vượt trội trong toán học, lập trình và suy luận ngôn ngữ tự nhiên.",
|
|
364
|
+
"deepseek-r1-250528.description": "DeepSeek R1 250528 là mô hình suy luận đầy đủ của DeepSeek-R1 dành cho các tác vụ toán học và logic phức tạp.",
|
|
365
|
+
"deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B phiên bản nhanh với tìm kiếm web thời gian thực, mang lại phản hồi nhanh hơn mà vẫn duy trì hiệu suất.",
|
|
366
|
+
"deepseek-r1-70b-online.description": "DeepSeek R1 70B phiên bản tiêu chuẩn với tìm kiếm web thời gian thực, phù hợp cho trò chuyện và xử lý văn bản cập nhật.",
|
|
367
|
+
"deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B kết hợp khả năng suy luận của R1 với hệ sinh thái Llama.",
|
|
368
|
+
"deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B được chưng cất từ Llama-3.1-8B sử dụng đầu ra từ DeepSeek R1.",
|
|
369
|
+
"deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama được chưng cất từ DeepSeek-R1 trên nền tảng Llama.",
|
|
370
|
+
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B là phiên bản chưng cất R1 dựa trên Qianfan-70B với giá trị vượt trội.",
|
|
371
|
+
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B là phiên bản chưng cất R1 dựa trên Qianfan-8B, phù hợp cho các ứng dụng quy mô nhỏ và trung bình.",
|
|
372
|
+
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B là phiên bản chưng cất R1 dựa trên Llama-70B.",
|
|
373
|
+
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B là mô hình chưng cất siêu nhẹ dành cho môi trường tài nguyên rất hạn chế.",
|
|
374
|
+
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B là mô hình chưng cất cỡ trung cho triển khai đa kịch bản.",
|
|
375
|
+
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B là phiên bản chưng cất R1 dựa trên Qwen-32B, cân bằng giữa hiệu suất và chi phí.",
|
|
376
|
+
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B là mô hình chưng cất nhẹ dành cho môi trường biên và doanh nghiệp riêng tư.",
|
|
377
|
+
"deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen được chưng cất từ DeepSeek-R1 trên nền tảng Qwen.",
|
|
378
|
+
"deepseek-r1-fast-online.description": "Phiên bản đầy đủ DeepSeek R1 nhanh với tìm kiếm web thời gian thực, kết hợp khả năng 671B và phản hồi nhanh hơn.",
|
|
379
|
+
"deepseek-r1-online.description": "Phiên bản đầy đủ DeepSeek R1 với 671B tham số và tìm kiếm web thời gian thực, mang lại khả năng hiểu và tạo nội dung mạnh mẽ hơn.",
|
|
380
|
+
"deepseek-r1.description": "DeepSeek-R1 sử dụng dữ liệu khởi động lạnh trước khi áp dụng học tăng cường và đạt hiệu suất tương đương OpenAI-o1 trong các tác vụ toán học, lập trình và suy luận.",
|
|
381
|
+
"deepseek-reasoner.description": "Chế độ suy nghĩ DeepSeek V3.2 tạo ra chuỗi suy luận trước khi đưa ra câu trả lời cuối cùng nhằm nâng cao độ chính xác.",
|
|
382
|
+
"deepseek-v2.description": "DeepSeek V2 là mô hình MoE hiệu quả cho xử lý tiết kiệm chi phí.",
|
|
383
|
+
"deepseek-v2:236b.description": "DeepSeek V2 236B là mô hình tập trung vào mã nguồn của DeepSeek với khả năng tạo mã mạnh mẽ.",
|
|
384
|
+
"deepseek-v3-0324.description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật về lập trình, khả năng kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài.",
|
|
385
|
+
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus là mô hình LLM tối ưu hóa cho thiết bị đầu cuối từ DeepSeek.",
|
|
386
|
+
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 là mô hình suy nghĩ sâu tương ứng với phiên bản Terminus, được xây dựng cho suy luận hiệu suất cao.",
|
|
387
|
+
"deepseek-v3.1.description": "DeepSeek-V3.1 là mô hình suy luận lai mới từ DeepSeek, hỗ trợ cả chế độ suy nghĩ và không suy nghĩ, mang lại hiệu quả suy luận cao hơn so với DeepSeek-R1-0528. Tối ưu hóa sau huấn luyện giúp cải thiện đáng kể việc sử dụng công cụ và hiệu suất tác vụ của tác nhân. Hỗ trợ cửa sổ ngữ cảnh 128k và đầu ra lên đến 64k token.",
|
|
388
|
+
"deepseek-v3.1:671b.description": "DeepSeek V3.1 là mô hình suy luận thế hệ tiếp theo với khả năng suy luận phức tạp và chuỗi suy nghĩ được cải thiện, phù hợp cho các tác vụ yêu cầu phân tích sâu.",
|
|
389
|
+
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp giới thiệu cơ chế chú ý thưa để cải thiện hiệu quả huấn luyện và suy luận trên văn bản dài, với chi phí thấp hơn deepseek-v3.1.",
|
|
390
|
+
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think là mô hình suy nghĩ sâu đầy đủ với khả năng suy luận chuỗi dài mạnh mẽ hơn.",
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 là mô hình suy luận lai đầu tiên từ DeepSeek tích hợp tư duy vào việc sử dụng công cụ. Mô hình sử dụng kiến trúc hiệu quả để tiết kiệm tính toán, học tăng cường quy mô lớn để nâng cao năng lực, và dữ liệu tác vụ tổng hợp quy mô lớn để tăng khả năng tổng quát. Sự kết hợp này đạt hiệu suất tương đương GPT-5-High, với độ dài đầu ra giảm đáng kể, từ đó giảm chi phí tính toán và thời gian chờ của người dùng.",
|
|
392
|
+
"deepseek-v3.description": "DeepSeek-V3 là mô hình MoE mạnh mẽ với tổng số tham số 671B và 37B hoạt động trên mỗi token.",
|
|
393
|
+
"deepseek-vl2-small.description": "DeepSeek VL2 Small là phiên bản đa phương thức nhẹ, phù hợp cho môi trường hạn chế tài nguyên và yêu cầu đồng thời cao.",
|
|
394
|
+
"deepseek-vl2.description": "DeepSeek VL2 là mô hình đa phương thức cho hiểu hình ảnh-văn bản và hỏi đáp thị giác chi tiết.",
|
|
359
395
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 là một mô hình ngôn ngữ mở dành cho nhà phát triển, nhà nghiên cứu và doanh nghiệp, được thiết kế để hỗ trợ xây dựng, thử nghiệm và mở rộng các ý tưởng AI sinh ngữ một cách có trách nhiệm. Là một phần trong nền tảng đổi mới cộng đồng toàn cầu, mô hình này phù hợp với môi trường có tài nguyên hạn chế, thiết bị biên và yêu cầu thời gian huấn luyện nhanh hơn.",
|
|
360
396
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Khả năng suy luận hình ảnh mạnh mẽ trên ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu thị giác.",
|
|
361
397
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng tác tử hiểu thị giác.",
|
|
@@ -66,9 +66,9 @@
|
|
|
66
66
|
"screen5.actions.signingIn": "正在登录…",
|
|
67
67
|
"screen5.actions.signingOut": "正在退出…",
|
|
68
68
|
"screen5.actions.tryAgain": "重试",
|
|
69
|
-
"screen5.auth.phase.browserOpened": "
|
|
70
|
-
"screen5.auth.phase.verifying": "
|
|
71
|
-
"screen5.auth.phase.waitingForAuth": "
|
|
69
|
+
"screen5.auth.phase.browserOpened": "浏览器已打开,请登录...",
|
|
70
|
+
"screen5.auth.phase.verifying": "正在验证凭据...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "等待授权...",
|
|
72
72
|
"screen5.auth.remaining": "剩余时间:{{time}}秒",
|
|
73
73
|
"screen5.badge": "登录",
|
|
74
74
|
"screen5.description": "登录以在所有设备间同步代理、群组、设置和上下文。",
|
|
@@ -141,6 +141,15 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "近一年",
|
|
142
142
|
"footer.desc": "与全球 AI 用户共同进化。成为创作者,向 LobeHub 社区提交你的助手和技能。",
|
|
143
143
|
"footer.title": "立即在 LobeHub 社区分享你的创作",
|
|
144
|
+
"fork.alreadyForked": "你已经派生了此代理。正在跳转到你的派生版本……",
|
|
145
|
+
"fork.failed": "派生失败。请重试。",
|
|
146
|
+
"fork.forkAndChat": "派生并聊天",
|
|
147
|
+
"fork.forkedFrom": "派生自",
|
|
148
|
+
"fork.forks": "派生",
|
|
149
|
+
"fork.forksCount": "{{count}} 个派生",
|
|
150
|
+
"fork.forksCount_other": "{{count}} 个派生",
|
|
151
|
+
"fork.success": "派生成功!",
|
|
152
|
+
"fork.viewAllForks": "查看所有派生版本",
|
|
144
153
|
"groupAgents.tag": "群组",
|
|
145
154
|
"home.communityAgents": "社区助理",
|
|
146
155
|
"home.featuredAssistants": "推荐助理",
|
|
@@ -472,14 +481,19 @@
|
|
|
472
481
|
"user.follow": "关注",
|
|
473
482
|
"user.followers": "粉丝",
|
|
474
483
|
"user.following": "关注",
|
|
484
|
+
"user.forkedAgentGroups": "已派生的代理组",
|
|
485
|
+
"user.forkedAgents": "已派生的代理",
|
|
475
486
|
"user.login": "成为创作者",
|
|
476
487
|
"user.logout": "退出登录",
|
|
477
488
|
"user.myProfile": "我的主页",
|
|
478
489
|
"user.noAgents": "该用户暂未发布助理",
|
|
479
490
|
"user.noFavoriteAgents": "暂无收藏的助理",
|
|
480
491
|
"user.noFavoritePlugins": "暂无收藏的插件",
|
|
492
|
+
"user.noForkedAgentGroups": "尚无已派生的代理组",
|
|
493
|
+
"user.noForkedAgents": "尚无已派生的代理",
|
|
481
494
|
"user.publishedAgents": "创作的助理",
|
|
482
495
|
"user.tabs.favorites": "收藏",
|
|
496
|
+
"user.tabs.forkedAgents": "已派生",
|
|
483
497
|
"user.tabs.publishedAgents": "创作",
|
|
484
498
|
"user.unfavorite": "取消收藏",
|
|
485
499
|
"user.unfavoriteFailed": "取消收藏失败",
|
|
@@ -745,6 +745,7 @@
|
|
|
745
745
|
"irag-1.0.description": "ERNIE iRAG 是一款图像检索增强生成模型,支持图像搜索、图文检索与内容生成任务。",
|
|
746
746
|
"jamba-large.description": "我们最强大、最先进的模型,专为复杂企业任务设计,性能卓越。",
|
|
747
747
|
"jamba-mini.description": "同类中效率最高的模型,在速度与质量之间实现平衡,占用资源更少。",
|
|
748
|
+
"jina-deepsearch-v1.description": "DeepSearch 结合了网页搜索、阅读与推理,适用于深入研究任务。它就像一个智能代理,接收你的研究任务后,进行多轮广泛搜索,最终才生成答案。整个过程包含持续的信息检索、逻辑推理和多角度问题解决,区别于仅依赖预训练数据的传统大模型或一次性检索的RAG系统。",
|
|
748
749
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "适用于视觉理解代理应用的高级图像推理模型。",
|
|
749
750
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先进的多语言开源 Llama 模型,在极低成本下实现接近 405B 的性能。该模型基于 Transformer 架构,并通过 SFT 和 RLHF 提升实用性与安全性。其指令微调版本专为多语言对话优化,在行业基准测试中超越众多开源与闭源聊天模型。知识截止时间:2023 年 12 月。",
|
|
750
751
|
"meta/Meta-Llama-3-70B-Instruct.description": "一款功能强大的 700 亿参数模型,擅长推理、编程和广泛的语言任务。",
|
package/locales/zh-TW/chat.json
CHANGED
|
@@ -204,6 +204,7 @@
|
|
|
204
204
|
"noSelectedAgents": "尚未選擇成員",
|
|
205
205
|
"openInNewWindow": "開啟獨立視窗",
|
|
206
206
|
"operation.execAgentRuntime": "正在準備回應",
|
|
207
|
+
"operation.execClientTask": "執行任務中",
|
|
207
208
|
"operation.sendMessage": "正在傳送訊息",
|
|
208
209
|
"owner": "群組擁有者",
|
|
209
210
|
"pageCopilot.title": "文稿助手",
|
|
@@ -322,11 +323,15 @@
|
|
|
322
323
|
"tab.profile": "助手檔案",
|
|
323
324
|
"tab.search": "搜尋",
|
|
324
325
|
"task.activity.calling": "正在呼叫工具...",
|
|
326
|
+
"task.activity.clientExecuting": "正在本機執行...",
|
|
325
327
|
"task.activity.generating": "正在產生回覆...",
|
|
326
328
|
"task.activity.gotResult": "已取得工具結果",
|
|
327
329
|
"task.activity.toolCalling": "正在呼叫 {{toolName}}...",
|
|
328
330
|
"task.activity.toolResult": "已取得 {{toolName}} 結果",
|
|
329
331
|
"task.batchTasks": "{{count}} 個批次子任務",
|
|
332
|
+
"task.instruction": "任務指示",
|
|
333
|
+
"task.intermediateSteps": "{{count}} 個中間步驟",
|
|
334
|
+
"task.metrics.duration": "(耗時 {{duration}})",
|
|
330
335
|
"task.metrics.stepsShort": "步驟",
|
|
331
336
|
"task.metrics.toolCallsShort": "次使用工具",
|
|
332
337
|
"task.status.cancelled": "任務已取消",
|
|
@@ -58,6 +58,7 @@
|
|
|
58
58
|
"screen4.title": "你希望如何分享資料?",
|
|
59
59
|
"screen4.title2": "你的選擇將幫助我們改進",
|
|
60
60
|
"screen4.title3": "你可隨時在設定中變更",
|
|
61
|
+
"screen5.actions.cancel": "取消",
|
|
61
62
|
"screen5.actions.connectToServer": "連接伺服器",
|
|
62
63
|
"screen5.actions.connecting": "連線中...",
|
|
63
64
|
"screen5.actions.signInCloud": "登入 LobeHub 雲端",
|
|
@@ -65,6 +66,10 @@
|
|
|
65
66
|
"screen5.actions.signingIn": "登入中...",
|
|
66
67
|
"screen5.actions.signingOut": "登出中...",
|
|
67
68
|
"screen5.actions.tryAgain": "再試一次",
|
|
69
|
+
"screen5.auth.phase.browserOpened": "已開啟瀏覽器,請登入...",
|
|
70
|
+
"screen5.auth.phase.verifying": "正在驗證憑證...",
|
|
71
|
+
"screen5.auth.phase.waitingForAuth": "正在等待授權...",
|
|
72
|
+
"screen5.auth.remaining": "剩餘時間:{{time}} 秒",
|
|
68
73
|
"screen5.badge": "登入",
|
|
69
74
|
"screen5.description": "登入以同步代理人、群組、設定與上下文至所有裝置。",
|
|
70
75
|
"screen5.errors.desktopOnlyOidc": "OIDC 授權僅支援桌面應用程式執行環境。",
|
|
@@ -141,6 +141,16 @@
|
|
|
141
141
|
"filterBy.timePeriod.year": "近一年",
|
|
142
142
|
"footer.desc": "與全球 AI 使用者一同進化。成為創作者,將你的代理與技能提交至 LobeHub 社群。",
|
|
143
143
|
"footer.title": "立即在 LobeHub 社群分享你的創作",
|
|
144
|
+
"fork.alreadyForked": "您已經分支過此代理。正在導向您的分支版本...",
|
|
145
|
+
"fork.failed": "分支失敗。請再試一次。",
|
|
146
|
+
"fork.forkAndChat": "分支並聊天",
|
|
147
|
+
"fork.forkedFrom": "分支自",
|
|
148
|
+
"fork.forks": "分支",
|
|
149
|
+
"fork.forksCount": "{{count}} 個分支",
|
|
150
|
+
"fork.forksCount_other": "{{count}} 個分支",
|
|
151
|
+
"fork.success": "分支成功!",
|
|
152
|
+
"fork.viewAllForks": "查看所有分支",
|
|
153
|
+
"groupAgents.tag": "群組",
|
|
144
154
|
"home.communityAgents": "社群助手",
|
|
145
155
|
"home.featuredAssistants": "推薦助手",
|
|
146
156
|
"home.featuredModels": "推薦模型",
|
|
@@ -471,14 +481,19 @@
|
|
|
471
481
|
"user.follow": "追蹤",
|
|
472
482
|
"user.followers": "粉絲",
|
|
473
483
|
"user.following": "追蹤中",
|
|
484
|
+
"user.forkedAgentGroups": "已分支的代理群組",
|
|
485
|
+
"user.forkedAgents": "已分支的代理",
|
|
474
486
|
"user.login": "成為創作者",
|
|
475
487
|
"user.logout": "登出",
|
|
476
488
|
"user.myProfile": "我的主頁",
|
|
477
489
|
"user.noAgents": "該使用者尚未發布助理",
|
|
478
490
|
"user.noFavoriteAgents": "尚無收藏的助理",
|
|
479
491
|
"user.noFavoritePlugins": "尚無收藏的外掛",
|
|
492
|
+
"user.noForkedAgentGroups": "尚無已分支的代理群組",
|
|
493
|
+
"user.noForkedAgents": "尚無已分支的代理",
|
|
480
494
|
"user.publishedAgents": "創作的助手",
|
|
481
495
|
"user.tabs.favorites": "收藏",
|
|
496
|
+
"user.tabs.forkedAgents": "已分支",
|
|
482
497
|
"user.tabs.publishedAgents": "創作",
|
|
483
498
|
"user.unfavorite": "取消收藏",
|
|
484
499
|
"user.unfavoriteFailed": "取消收藏失敗",
|
|
@@ -746,6 +746,48 @@
|
|
|
746
746
|
"jamba-large.description": "我們最強大、最先進的模型,專為複雜企業任務設計,具備卓越效能。",
|
|
747
747
|
"jamba-mini.description": "同級中最具效率的模型,在速度與品質之間取得平衡,佔用資源更少。",
|
|
748
748
|
"jina-deepsearch-v1.description": "DeepSearch 結合網頁搜尋、閱讀與推理,進行深入調查。它如同一位代理人,接收你的研究任務後,進行多輪廣泛搜尋,最終才產出答案。整個過程包含持續研究、推理與多角度問題解決,與僅依賴預訓練資料的標準 LLM 或一次性檢索的傳統 RAG 系統截然不同。",
|
|
749
|
+
"kimi-k2-0711-preview.description": "kimi-k2 是一款具備強大程式編寫與智能代理能力的 MoE 基礎模型(總參數量達 1 兆,啟用參數為 320 億),在推理、程式設計、數學與代理任務的基準測試中表現優於其他主流開源模型。",
|
|
750
|
+
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview 提供 256k 上下文視窗,具備更強的代理程式能力、更優質的前端程式碼品質,以及更佳的上下文理解能力。",
|
|
751
|
+
"kimi-k2-instruct.description": "Kimi K2 Instruct 是 Kimi 官方推出的推理模型,支援長上下文,適用於程式碼、問答等多種任務。",
|
|
752
|
+
"kimi-k2-thinking-turbo.description": "高速版 K2 長思考模型,支援 256k 上下文,具備強大的深度推理能力,輸出速度達 60–100 tokens/秒。",
|
|
753
|
+
"kimi-k2-thinking.description": "kimi-k2-thinking 是 Moonshot AI 推出的思考模型,具備通用代理與推理能力,擅長深度推理,能透過多步驟工具使用解決複雜問題。",
|
|
754
|
+
"kimi-k2-turbo-preview.description": "kimi-k2 是一款具備強大程式編寫與智能代理能力的 MoE 基礎模型(總參數量達 1 兆,啟用參數為 320 億),在推理、程式設計、數學與代理任務的基準測試中表現優於其他主流開源模型。",
|
|
755
|
+
"kimi-k2.description": "Kimi-K2 是 Moonshot AI 推出的 MoE 基礎模型,具備強大的程式編寫與代理能力,總參數達 1 兆,啟用參數為 320 億。在通用推理、程式設計、數學與代理任務的基準測試中,表現優於其他主流開源模型。",
|
|
756
|
+
"kimi-k2:1t.description": "Kimi K2 是 Moonshot AI 推出的大型 MoE 語言模型,總參數達 1 兆,每次前向傳遞啟用 320 億參數。針對代理能力進行最佳化,包括進階工具使用、推理與程式碼生成。",
|
|
757
|
+
"kimi-latest.description": "Kimi Latest 採用最新版本的 Kimi 模型,可能包含實驗性功能。支援圖像理解,並根據上下文長度自動選擇 8k/32k/128k 計費模型。",
|
|
758
|
+
"kuaishou/kat-coder-pro-v1.description": "KAT-Coder-Pro-V1(限時免費)專注於程式碼理解與自動化,提升程式代理效率。",
|
|
759
|
+
"learnlm-1.5-pro-experimental.description": "LearnLM 是一款實驗性任務導向模型,基於學習科學原則訓練,能在教學/學習場景中遵循系統指令,扮演專業導師角色。",
|
|
760
|
+
"learnlm-2.0-flash-experimental.description": "LearnLM 是一款實驗性任務導向模型,基於學習科學原則訓練,能在教學/學習場景中遵循系統指令,扮演專業導師角色。",
|
|
761
|
+
"lite.description": "Spark Lite 是一款輕量級語言模型,具備超低延遲與高效處理能力,完全免費,支援即時網頁搜尋。其快速回應在低算力設備與模型微調場景中表現優異,特別適用於知識問答、內容生成與搜尋應用。",
|
|
762
|
+
"llama-3.1-70b-versatile.description": "Llama 3.1 70B 提供更強的 AI 推理能力,適用於複雜應用,支援高效能運算與高準確度。",
|
|
763
|
+
"llama-3.1-8b-instant.description": "Llama 3.1 8B 是一款高效率模型,具備快速文字生成能力,適合大規模、具成本效益的應用場景。",
|
|
764
|
+
"llama-3.1-instruct.description": "Llama 3.1 指令微調模型針對對話進行最佳化,在多項業界基準測試中超越多數開源對話模型。",
|
|
765
|
+
"llama-3.2-11b-vision-instruct.description": "具備高解析度圖像推理能力,適用於視覺理解應用。",
|
|
766
|
+
"llama-3.2-11b-vision-preview.description": "Llama 3.2 專為結合視覺與文字任務設計,擅長圖像描述與視覺問答,實現語言生成與視覺推理的橋接。",
|
|
767
|
+
"llama-3.2-90b-vision-instruct.description": "進階圖像推理能力,適用於視覺理解型代理應用。",
|
|
768
|
+
"llama-3.2-90b-vision-preview.description": "Llama 3.2 專為結合視覺與文字任務設計,擅長圖像描述與視覺問答,實現語言生成與視覺推理的橋接。",
|
|
769
|
+
"llama-3.2-vision-instruct.description": "Llama 3.2-Vision 指令微調模型針對視覺辨識、圖像推理、圖像描述與一般圖像問答進行最佳化。",
|
|
770
|
+
"llama-3.3-70b-versatile.description": "Meta Llama 3.3 是一款多語言大型語言模型,擁有 700 億參數(文字輸入/輸出),提供預訓練與指令微調版本。文字專用指令微調模型針對多語言對話進行最佳化,在多項業界基準測試中超越多數開放與封閉對話模型。",
|
|
771
|
+
"llama-3.3-70b.description": "Llama 3.3 70B:中大型 Llama 模型,在推理能力與處理效率間取得平衡。",
|
|
772
|
+
"llama-3.3-instruct.description": "Llama 3.3 指令微調模型針對對話進行最佳化,在多項業界基準測試中超越多數開源對話模型。",
|
|
773
|
+
"llama3-70b-8192.description": "Meta Llama 3 70B 具備卓越的複雜任務處理能力,適用於高需求專案。",
|
|
774
|
+
"llama3-8b-8192.description": "Meta Llama 3 8B 在多樣化場景中展現強大的推理能力。",
|
|
775
|
+
"llama3-groq-70b-8192-tool-use-preview.description": "Llama 3 Groq 70B Tool Use 提供強大的工具調用能力,能高效處理複雜任務。",
|
|
776
|
+
"llama3-groq-8b-8192-tool-use-preview.description": "Llama 3 Groq 8B Tool Use 針對高效工具使用進行最佳化,支援快速並行運算。",
|
|
777
|
+
"llama3.1-8b.description": "Llama 3.1 8B:小型、低延遲的 Llama 變體,適用於輕量級線上推理與對話。",
|
|
778
|
+
"llama3.1.description": "Llama 3.1 是 Meta 的旗艦模型,規模可達 4050 億參數,適用於複雜對話、多語言翻譯與資料分析。",
|
|
779
|
+
"llama3.1:405b.description": "Llama 3.1 是 Meta 的旗艦模型,規模可達 4050 億參數,適用於複雜對話、多語言翻譯與資料分析。",
|
|
780
|
+
"llama3.1:70b.description": "Llama 3.1 是 Meta 的旗艦模型,規模可達 4050 億參數,適用於複雜對話、多語言翻譯與資料分析。",
|
|
781
|
+
"llava-v1.5-7b-4096-preview.description": "LLaVA 1.5 7B 結合視覺處理能力,能從視覺輸入中生成複雜輸出。",
|
|
782
|
+
"llava.description": "LLaVA 是一款多模態模型,結合視覺編碼器與 Vicuna,具備強大的視覺-語言理解能力。",
|
|
783
|
+
"llava:13b.description": "LLaVA 是一款多模態模型,結合視覺編碼器與 Vicuna,具備強大的視覺-語言理解能力。",
|
|
784
|
+
"llava:34b.description": "LLaVA 是一款多模態模型,結合視覺編碼器與 Vicuna,具備強大的視覺-語言理解能力。",
|
|
785
|
+
"magistral-medium-latest.description": "Magistral Medium 1.2 是 Mistral AI 推出的前沿推理模型(2025 年 9 月),支援視覺任務。",
|
|
786
|
+
"magistral-small-2509.description": "Magistral Small 1.2 是 Mistral AI 推出的開源小型推理模型(2025 年 9 月),支援視覺任務。",
|
|
787
|
+
"mathstral.description": "MathΣtral 專為科學研究與數學推理設計,具備強大的計算與解釋能力。",
|
|
788
|
+
"max-32k.description": "Spark Max 32K 提供大上下文處理能力,具備更強的上下文理解與邏輯推理能力,支援 32K token 輸入,適用於長文閱讀與私有知識問答。",
|
|
789
|
+
"megrez-3b-instruct.description": "Megrez 3B Instruct 是來自無問星穹的小型高效模型。",
|
|
790
|
+
"meituan/longcat-flash-chat.description": "來自美團的開源非思考型基礎模型,針對對話與代理任務進行最佳化,擅長工具使用與複雜多輪互動。",
|
|
749
791
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "先進的圖像推理能力,適用於視覺理解代理應用。",
|
|
750
792
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先進的多語言開源 Llama 模型,以極低成本提供接近 405B 的效能。該模型基於 Transformer 架構,並透過 SFT 與 RLHF 提升實用性與安全性。經指令微調版本針對多語言對話進行最佳化,在業界基準測試中超越多數開放與封閉模型。知識截止時間:2023 年 12 月。",
|
|
751
793
|
"meta/Meta-Llama-3-70B-Instruct.description": "一款功能強大的 70B 參數模型,擅長推理、程式編寫與廣泛語言任務。",
|
package/package.json
CHANGED
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
{
|
|
2
2
|
"name": "@lobehub/lobehub",
|
|
3
|
-
"version": "2.0.0-next.
|
|
3
|
+
"version": "2.0.0-next.332",
|
|
4
4
|
"description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
|
5
5
|
"keywords": [
|
|
6
6
|
"framework",
|