@lobehub/lobehub 2.0.0-next.265 → 2.0.0-next.267
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +14 -0
- package/e2e/CLAUDE.md +34 -73
- package/e2e/docs/local-setup.md +67 -219
- package/e2e/scripts/setup.ts +529 -0
- package/e2e/src/features/home/sidebarAgent.feature +62 -0
- package/e2e/src/features/home/sidebarGroup.feature +62 -0
- package/e2e/src/steps/home/sidebarAgent.steps.ts +373 -0
- package/e2e/src/steps/home/sidebarGroup.steps.ts +168 -0
- package/e2e/src/steps/hooks.ts +2 -0
- package/locales/ar/chat.json +1 -0
- package/locales/ar/modelProvider.json +20 -0
- package/locales/ar/models.json +33 -10
- package/locales/ar/plugin.json +1 -0
- package/locales/ar/providers.json +1 -0
- package/locales/ar/setting.json +2 -0
- package/locales/bg-BG/chat.json +1 -0
- package/locales/bg-BG/modelProvider.json +20 -0
- package/locales/bg-BG/models.json +27 -7
- package/locales/bg-BG/plugin.json +1 -0
- package/locales/bg-BG/providers.json +1 -0
- package/locales/bg-BG/setting.json +2 -0
- package/locales/de-DE/chat.json +1 -0
- package/locales/de-DE/modelProvider.json +20 -0
- package/locales/de-DE/models.json +44 -10
- package/locales/de-DE/plugin.json +1 -0
- package/locales/de-DE/providers.json +1 -0
- package/locales/de-DE/setting.json +2 -0
- package/locales/en-US/chat.json +1 -0
- package/locales/en-US/modelProvider.json +20 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +1 -0
- package/locales/en-US/setting.json +2 -1
- package/locales/es-ES/chat.json +1 -0
- package/locales/es-ES/modelProvider.json +20 -0
- package/locales/es-ES/models.json +53 -10
- package/locales/es-ES/plugin.json +1 -0
- package/locales/es-ES/providers.json +1 -0
- package/locales/es-ES/setting.json +2 -0
- package/locales/fa-IR/chat.json +1 -0
- package/locales/fa-IR/modelProvider.json +20 -0
- package/locales/fa-IR/models.json +33 -10
- package/locales/fa-IR/plugin.json +1 -0
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fa-IR/setting.json +2 -0
- package/locales/fr-FR/chat.json +1 -0
- package/locales/fr-FR/modelProvider.json +20 -0
- package/locales/fr-FR/models.json +27 -7
- package/locales/fr-FR/plugin.json +1 -0
- package/locales/fr-FR/providers.json +1 -0
- package/locales/fr-FR/setting.json +2 -0
- package/locales/it-IT/chat.json +1 -0
- package/locales/it-IT/modelProvider.json +20 -0
- package/locales/it-IT/models.json +10 -10
- package/locales/it-IT/plugin.json +1 -0
- package/locales/it-IT/providers.json +1 -0
- package/locales/it-IT/setting.json +2 -0
- package/locales/ja-JP/chat.json +1 -0
- package/locales/ja-JP/modelProvider.json +20 -0
- package/locales/ja-JP/models.json +5 -10
- package/locales/ja-JP/plugin.json +1 -0
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ja-JP/setting.json +2 -0
- package/locales/ko-KR/chat.json +1 -0
- package/locales/ko-KR/modelProvider.json +20 -0
- package/locales/ko-KR/models.json +36 -10
- package/locales/ko-KR/plugin.json +1 -0
- package/locales/ko-KR/providers.json +1 -0
- package/locales/ko-KR/setting.json +2 -0
- package/locales/nl-NL/chat.json +1 -0
- package/locales/nl-NL/modelProvider.json +20 -0
- package/locales/nl-NL/models.json +35 -4
- package/locales/nl-NL/plugin.json +1 -0
- package/locales/nl-NL/providers.json +1 -0
- package/locales/nl-NL/setting.json +2 -0
- package/locales/pl-PL/chat.json +1 -0
- package/locales/pl-PL/modelProvider.json +20 -0
- package/locales/pl-PL/models.json +37 -7
- package/locales/pl-PL/plugin.json +1 -0
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pl-PL/setting.json +2 -0
- package/locales/pt-BR/chat.json +1 -0
- package/locales/pt-BR/modelProvider.json +20 -0
- package/locales/pt-BR/models.json +51 -9
- package/locales/pt-BR/plugin.json +1 -0
- package/locales/pt-BR/providers.json +1 -0
- package/locales/pt-BR/setting.json +2 -0
- package/locales/ru-RU/chat.json +1 -0
- package/locales/ru-RU/modelProvider.json +20 -0
- package/locales/ru-RU/models.json +48 -7
- package/locales/ru-RU/plugin.json +1 -0
- package/locales/ru-RU/providers.json +1 -0
- package/locales/ru-RU/setting.json +2 -0
- package/locales/tr-TR/chat.json +1 -0
- package/locales/tr-TR/modelProvider.json +20 -0
- package/locales/tr-TR/models.json +48 -7
- package/locales/tr-TR/plugin.json +1 -0
- package/locales/tr-TR/providers.json +1 -0
- package/locales/tr-TR/setting.json +2 -0
- package/locales/vi-VN/chat.json +1 -0
- package/locales/vi-VN/modelProvider.json +20 -0
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/plugin.json +1 -0
- package/locales/vi-VN/providers.json +1 -0
- package/locales/vi-VN/setting.json +2 -0
- package/locales/zh-CN/modelProvider.json +20 -20
- package/locales/zh-CN/models.json +49 -8
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-CN/setting.json +2 -1
- package/locales/zh-TW/chat.json +1 -0
- package/locales/zh-TW/modelProvider.json +20 -0
- package/locales/zh-TW/models.json +29 -10
- package/locales/zh-TW/plugin.json +1 -0
- package/locales/zh-TW/providers.json +1 -0
- package/locales/zh-TW/setting.json +2 -0
- package/package.json +3 -3
- package/packages/utils/src/multimodalContent.test.ts +302 -0
- package/packages/utils/src/server/__tests__/sse.test.ts +353 -0
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Body.tsx +1 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Cron/CronTopicGroup.tsx +84 -0
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/CronTopicItem.tsx +1 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/index.tsx +23 -33
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/Item/Editing.tsx +12 -49
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/index.tsx +3 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Editing.tsx +12 -40
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/hooks/useTopicNavigation.ts +5 -1
- package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobCards.tsx +1 -1
- package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobForm.tsx +1 -1
- package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/AvailableAgentList.tsx +0 -1
- package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/index.tsx +5 -1
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/Editing.tsx +4 -11
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/index.tsx +3 -3
- package/src/components/InlineRename/index.tsx +121 -0
- package/src/features/ChatInput/ActionBar/Params/Controls.tsx +42 -7
- package/src/features/NavPanel/components/NavItem.tsx +1 -1
- package/src/locales/default/setting.ts +2 -0
- package/src/store/agent/slices/cron/action.ts +108 -0
- package/src/store/agent/slices/cron/index.ts +1 -0
- package/src/store/agent/store.ts +3 -0
- package/src/store/home/slices/sidebarUI/action.ts +9 -0
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/CronTopicList/CronTopicGroup.tsx +0 -74
- package/src/app/[variants]/(main)/group/features/ChangelogModal.tsx +0 -11
- package/src/hooks/useFetchCronTopicsWithJobInfo.ts +0 -56
|
@@ -33,6 +33,7 @@
|
|
|
33
33
|
"agentCronJobs.maxExecutions": "Maksimum Çalıştırma",
|
|
34
34
|
"agentCronJobs.name": "Görev Adı",
|
|
35
35
|
"agentCronJobs.never": "Hiçbir Zaman",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "Çalıştırma sonucu yok",
|
|
36
37
|
"agentCronJobs.remainingExecutions": "Kalan: {{count}}",
|
|
37
38
|
"agentCronJobs.save": "Kaydet",
|
|
38
39
|
"agentCronJobs.schedule": "Zamanla",
|
|
@@ -42,6 +43,7 @@
|
|
|
42
43
|
"agentCronJobs.timeRange": "Zaman Aralığı",
|
|
43
44
|
"agentCronJobs.title": "Zamanlanmış Görevler",
|
|
44
45
|
"agentCronJobs.unlimited": "Sınırsız",
|
|
46
|
+
"agentCronJobs.unnamedTask": "İsimsiz Görev",
|
|
45
47
|
"agentCronJobs.updateSuccess": "Zamanlanmış görev başarıyla güncellendi",
|
|
46
48
|
"agentCronJobs.weekdays": "Haftaiçi Günleri",
|
|
47
49
|
"agentInfoDescription.basic.avatar": "Avatar",
|
package/locales/vi-VN/chat.json
CHANGED
|
@@ -63,6 +63,7 @@
|
|
|
63
63
|
"extendParams.reasoningEffort.title": "Cường độ suy nghĩ",
|
|
64
64
|
"extendParams.textVerbosity.title": "Mức độ chi tiết văn bản đầu ra",
|
|
65
65
|
"extendParams.thinking.title": "Công tắc Suy nghĩ sâu",
|
|
66
|
+
"extendParams.thinkingBudget.title": "Ngân sách Dự tính",
|
|
66
67
|
"extendParams.thinkingLevel.title": "Mức độ suy nghĩ",
|
|
67
68
|
"extendParams.title": "Tính năng mở rộng mô hình",
|
|
68
69
|
"extendParams.urlContext.desc": "Khi bật, các liên kết web sẽ được tự động phân tích để lấy nội dung thực tế của trang",
|
|
@@ -194,6 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "Tên triển khai mô hình",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "Vui lòng nhập tên hiển thị của mô hình, ví dụ: ChatGPT, GPT-4, v.v.",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "Tên hiển thị mô hình",
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "Chọn các tham số mở rộng được hỗ trợ bởi mô hình. Di chuột vào một tùy chọn để xem trước điều khiển. Cấu hình sai có thể khiến yêu cầu thất bại.",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Dành cho các mô hình Claude; có thể giảm chi phí và tăng tốc độ phản hồi.",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Dành cho Claude, DeepSeek và các mô hình suy luận khác; mở khóa khả năng tư duy sâu hơn.",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Dành cho dòng GPT-5; điều chỉnh cường độ suy luận.",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Dành cho dòng GPT-5.1; điều chỉnh cường độ suy luận.",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Dành cho dòng GPT-5.2 Pro; điều chỉnh cường độ suy luận.",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Dành cho dòng GPT-5.2; điều chỉnh cường độ suy luận.",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Dành cho các mô hình tạo ảnh Gemini; điều chỉnh tỷ lệ khung hình của ảnh được tạo.",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Dành cho các mô hình tạo ảnh Gemini 3; điều chỉnh độ phân giải của ảnh được tạo.",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Dành cho Claude, Qwen3 và các mô hình tương tự; điều chỉnh ngân sách token cho suy luận.",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Dành cho OpenAI và các mô hình có khả năng suy luận khác; điều chỉnh mức độ suy luận.",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Dành cho dòng GPT-5+; điều chỉnh độ dài và chi tiết của đầu ra.",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "Dành cho một số mô hình Doubao; cho phép mô hình quyết định có nên suy nghĩ sâu hay không.",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Dành cho dòng Gemini; điều chỉnh ngân sách suy nghĩ.",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Dành cho các mô hình Gemini 3 Flash Preview; điều chỉnh độ sâu suy nghĩ.",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Dành cho các mô hình Gemini 3 Pro Preview; điều chỉnh độ sâu suy nghĩ.",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Dành cho dòng Gemini; hỗ trợ cung cấp ngữ cảnh từ URL.",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "Chọn các tham số mở rộng để kích hoạt",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "Không thể xem trước",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "Tham Số Mở Rộng",
|
|
197
217
|
"providerModels.item.modelConfig.files.extra": "Việc tải tệp hiện tại chỉ là giải pháp tạm thời, chỉ dùng cho thử nghiệm cá nhân. Vui lòng chờ tính năng tải tệp đầy đủ trong các bản cập nhật sau.",
|
|
198
218
|
"providerModels.item.modelConfig.files.title": "Hỗ trợ tải tệp",
|
|
199
219
|
"providerModels.item.modelConfig.functionCall.extra": "Cấu hình này chỉ bật khả năng sử dụng công cụ của mô hình, cho phép thêm kỹ năng dạng công cụ. Tuy nhiên, việc mô hình có thực sự sử dụng được công cụ hay không phụ thuộc hoàn toàn vào chính mô hình; vui lòng tự kiểm tra.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực, kết hợp khả năng hiểu và sinh văn bản mạnh mẽ cho các tình huống sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic, cải thiện toàn diện các kỹ năng và vượt qua mô hình hàng đầu trước đó Claude 3 Opus trên nhiều tiêu chuẩn đánh giá.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku cung cấp phản hồi nhanh cho các tác vụ nhẹ.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 là mô hình thông minh nhất của Anthropic và là mô hình lai đầu tiên trên thị trường có khả năng suy luận, hỗ trợ phản hồi gần như tức thì hoặc tư duy mở rộng với khả năng kiểm soát chi tiết.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn và triển khai quy mô lớn đáng tin cậy.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic,
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, kết hợp tốc độ chớp nhoáng với khả năng tư duy sâu.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu ngôn ngữ.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 là mô hình thông minh nhất của Anthropic tính đến hiện tại, cung cấp phản hồi gần như tức thì hoặc tư duy từng bước với khả năng kiểm soát chi tiết dành cho người dùng API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.",
|
|
@@ -92,6 +92,7 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Không có kết quả",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "Hệ thống Cục bộ",
|
|
95
|
+
"builtins.lobe-notebook.actions.collapse": "Thu gọn",
|
|
95
96
|
"builtins.lobe-notebook.actions.copy": "Sao chép",
|
|
96
97
|
"builtins.lobe-notebook.actions.creating": "Đang tạo tài liệu...",
|
|
97
98
|
"builtins.lobe-notebook.actions.edit": "Chỉnh sửa",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Tổ chức mã nguồn mở tập trung vào nghiên cứu mô hình lớn và công cụ, cung cấp nền tảng hiệu quả, dễ sử dụng để tiếp cận các mô hình và thuật toán tiên tiến.",
|
|
30
30
|
"jina.description": "Thành lập năm 2020, Jina AI là công ty hàng đầu về AI tìm kiếm. Bộ công cụ tìm kiếm của họ bao gồm mô hình vector, bộ xếp hạng lại và mô hình ngôn ngữ nhỏ để xây dựng ứng dụng tìm kiếm sinh và đa phương thức chất lượng cao.",
|
|
31
31
|
"lmstudio.description": "LM Studio là ứng dụng máy tính để phát triển và thử nghiệm LLM ngay trên máy của bạn.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud sử dụng API chính thức để truy cập các mô hình AI và tính mức sử dụng bằng Tín dụng dựa trên số lượng token của mô hình.",
|
|
32
33
|
"minimax.description": "Thành lập năm 2021, MiniMax xây dựng AI đa năng với các mô hình nền tảng đa phương thức, bao gồm mô hình văn bản MoE hàng nghìn tỷ tham số, mô hình giọng nói và thị giác, cùng các ứng dụng như Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral cung cấp các mô hình tổng quát, chuyên biệt và nghiên cứu tiên tiến cho suy luận phức tạp, tác vụ đa ngôn ngữ và tạo mã, với khả năng gọi hàm cho tích hợp tùy chỉnh.",
|
|
34
35
|
"modelscope.description": "ModelScope là nền tảng mô hình dưới dạng dịch vụ của Alibaba Cloud, cung cấp nhiều mô hình AI và dịch vụ suy luận.",
|
|
@@ -33,6 +33,7 @@
|
|
|
33
33
|
"agentCronJobs.maxExecutions": "Số Lần Thực Thi Tối Đa",
|
|
34
34
|
"agentCronJobs.name": "Tên Tác Vụ",
|
|
35
35
|
"agentCronJobs.never": "Chưa Bao Giờ",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "Không có kết quả thực thi",
|
|
36
37
|
"agentCronJobs.remainingExecutions": "Còn lại: {{count}}",
|
|
37
38
|
"agentCronJobs.save": "Lưu",
|
|
38
39
|
"agentCronJobs.schedule": "Lịch Trình",
|
|
@@ -42,6 +43,7 @@
|
|
|
42
43
|
"agentCronJobs.timeRange": "Khoảng Thời Gian",
|
|
43
44
|
"agentCronJobs.title": "Tác Vụ Định Kỳ",
|
|
44
45
|
"agentCronJobs.unlimited": "Không Giới Hạn",
|
|
46
|
+
"agentCronJobs.unnamedTask": "Tác vụ chưa đặt tên",
|
|
45
47
|
"agentCronJobs.updateSuccess": "Cập nhật tác vụ định kỳ thành công",
|
|
46
48
|
"agentCronJobs.weekdays": "Các Ngày Trong Tuần",
|
|
47
49
|
"agentInfoDescription.basic.avatar": "Ảnh đại diện",
|
|
@@ -194,26 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "模型部署名称",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "请输入模型的展示名称,例如 ChatGPT、GPT-4 等",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "模型展示名称",
|
|
197
|
-
"providerModels.item.modelConfig.extendParams.extra": "
|
|
198
|
-
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "适用于 Claude
|
|
199
|
-
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "适用于 Claude、DeepSeek
|
|
200
|
-
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "适用于 GPT-5
|
|
201
|
-
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "适用于 GPT-5.1
|
|
202
|
-
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "适用于 GPT-5.2 Pro
|
|
203
|
-
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "适用于 GPT-5.2
|
|
204
|
-
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "适用于 Gemini
|
|
205
|
-
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "适用于 Gemini 3
|
|
206
|
-
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "适用于 Claude、Qwen3
|
|
207
|
-
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "适用于 OpenAI
|
|
208
|
-
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "适用于 GPT-5
|
|
209
|
-
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "
|
|
210
|
-
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "适用于 Gemini
|
|
211
|
-
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "适用于 Gemini 3 Flash
|
|
212
|
-
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "适用于 Gemini 3 Pro
|
|
213
|
-
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "适用于 Gemini
|
|
214
|
-
"providerModels.item.modelConfig.extendParams.placeholder": "
|
|
215
|
-
"providerModels.item.modelConfig.extendParams.previewFallback": "
|
|
216
|
-
"providerModels.item.modelConfig.extendParams.title": "
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "选择模型支持的扩展参数。将鼠标悬停在选项上可预览控制项。配置错误可能导致请求失败。",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "适用于 Claude 模型;可降低成本并加快响应速度。",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "适用于 Claude、DeepSeek 及其他推理模型;可启用更深层次的思考能力。",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "适用于 GPT-5 系列;控制推理强度。",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "适用于 GPT-5.1 系列;控制推理强度。",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "适用于 GPT-5.2 Pro 系列;控制推理强度。",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "适用于 GPT-5.2 系列;控制推理强度。",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "适用于 Gemini 图像生成模型;控制生成图像的宽高比。",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "适用于 Gemini 3 图像生成模型;控制生成图像的分辨率。",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "适用于 Claude、Qwen3 等模型;控制用于推理的 Token 预算。",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "适用于 OpenAI 及其他具备推理能力的模型;控制推理力度。",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "适用于 GPT-5+ 系列;控制输出内容的详尽程度。",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "适用于部分豆包模型;允许模型自行决定是否进行深度思考。",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "适用于 Gemini 系列;控制思考预算。",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "适用于 Gemini 3 Flash 预览模型;控制思考深度。",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "适用于 Gemini 3 Pro 预览模型;控制思考深度。",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "适用于 Gemini 系列;支持提供 URL 上下文。",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "选择要启用的扩展参数",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "无法预览",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "扩展参数",
|
|
217
217
|
"providerModels.item.modelConfig.files.extra": "当前文件上传实现仅为一种 Hack 方案,仅限自行尝试。完整文件上传能力请等待后续实现",
|
|
218
218
|
"providerModels.item.modelConfig.files.title": "支持文件上传",
|
|
219
219
|
"providerModels.item.modelConfig.functionCall.extra": "此配置将仅开启模型使用技能的能力,进而可以为模型添加技能。但是否支持真正使用技能完全取决于模型本身,请自行测试的可用性",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
|
|
272
272
|
"claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
273
273
|
"claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型,在多项技能上实现提升,并在多个基准测试中超越前旗舰 Claude 3 Opus。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智能的模型,也是市场上首个混合推理模型,支持近乎即时响应或细致的深度思考,具备精细控制能力。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快且最智能的 Haiku 模型,兼具闪电般的速度与深度思考能力。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今为止最智能的模型,支持近乎即时响应或逐步深入思考,API 用户可实现精细控制。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位。",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 在推理能力与输出长度之间实现平衡,适用于日常问答与智能体任务。在公开基准测试中达到 GPT-5 水平,并首创将思考过程融入工具使用,在开源智能体评估中表现领先。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练于 2T 数据(87% 代码,13% 中英文文本)。支持 16K 上下文窗口与中间填充任务,提供项目级代码补全与片段填充。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版本,支持实时网页搜索,结合 671B 规模能力与更快响应。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版本,具备 671B 参数与实时网页搜索,提供更强理解与生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,在数学、编程和推理任务中表现可与 OpenAI-o1 相媲美。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,在输出前生成思维链以提升准确性,在多个竞赛中取得优异成绩,其推理能力可媲美 Gemini-3.0-Pro。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超轻量模型,适用于简单问答、分类与低成本推理。",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文能力,适合复杂推理与多轮对话。",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款用于评估与测试的思考模型预览版。",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字节跳动 Seed 团队打造,支持文本与图像输入,可根据提示生成高质量、可控性强的图像。",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型专注于图像编辑,支持文本与图像输入。",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文本与参考图像输入,支持局部精准编辑与复杂全局场景变换。",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款图像生成模型,偏好更真实自然的美学风格。",
|
|
@@ -479,7 +479,7 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "一款强大的原生多模态图像生成模型。",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "来自 Google 的高质量图像生成模型。",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持通过对话生成与编辑图像。",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "Qwen
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Qwen 团队推出的专业图像编辑模型,支持语义与外观编辑、中英文文本精修、风格迁移、旋转等多种功能。",
|
|
483
483
|
"fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具备出色的中文文本渲染能力与多样化视觉风格。",
|
|
484
484
|
"flux-1-schnell.description": "来自 Black Forest Labs 的 120 亿参数文本转图像模型,采用潜在对抗扩散蒸馏技术,可在 1-4 步内生成高质量图像。性能媲美闭源模型,采用 Apache-2.0 许可,适用于个人、研究与商业用途。",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] 是一款开源权重蒸馏模型,仅限非商业用途。保持接近专业图像质量与指令遵循能力,同时运行更高效,资源利用优于同等规模标准模型。",
|
|
@@ -533,6 +533,47 @@
|
|
|
533
533
|
"gemini-flash-latest.description": "Latest release of Gemini Flash",
|
|
534
534
|
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
|
|
535
535
|
"gemini-pro-latest.description": "Latest release of Gemini Pro",
|
|
536
|
+
"gemma-7b-it.description": "Gemma 7B 是一款适用于中小规模任务的高性价比模型。",
|
|
537
|
+
"gemma2-9b-it.description": "Gemma 2 9B 针对特定任务与工具集成进行了优化。",
|
|
538
|
+
"gemma2.description": "Gemma 2 是 Google 推出的高效模型,适用于从小型应用到复杂数据处理的多种场景。",
|
|
539
|
+
"gemma2:27b.description": "Gemma 2 是 Google 推出的高效模型,适用于从小型应用到复杂数据处理的多种场景。",
|
|
540
|
+
"gemma2:2b.description": "Gemma 2 是 Google 推出的高效模型,适用于从小型应用到复杂数据处理的多种场景。",
|
|
541
|
+
"generalv3.5.description": "讯飞星火 Max 是功能最全面的版本,支持网页搜索与多种内置插件。其核心能力、系统角色与函数调用均经过全面优化,适用于复杂应用场景,表现卓越。",
|
|
542
|
+
"generalv3.description": "讯飞星火 Pro 是一款面向专业领域优化的大模型,专注于数学、编程、医疗与教育,支持网页搜索与天气、日期等内置插件。在复杂知识问答、语言理解与高级文本创作方面表现出色,是专业场景的理想选择。",
|
|
543
|
+
"glm-4-0520.description": "GLM-4-0520 是最新版本模型,专为处理高度复杂与多样化任务而设计,性能卓越。",
|
|
544
|
+
"glm-4-32b-0414.description": "GLM-4 32B 0414 是一款通用 GLM 模型,支持多任务文本生成与理解。",
|
|
545
|
+
"glm-4-9b-chat.description": "GLM-4-9B-Chat 在语义、数学、推理、编程与知识方面表现强劲,支持网页浏览、代码执行、自定义工具调用与长文本推理,支持包括日语、韩语、德语在内的 26 种语言。",
|
|
546
|
+
"glm-4-air-250414.description": "GLM-4-Air 是一款高性价比模型,性能接近 GLM-4,速度快、成本低。",
|
|
547
|
+
"glm-4-air.description": "GLM-4-Air 是一款高性价比模型,性能接近 GLM-4,速度快、成本低。",
|
|
548
|
+
"glm-4-airx.description": "GLM-4-AirX 是 GLM-4-Air 的高效变体,推理速度提升至 2.6 倍。",
|
|
549
|
+
"glm-4-alltools.description": "GLM-4-AllTools 是一款多功能智能体模型,优化用于复杂指令规划与工具使用,如网页浏览、代码解释与文本生成,适合多任务执行。",
|
|
550
|
+
"glm-4-flash-250414.description": "GLM-4-Flash 适用于简单任务:速度最快且免费。",
|
|
551
|
+
"glm-4-flash.description": "GLM-4-Flash 适用于简单任务:速度最快且免费。",
|
|
552
|
+
"glm-4-flashx.description": "GLM-4-FlashX 是 Flash 的增强版,具备超快推理能力。",
|
|
553
|
+
"glm-4-long.description": "GLM-4-Long 支持超长输入,适用于记忆类任务与大规模文档处理。",
|
|
554
|
+
"glm-4-plus.description": "GLM-4-Plus 是一款高智能旗舰模型,具备强大的长文本与复杂任务处理能力,整体性能全面升级。",
|
|
555
|
+
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking 是目前已知最强的约 100 亿参数视觉语言模型,覆盖视频理解、图像问答、学科解题、OCR、文档与图表阅读、GUI 智能体、前端编程与视觉定位等 SOTA 任务。通过先进的强化学习,采用思维链推理提升准确性与丰富性,在结果与可解释性方面均优于传统非思考模型。",
|
|
556
|
+
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking 是目前已知最强的约 100 亿参数视觉语言模型,覆盖视频理解、图像问答、学科解题、OCR、文档与图表阅读、GUI 智能体、前端编程与视觉定位等 SOTA 任务。通过先进的强化学习,采用思维链推理提升准确性与丰富性,在结果与可解释性方面均优于传统非思考模型。",
|
|
557
|
+
"glm-4.5-air.description": "GLM-4.5 轻量版,兼顾性能与成本,支持灵活的混合思维模式。",
|
|
558
|
+
"glm-4.5-airx.description": "GLM-4.5-Air 快速版,响应更快,适用于大规模高速使用场景。",
|
|
559
|
+
"glm-4.5-flash.description": "GLM-4.5 免费版,在推理、编程与智能体任务中表现强劲。",
|
|
560
|
+
"glm-4.5-x.description": "GLM-4.5 快速版,生成速度高达每秒 100 个 token,性能强劲。",
|
|
561
|
+
"glm-4.5.description": "智谱旗舰模型,支持可切换思维模式,整体性能达开源 SOTA,支持最长 128K 上下文。",
|
|
562
|
+
"glm-4.5v.description": "智谱下一代 MoE 视觉推理模型,总参数 106B,激活参数 12B,在图像、视频、文档理解与 GUI 任务中,在同规模开源多模态模型中表现领先。",
|
|
563
|
+
"glm-4.6.description": "智谱最新旗舰模型 GLM-4.6(355B)在高级编程、长文本处理、推理与智能体能力方面全面超越前代,尤其在编程能力上对齐 Claude Sonnet 4,成为国内顶尖的编程模型。",
|
|
564
|
+
"glm-4.7.description": "GLM-4.7 是智谱最新旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的领先表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。",
|
|
565
|
+
"glm-4.description": "GLM-4 是 2024 年 1 月发布的旧版旗舰模型,现已由更强的 GLM-4-0520 替代。",
|
|
566
|
+
"glm-4v-flash.description": "GLM-4V-Flash 专注于高效的单图像理解,适用于实时或批量图像处理等快速分析场景。",
|
|
567
|
+
"glm-4v-plus-0111.description": "GLM-4V-Plus 支持视频与多图像理解,适用于多模态任务。",
|
|
568
|
+
"glm-4v-plus.description": "GLM-4V-Plus 支持视频与多图像理解,适用于多模态任务。",
|
|
569
|
+
"glm-4v.description": "GLM-4V 在视觉任务中具备强大的图像理解与推理能力。",
|
|
570
|
+
"glm-z1-air.description": "具备强大推理能力的模型,适用于需要深度推理的任务。",
|
|
571
|
+
"glm-z1-airx.description": "超快推理,兼具高质量推理表现。",
|
|
572
|
+
"glm-z1-flash.description": "GLM-Z1 系列具备强大的复杂推理能力,在逻辑、数学与编程方面表现出色。",
|
|
573
|
+
"glm-z1-flashx.description": "快速且低成本:Flash 增强版,具备超快推理与更高并发能力。",
|
|
574
|
+
"glm-zero-preview.description": "GLM-Zero-Preview 具备强大的复杂推理能力,在逻辑、数学与编程方面表现出色。",
|
|
575
|
+
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要高质量响应与推理的复杂任务。",
|
|
576
|
+
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash 提供下一代能力,包括卓越速度、原生工具使用、多模态生成与 100 万 token 上下文窗口支持。",
|
|
536
577
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "适用于视觉理解代理应用的高级图像推理模型。",
|
|
537
578
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先进的多语言开源 Llama 模型,在极低成本下实现接近 405B 的性能。该模型基于 Transformer 架构,并通过 SFT 和 RLHF 提升实用性与安全性。其指令微调版本专为多语言对话优化,在行业基准测试中超越众多开源与闭源聊天模型。知识截止时间:2023 年 12 月。",
|
|
538
579
|
"meta/Meta-Llama-3-70B-Instruct.description": "一款功能强大的 700 亿参数模型,擅长推理、编程和广泛的语言任务。",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。",
|
|
30
30
|
"jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
|
|
31
31
|
"lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud 使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。",
|
|
32
33
|
"minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI,拥有多模态基础模型,包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
|
|
33
34
|
"mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。",
|
|
34
35
|
"modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。",
|
|
@@ -25,7 +25,6 @@
|
|
|
25
25
|
"agentCronJobs.form.validation.nameRequired": "任务名称不能为空",
|
|
26
26
|
"agentCronJobs.interval.12hours": "每12小时",
|
|
27
27
|
"agentCronJobs.interval.1hour": "每小时",
|
|
28
|
-
"agentCronJobs.interval.2hours": "每2小时",
|
|
29
28
|
"agentCronJobs.interval.30min": "每30分钟",
|
|
30
29
|
"agentCronJobs.interval.6hours": "每6小时",
|
|
31
30
|
"agentCronJobs.interval.daily": "每日",
|
|
@@ -34,6 +33,7 @@
|
|
|
34
33
|
"agentCronJobs.maxExecutions": "最大执行次数",
|
|
35
34
|
"agentCronJobs.name": "任务名称",
|
|
36
35
|
"agentCronJobs.never": "从未",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "无执行结果",
|
|
37
37
|
"agentCronJobs.remainingExecutions": "剩余:{{count}}",
|
|
38
38
|
"agentCronJobs.save": "保存",
|
|
39
39
|
"agentCronJobs.schedule": "计划",
|
|
@@ -43,6 +43,7 @@
|
|
|
43
43
|
"agentCronJobs.timeRange": "时间范围",
|
|
44
44
|
"agentCronJobs.title": "定时任务",
|
|
45
45
|
"agentCronJobs.unlimited": "无限",
|
|
46
|
+
"agentCronJobs.unnamedTask": "未命名任务",
|
|
46
47
|
"agentCronJobs.updateSuccess": "定时任务更新成功",
|
|
47
48
|
"agentCronJobs.weekdays": "工作日",
|
|
48
49
|
"agentInfoDescription.basic.avatar": "头像",
|
package/locales/zh-TW/chat.json
CHANGED
|
@@ -63,6 +63,7 @@
|
|
|
63
63
|
"extendParams.reasoningEffort.title": "推理強度",
|
|
64
64
|
"extendParams.textVerbosity.title": "輸出文本詳細程度",
|
|
65
65
|
"extendParams.thinking.title": "深度思考開關",
|
|
66
|
+
"extendParams.thinkingBudget.title": "思考預算",
|
|
66
67
|
"extendParams.thinkingLevel.title": "思考層級",
|
|
67
68
|
"extendParams.title": "模型擴展功能",
|
|
68
69
|
"extendParams.urlContext.desc": "開啟後將自動解析網頁連結,以取得實際網頁上下文內容",
|
|
@@ -194,6 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "模型部署名稱",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "請輸入模型的展示名稱,例如 ChatGPT、GPT-4 等",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "模型展示名稱",
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "選擇模型支援的擴充參數。將滑鼠懸停於選項上可預覽控制項。設定錯誤可能導致請求失敗。",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "適用於 Claude 模型;可降低成本並加快回應速度。",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "適用於 Claude、DeepSeek 及其他推理模型;啟用更深入的思考能力。",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "適用於 GPT-5 系列;控制推理強度。",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "適用於 GPT-5.1 系列;控制推理強度。",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "適用於 GPT-5.2 Pro 系列;控制推理強度。",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "適用於 GPT-5.2 系列;控制推理強度。",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "適用於 Gemini 圖像生成模型;控制生成圖像的長寬比。",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "適用於 Gemini 3 圖像生成模型;控制生成圖像的解析度。",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "適用於 Claude、Qwen3 等模型;控制推理所用的 Token 預算。",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "適用於 OpenAI 及其他具推理能力的模型;控制推理程度。",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "適用於 GPT-5+ 系列;控制輸出內容的詳盡程度。",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "適用於部分豆包模型;允許模型自行決定是否進行深入思考。",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "適用於 Gemini 系列;控制思考預算。",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "適用於 Gemini 3 Flash Preview 模型;控制思考深度。",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "適用於 Gemini 3 Pro Preview 模型;控制思考深度。",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "適用於 Gemini 系列;支援提供 URL 作為上下文。",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "選擇要啟用的擴充參數",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "無法預覽",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "擴充參數",
|
|
197
217
|
"providerModels.item.modelConfig.files.extra": "當前文件上傳實現僅為一種 Hack 方案,僅限自行嘗試。完整文件上傳能力請等待後續實現",
|
|
198
218
|
"providerModels.item.modelConfig.files.title": "支持文件上傳",
|
|
199
219
|
"providerModels.item.modelConfig.functionCall.extra": "此配置將僅開啟模型使用工具的能力,進而可以為模型添加工具類的插件。但是否支持真正使用工具完全取決於模型本身,請自行測試其可用性",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
|
|
272
272
|
"claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
273
273
|
"claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 最新一代中速度最快的模型,在多項技能上有所提升,並在多項基準測試中超越前一代旗艦 Claude 3 Opus。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智慧的模型,也是市場上首個混合推理模型,支援即時回應與延伸思考,並提供細緻的控制能力。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 迄今最快且最智慧的 Haiku 模型,具備閃電般的速度與延伸思考能力。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜任務而設,表現出色,具備卓越的智慧、流暢度與理解力。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 目前最智慧的模型,為 API 使用者提供即時回應或逐步推理的能力,並具備細緻控制功能。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 在推理能力與輸出長度之間取得平衡,適用於日常問答與智能代理任務。其公開基準測試達到 GPT-5 水準,並首創將思考整合至工具使用中,在開源代理評估中表現領先。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,在輸出前先生成思考鏈(chain-of-thought),以提升準確性,在競賽中表現優異,推理能力媲美 Gemini-3.0-Pro。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超輕量模型,適合簡單問答、分類與低成本推理。",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具備 32K 上下文,適合複雜推理與多輪對話。",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 預覽版是一款思考模型預覽,用於評估與測試。",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字節跳動 Seed 團隊打造,支援文字與圖像輸入,能從提示中生成高品質、可控性強的圖像。",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型專注於圖像編輯,支援文字與圖像輸入。",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文字與參考圖像輸入,實現目標區域編輯與複雜場景轉換。",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款圖像生成模型,偏好更真實自然的美學風格。",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "一款強大的原生多模態圖像生成模型。",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "來自 Google 的高品質圖像生成模型。",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模態模型,支援透過對話進行圖像生成與編輯。",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "來自 Qwen
|
|
483
|
-
"fal-ai/qwen-image.description": "
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "來自 Qwen 團隊的專業圖像編輯模型,支援語義與外觀編輯、中英文文字精準修改、風格轉換、旋轉等功能。",
|
|
483
|
+
"fal-ai/qwen-image.description": "Qwen 團隊推出的強大圖像生成模型,具備優異的中文文字渲染能力與多樣化視覺風格。",
|
|
484
484
|
"flux-1-schnell.description": "來自黑森林實驗室的 12B 參數文字轉圖像模型,透過潛在對抗擴散蒸餾技術,在 1 至 4 步內生成高品質圖像。其表現媲美封閉式替代方案,並以 Apache-2.0 授權釋出,供個人、研究與商業用途。",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] 是一款開放權重的蒸餾模型,僅限非商業用途。它保有接近專業水準的圖像品質與指令遵循能力,同時運行更高效,資源使用優於同等大小的標準模型。",
|
|
486
486
|
"flux-kontext-max.description": "最先進的語境圖像生成與編輯技術,結合文字與圖像輸入,實現精準且一致的結果。",
|
|
@@ -573,6 +573,25 @@
|
|
|
573
573
|
"glm-z1-flashx.description": "快速且低成本:Flash 增強版,具備超快推理與高併發能力。",
|
|
574
574
|
"glm-zero-preview.description": "GLM-Zero-Preview 具備強大的複雜推理能力,擅長邏輯、數學與程式任務。",
|
|
575
575
|
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適用於需要最高品質回應與推理的複雜任務。",
|
|
576
|
+
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash 提供新一代能力,包括極速處理、原生工具使用、多模態生成,以及 100 萬 token 的上下文視窗。",
|
|
577
|
+
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental 是 Google 最新的實驗性多模態 AI 模型,較前代在世界知識、程式碼與長上下文處理方面有明顯提升。",
|
|
578
|
+
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite 是輕量版 Gemini,預設關閉思考功能以降低延遲與成本,但可透過參數啟用。",
|
|
579
|
+
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite 提供新一代功能,包括極速處理、內建工具使用、多模態生成,以及 100 萬 token 的上下文視窗。",
|
|
580
|
+
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash 是 Google 的高效能推理模型,適用於延伸多模態任務。",
|
|
581
|
+
"google/gemini-2.5-flash-image-free.description": "Gemini 2.5 Flash Image 免費層,支援有限配額的多模態生成。",
|
|
582
|
+
"google/gemini-2.5-flash-image-preview.description": "Gemini 2.5 Flash 實驗模型,支援圖像生成。",
|
|
583
|
+
"google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image(Nano Banana)是 Google 的圖像生成模型,支援多模態對話。",
|
|
584
|
+
"google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite 是 Gemini 2.5 的輕量版本,針對延遲與成本進行優化,適合高吞吐量場景。",
|
|
585
|
+
"google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash 是 Google 最先進的旗艦模型,專為高階推理、程式設計、數學與科學任務打造。內建「思考」功能,能提供更高準確度與更細緻的上下文處理。\n\n注意:此模型有兩種變體——思考與非思考。啟用思考功能會產生額外費用。若選擇標準版本(無「:thinking」後綴),模型將避免生成思考 token。\n\n若需使用思考功能並接收思考 token,請選擇「:thinking」變體,將產生較高的輸出費用。\n\nGemini 2.5 Flash 亦可透過「max reasoning tokens」參數進行配置,詳見文件:https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning。",
|
|
586
|
+
"google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash 是 Google 最先進的旗艦模型,專為高階推理、程式設計、數學與科學任務打造。內建「思考」功能,能提供更高準確度與更細緻的上下文處理。\n\n注意:此模型有兩種變體——思考與非思考。啟用思考功能會產生額外費用。若選擇標準版本(無「:thinking」後綴),模型將避免生成思考 token。\n\n若需使用思考功能並接收思考 token,請選擇「:thinking」變體,將產生較高的輸出費用。\n\nGemini 2.5 Flash 亦可透過「max reasoning tokens」參數進行配置,詳見文件:https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning。",
|
|
587
|
+
"google/gemini-2.5-flash.description": "Gemini 2.5 Flash(Lite/Pro/Flash)是 Google 的模型家族,涵蓋低延遲至高效能推理應用。",
|
|
588
|
+
"google/gemini-2.5-pro-free.description": "Gemini 2.5 Pro 免費層提供有限配額的多模態長上下文支援,適合試用與輕量工作流程。",
|
|
589
|
+
"google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview 是 Google 最先進的思考模型,適用於程式碼、數學與 STEM 領域的複雜推理,並能分析大型資料集、程式碼庫與長文件。",
|
|
590
|
+
"google/gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗艦推理模型,支援長上下文處理,適用於複雜任務。",
|
|
591
|
+
"google/gemini-3-pro-image-preview-free.description": "Gemini 3 Pro Image 免費層,支援有限配額的多模態生成。",
|
|
592
|
+
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,支援多模態對話。",
|
|
593
|
+
"google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview 免費版具備與標準版相同的多模態理解與推理能力,但有配額與速率限制,適合試用與低頻使用。",
|
|
594
|
+
"google/gemini-3-pro-preview.description": "Gemini 3 Pro 是 Gemini 家族的次世代多模態推理模型,能理解文字、音訊、圖像與影片,處理複雜任務與大型程式碼庫。",
|
|
576
595
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "先進的圖像推理能力,適用於視覺理解代理應用。",
|
|
577
596
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先進的多語言開源 Llama 模型,以極低成本提供接近 405B 的效能。該模型基於 Transformer 架構,並透過 SFT 與 RLHF 提升實用性與安全性。經指令微調版本針對多語言對話進行最佳化,在業界基準測試中超越多數開放與封閉模型。知識截止時間:2023 年 12 月。",
|
|
578
597
|
"meta/Meta-Llama-3-70B-Instruct.description": "一款功能強大的 70B 參數模型,擅長推理、程式編寫與廣泛語言任務。",
|
|
@@ -92,6 +92,7 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "沒有結果",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "本機系統",
|
|
95
|
+
"builtins.lobe-notebook.actions.collapse": "收合",
|
|
95
96
|
"builtins.lobe-notebook.actions.copy": "複製",
|
|
96
97
|
"builtins.lobe-notebook.actions.creating": "正在建立文件...",
|
|
97
98
|
"builtins.lobe-notebook.actions.edit": "編輯",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "一個專注於大型模型研究與工具的開源組織,提供高效、易用的平台,讓尖端模型與演算法更易於取得。",
|
|
30
30
|
"jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。",
|
|
31
31
|
"lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型,並以與模型代幣相關的點數來計算使用量。",
|
|
32
33
|
"minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI,擁有多模態基礎模型,包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。",
|
|
33
34
|
"mistral.description": "Mistral 提供先進的通用、專業與研究模型,支援複雜推理、多語言任務與程式碼生成,並支援函式呼叫以實現自訂整合。",
|
|
34
35
|
"modelscope.description": "ModelScope 是阿里雲的模型即服務平台,提供多樣化的 AI 模型與推理服務。",
|
|
@@ -33,6 +33,7 @@
|
|
|
33
33
|
"agentCronJobs.maxExecutions": "最大執行次數",
|
|
34
34
|
"agentCronJobs.name": "任務名稱",
|
|
35
35
|
"agentCronJobs.never": "從未",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "沒有執行結果",
|
|
36
37
|
"agentCronJobs.remainingExecutions": "剩餘:{{count}}",
|
|
37
38
|
"agentCronJobs.save": "儲存",
|
|
38
39
|
"agentCronJobs.schedule": "排程",
|
|
@@ -42,6 +43,7 @@
|
|
|
42
43
|
"agentCronJobs.timeRange": "時間範圍",
|
|
43
44
|
"agentCronJobs.title": "排程任務",
|
|
44
45
|
"agentCronJobs.unlimited": "無限制",
|
|
46
|
+
"agentCronJobs.unnamedTask": "未命名的任務",
|
|
45
47
|
"agentCronJobs.updateSuccess": "排程任務更新成功",
|
|
46
48
|
"agentCronJobs.weekdays": "平日",
|
|
47
49
|
"agentInfoDescription.basic.avatar": "頭像",
|
package/package.json
CHANGED
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
{
|
|
2
2
|
"name": "@lobehub/lobehub",
|
|
3
|
-
"version": "2.0.0-next.
|
|
3
|
+
"version": "2.0.0-next.267",
|
|
4
4
|
"description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
|
5
5
|
"keywords": [
|
|
6
6
|
"framework",
|
|
@@ -359,7 +359,7 @@
|
|
|
359
359
|
"zustand-utils": "^2.1.1"
|
|
360
360
|
},
|
|
361
361
|
"devDependencies": {
|
|
362
|
-
"@ast-grep/napi": "^0.40.
|
|
362
|
+
"@ast-grep/napi": "^0.40.5",
|
|
363
363
|
"@commitlint/cli": "^19.8.1",
|
|
364
364
|
"@edge-runtime/vm": "^5.0.0",
|
|
365
365
|
"@huggingface/tasks": "^0.19.74",
|
|
@@ -418,7 +418,7 @@
|
|
|
418
418
|
"eslint-plugin-mdx": "^3.6.2",
|
|
419
419
|
"fake-indexeddb": "^6.2.5",
|
|
420
420
|
"fs-extra": "^11.3.3",
|
|
421
|
-
"glob": "^
|
|
421
|
+
"glob": "^13.0.0",
|
|
422
422
|
"happy-dom": "^20.0.11",
|
|
423
423
|
"husky": "^9.1.7",
|
|
424
424
|
"import-in-the-middle": "^2.0.1",
|