@lobehub/chat 1.115.0 → 1.116.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.cursor/rules/add-provider-doc.mdc +183 -0
- package/.env.example +8 -0
- package/.github/workflows/claude.yml +1 -1
- package/.github/workflows/release.yml +3 -3
- package/.github/workflows/test.yml +3 -7
- package/CHANGELOG.md +42 -0
- package/CLAUDE.md +6 -6
- package/Dockerfile +5 -1
- package/Dockerfile.database +5 -1
- package/Dockerfile.pglite +5 -1
- package/changelog/v1.json +14 -0
- package/docs/development/basic/setup-development.mdx +10 -13
- package/docs/development/basic/setup-development.zh-CN.mdx +9 -12
- package/docs/development/database-schema.dbml +44 -0
- package/docs/self-hosting/environment-variables/model-provider.mdx +27 -2
- package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +27 -2
- package/docs/usage/providers/bfl.mdx +68 -0
- package/docs/usage/providers/bfl.zh-CN.mdx +67 -0
- package/locales/ar/components.json +11 -0
- package/locales/ar/error.json +11 -0
- package/locales/ar/models.json +64 -4
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/components.json +11 -0
- package/locales/bg-BG/error.json +11 -0
- package/locales/bg-BG/models.json +64 -4
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/components.json +11 -0
- package/locales/de-DE/error.json +11 -12
- package/locales/de-DE/models.json +64 -4
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/components.json +6 -0
- package/locales/en-US/error.json +11 -12
- package/locales/en-US/models.json +64 -4
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/components.json +11 -0
- package/locales/es-ES/error.json +11 -0
- package/locales/es-ES/models.json +64 -6
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/components.json +11 -0
- package/locales/fa-IR/error.json +11 -0
- package/locales/fa-IR/models.json +64 -4
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/components.json +11 -0
- package/locales/fr-FR/error.json +11 -12
- package/locales/fr-FR/models.json +64 -4
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/components.json +11 -0
- package/locales/it-IT/error.json +11 -0
- package/locales/it-IT/models.json +64 -4
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/components.json +11 -0
- package/locales/ja-JP/error.json +11 -12
- package/locales/ja-JP/models.json +64 -4
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/components.json +11 -0
- package/locales/ko-KR/error.json +11 -12
- package/locales/ko-KR/models.json +64 -6
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/components.json +11 -0
- package/locales/nl-NL/error.json +11 -0
- package/locales/nl-NL/models.json +62 -4
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/components.json +11 -0
- package/locales/pl-PL/error.json +11 -0
- package/locales/pl-PL/models.json +64 -4
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/components.json +11 -0
- package/locales/pt-BR/error.json +11 -0
- package/locales/pt-BR/models.json +64 -4
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/components.json +11 -0
- package/locales/ru-RU/error.json +11 -0
- package/locales/ru-RU/models.json +64 -4
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/components.json +11 -0
- package/locales/tr-TR/error.json +11 -0
- package/locales/tr-TR/models.json +64 -4
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/components.json +11 -0
- package/locales/vi-VN/error.json +11 -0
- package/locales/vi-VN/models.json +64 -4
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/components.json +6 -0
- package/locales/zh-CN/error.json +11 -0
- package/locales/zh-CN/models.json +64 -4
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/components.json +11 -0
- package/locales/zh-TW/error.json +11 -12
- package/locales/zh-TW/models.json +64 -6
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/packages/database/migrations/0030_add_group_chat.sql +36 -0
- package/packages/database/migrations/meta/0030_snapshot.json +6417 -0
- package/packages/database/migrations/meta/_journal.json +7 -0
- package/packages/database/src/core/migrations.json +19 -0
- package/packages/database/src/models/__tests__/topic.test.ts +3 -1
- package/packages/database/src/repositories/tableViewer/index.test.ts +1 -1
- package/packages/database/src/schemas/chatGroup.ts +98 -0
- package/packages/database/src/schemas/index.ts +1 -0
- package/packages/database/src/schemas/message.ts +4 -1
- package/packages/database/src/schemas/relations.ts +26 -0
- package/packages/database/src/schemas/topic.ts +2 -0
- package/packages/database/src/types/chatGroup.ts +9 -0
- package/packages/database/src/utils/idGenerator.ts +1 -0
- package/packages/model-runtime/src/google/index.ts +3 -0
- package/packages/model-runtime/src/qwen/createImage.test.ts +0 -19
- package/packages/model-runtime/src/qwen/createImage.ts +1 -27
- package/packages/model-runtime/src/utils/modelParse.ts +17 -8
- package/packages/model-runtime/src/utils/streams/google-ai.ts +26 -14
- package/packages/types/src/aiModel.ts +2 -1
- package/src/config/aiModels/google.ts +22 -1
- package/src/config/aiModels/qwen.ts +2 -2
- package/src/config/aiModels/vertexai.ts +22 -0
- package/src/features/FileViewer/Renderer/PDF/index.tsx +2 -2
- package/.cursor/rules/debug.mdc +0 -193
@@ -332,12 +332,21 @@
|
|
332
332
|
"Qwen/Qwen3-30B-A3B-Instruct-2507": {
|
333
333
|
"description": "Qwen3-30B-A3B-Instruct-2507 là phiên bản cập nhật của Qwen3-30B-A3B ở chế độ không suy nghĩ. Đây là một mô hình chuyên gia hỗn hợp (MoE) với tổng cộng 30,5 tỷ tham số và 3,3 tỷ tham số kích hoạt. Mô hình này đã được cải tiến quan trọng ở nhiều khía cạnh, bao gồm nâng cao đáng kể khả năng tuân thủ chỉ dẫn, suy luận logic, hiểu văn bản, toán học, khoa học, lập trình và sử dụng công cụ. Đồng thời, nó đạt được tiến bộ thực chất trong việc bao phủ kiến thức đa ngôn ngữ và có khả năng điều chỉnh tốt hơn với sở thích của người dùng trong các nhiệm vụ chủ quan và mở, từ đó tạo ra các phản hồi hữu ích hơn và văn bản chất lượng cao hơn. Ngoài ra, khả năng hiểu văn bản dài của mô hình cũng được nâng lên đến 256K. Mô hình này chỉ hỗ trợ chế độ không suy nghĩ và không tạo ra thẻ `<think></think>` trong đầu ra."
|
334
334
|
},
|
335
|
+
"Qwen/Qwen3-30B-A3B-Thinking-2507": {
|
336
|
+
"description": "Qwen3-30B-A3B-Thinking-2507 là mô hình \"suy nghĩ\" mới nhất trong dòng Qwen3, được phát hành bởi nhóm Tongyi Qianwen của Alibaba. Là một mô hình chuyên gia hỗn hợp (MoE) với tổng cộng 305亿 (30,5 tỷ) tham số và 33亿 (3,3 tỷ) tham số kích hoạt, mô hình tập trung vào nâng cao khả năng xử lý các nhiệm vụ phức tạp. Mô hình này thể hiện hiệu năng cải thiện rõ rệt trên các chuẩn đánh giá học thuật về suy luận logic, toán học, khoa học, lập trình và những bài toán đòi hỏi chuyên môn của con người. Đồng thời, các năng lực chung như tuân thủ hướng dẫn, sử dụng công cụ, sinh văn bản và căn chỉnh theo sở thích con người cũng được tăng cường đáng kể. Mô hình hỗ trợ nguyên sinh khả năng hiểu ngữ cảnh dài 256K và có thể mở rộng lên tới 1 triệu token. Phiên bản này được thiết kế dành cho \"chế độ suy nghĩ\", nhằm giải quyết các nhiệm vụ có độ phức tạp cao thông qua quá trình suy luận từng bước chi tiết, đồng thời năng lực tác nhân (Agent) của nó cũng thể hiện xuất sắc."
|
337
|
+
},
|
335
338
|
"Qwen/Qwen3-32B": {
|
336
339
|
"description": "Qwen3 là một mô hình lớn thế hệ mới của Tongyi Qianwen với khả năng nâng cao đáng kể, đạt được trình độ hàng đầu trong nhiều khả năng cốt lõi như suy luận, tổng quát, đại lý và đa ngôn ngữ, đồng thời hỗ trợ chuyển đổi chế độ suy nghĩ."
|
337
340
|
},
|
338
341
|
"Qwen/Qwen3-8B": {
|
339
342
|
"description": "Qwen3 là một mô hình lớn thế hệ mới của Tongyi Qianwen với khả năng nâng cao đáng kể, đạt được trình độ hàng đầu trong nhiều khả năng cốt lõi như suy luận, tổng quát, đại lý và đa ngôn ngữ, đồng thời hỗ trợ chuyển đổi chế độ suy nghĩ."
|
340
343
|
},
|
344
|
+
"Qwen/Qwen3-Coder-30B-A3B-Instruct": {
|
345
|
+
"description": "Qwen3-Coder-30B-A3B-Instruct là một mô hình mã trong dòng Qwen3 được phát triển bởi đội ngũ Tongyi Qianwen của Alibaba. Là một mô hình được tinh giản và tối ưu hóa, nó tập trung nâng cao khả năng xử lý mã nguồn trong khi vẫn duy trì hiệu năng và hiệu suất cao. Mô hình này thể hiện ưu thế hiệu năng nổi bật so với các mô hình mã nguồn mở trong các tác vụ phức tạp như lập trình tác nhân (Agentic Coding), tự động hóa thao tác trình duyệt và gọi công cụ. Nó hỗ trợ ngữ cảnh dài 256K token một cách nguyên bản và có thể mở rộng tới 1M token, giúp hiểu và xử lý ở mức độ toàn bộ kho mã tốt hơn. Ngoài ra, mô hình còn cung cấp hỗ trợ lập trình tác nhân mạnh mẽ cho các nền tảng như Qwen Code, CLINE và được thiết kế với định dạng gọi hàm chuyên biệt."
|
346
|
+
},
|
347
|
+
"Qwen/Qwen3-Coder-480B-A35B-Instruct": {
|
348
|
+
"description": "Qwen3-Coder-480B-A35B-Instruct là mô hình mã do Alibaba phát hành, được đánh giá là có khả năng tác nhân (agentic) mạnh mẽ nhất tính đến nay. Đây là một mô hình chuyên gia hỗn hợp (Mixture of Experts, MoE) với tổng cộng 480 tỷ tham số và 35 tỷ tham số kích hoạt, cân bằng giữa hiệu suất và hiệu quả. Mô hình này hỗ trợ ngữ cảnh gốc dài 256K (khoảng 260 nghìn) token và có thể được mở rộng tới 1 triệu token thông qua các phương pháp ngoại suy như YaRN, giúp nó xử lý các kho mã quy mô lớn và các nhiệm vụ lập trình phức tạp. Qwen3-Coder được thiết kế cho quy trình làm việc lập trình theo mô hình tác nhân, không chỉ sinh mã mà còn có khả năng tương tác tự chủ với các công cụ và môi trường phát triển để giải quyết những vấn đề lập trình phức tạp. Trong nhiều bộ đánh giá chuẩn về mã nguồn và nhiệm vụ tác nhân, mô hình này đạt thứ hạng dẫn đầu trong các mô hình mã nguồn mở, với hiệu năng có thể sánh ngang các mô hình hàng đầu như Claude Sonnet 4."
|
349
|
+
},
|
341
350
|
"Qwen2-72B-Instruct": {
|
342
351
|
"description": "Qwen2 là dòng mô hình mới nhất của Qwen, hỗ trợ ngữ cảnh 128k, so với các mô hình mã nguồn mở tốt nhất hiện tại, Qwen2-72B vượt trội hơn hẳn trong nhiều khả năng như hiểu ngôn ngữ tự nhiên, kiến thức, mã, toán học và đa ngôn ngữ."
|
343
352
|
},
|
@@ -1103,12 +1112,27 @@
|
|
1103
1112
|
"flux-dev": {
|
1104
1113
|
"description": "FLUX.1 [dev] là mô hình tinh luyện mã nguồn mở dành cho ứng dụng phi thương mại. FLUX.1 [dev] duy trì chất lượng hình ảnh và khả năng tuân thủ chỉ dẫn gần tương đương phiên bản chuyên nghiệp FLUX, đồng thời có hiệu suất vận hành cao hơn. So với mô hình chuẩn cùng kích thước, nó sử dụng tài nguyên hiệu quả hơn."
|
1105
1114
|
},
|
1115
|
+
"flux-kontext-max": {
|
1116
|
+
"description": "Tạo và chỉnh sửa hình ảnh theo ngữ cảnh tiên tiến nhất — kết hợp văn bản và hình ảnh để có kết quả chính xác, mạch lạc."
|
1117
|
+
},
|
1118
|
+
"flux-kontext-pro": {
|
1119
|
+
"description": "Tạo và chỉnh sửa hình ảnh theo ngữ cảnh tiên tiến nhất — kết hợp văn bản và hình ảnh để đạt được kết quả chính xác, mạch lạc."
|
1120
|
+
},
|
1106
1121
|
"flux-kontext/dev": {
|
1107
1122
|
"description": "Mô hình FLUX.1 tập trung vào nhiệm vụ chỉnh sửa hình ảnh, hỗ trợ đầu vào văn bản và hình ảnh."
|
1108
1123
|
},
|
1109
1124
|
"flux-merged": {
|
1110
1125
|
"description": "Mô hình FLUX.1-merged kết hợp các đặc tính sâu sắc được khám phá trong giai đoạn phát triển của \"DEV\" và ưu thế thực thi nhanh của \"Schnell\". Qua đó, FLUX.1-merged không chỉ nâng cao giới hạn hiệu suất mà còn mở rộng phạm vi ứng dụng."
|
1111
1126
|
},
|
1127
|
+
"flux-pro": {
|
1128
|
+
"description": "Mô hình tạo ảnh AI thương mại hàng đầu — chất lượng hình ảnh vô song và độ đa dạng đầu ra vượt trội."
|
1129
|
+
},
|
1130
|
+
"flux-pro-1.1": {
|
1131
|
+
"description": "Mô hình tạo ảnh AI chuyên nghiệp phiên bản nâng cấp — cung cấp chất lượng hình ảnh vượt trội và khả năng tuân thủ chính xác các gợi ý."
|
1132
|
+
},
|
1133
|
+
"flux-pro-1.1-ultra": {
|
1134
|
+
"description": "Tạo ảnh AI độ phân giải cực cao — hỗ trợ xuất ảnh 4 megapixel, tạo ảnh siêu nét trong vòng 10 giây."
|
1135
|
+
},
|
1112
1136
|
"flux-pro/kontext": {
|
1113
1137
|
"description": "FLUX.1 Kontext [pro] có khả năng xử lý văn bản và hình ảnh tham khảo làm đầu vào, thực hiện chỉnh sửa cục bộ có mục tiêu và biến đổi cảnh tổng thể phức tạp một cách liền mạch."
|
1114
1138
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"gemini-2.5-flash": {
|
1194
1218
|
"description": "Gemini 2.5 Flash là mô hình có hiệu suất chi phí tốt nhất của Google, cung cấp đầy đủ các chức năng."
|
1195
1219
|
},
|
1220
|
+
"gemini-2.5-flash-image-preview": {
|
1221
|
+
"description": "Gemini 2.5 Flash Image Preview là mô hình đa phương thức nguyên bản mới nhất, nhanh nhất và hiệu quả nhất của Google; nó cho phép bạn tạo và chỉnh sửa hình ảnh thông qua hội thoại."
|
1222
|
+
},
|
1196
1223
|
"gemini-2.5-flash-lite": {
|
1197
1224
|
"description": "Gemini 2.5 Flash-Lite là mô hình nhỏ nhất và có hiệu suất chi phí tốt nhất của Google, được thiết kế dành cho việc sử dụng quy mô lớn."
|
1198
1225
|
},
|
@@ -1295,6 +1322,9 @@
|
|
1295
1322
|
"glm-4.5-x": {
|
1296
1323
|
"description": "Phiên bản tốc độ cao của GLM-4.5, vừa mạnh mẽ về hiệu suất, vừa đạt tốc độ tạo 100 token/giây."
|
1297
1324
|
},
|
1325
|
+
"glm-4.5v": {
|
1326
|
+
"description": "Mô hình suy luận thị giác thế hệ mới của Zhipu dựa trên kiến trúc MOE, với tổng số tham số 106B và 12B tham số kích hoạt, đạt SOTA trong số các mô hình đa phương thức mã nguồn mở cùng cấp trên toàn cầu trên nhiều bộ đánh giá, bao gồm các nhiệm vụ phổ biến như hiểu ảnh, video, tài liệu và giao diện người dùng (GUI)."
|
1327
|
+
},
|
1298
1328
|
"glm-4v": {
|
1299
1329
|
"description": "GLM-4V cung cấp khả năng hiểu và suy luận hình ảnh mạnh mẽ, hỗ trợ nhiều nhiệm vụ hình ảnh."
|
1300
1330
|
},
|
@@ -1434,7 +1464,7 @@
|
|
1434
1464
|
"description": "GPT-4.1 mini cung cấp sự cân bằng giữa trí tuệ, tốc độ và chi phí, khiến nó trở thành mô hình hấp dẫn cho nhiều trường hợp sử dụng."
|
1435
1465
|
},
|
1436
1466
|
"gpt-4.5-preview": {
|
1437
|
-
"description": "
|
1467
|
+
"description": "GPT-4.5-preview là mô hình tổng quát mới nhất, sở hữu kiến thức toàn cầu sâu rộng và khả năng hiểu ý định người dùng tốt hơn, mạnh trong các nhiệm vụ sáng tạo và trong việc lập kế hoạch cho các tác nhân. Kiến thức của mô hình được cập nhật đến tháng 10 năm 2023."
|
1438
1468
|
},
|
1439
1469
|
"gpt-4o": {
|
1440
1470
|
"description": "ChatGPT-4o là một mô hình động, được cập nhật theo thời gian thực để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và sinh ngôn ngữ mạnh mẽ, phù hợp cho các ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật."
|
@@ -1637,9 +1667,18 @@
|
|
1637
1667
|
"image-01-live": {
|
1638
1668
|
"description": "Mô hình tạo hình ảnh với chất lượng tinh tế, hỗ trợ tạo hình ảnh từ văn bản và thiết lập phong cách hình ảnh."
|
1639
1669
|
},
|
1670
|
+
"imagen-4.0-fast-generate-001": {
|
1671
|
+
"description": "Imagen — dòng mô hình tạo ảnh từ văn bản thế hệ thứ 4, phiên bản nhanh."
|
1672
|
+
},
|
1673
|
+
"imagen-4.0-generate-001": {
|
1674
|
+
"description": "Dòng mô hình Imagen thế hệ thứ tư chuyển văn bản thành hình ảnh"
|
1675
|
+
},
|
1640
1676
|
"imagen-4.0-generate-preview-06-06": {
|
1641
1677
|
"description": "Dòng mô hình chuyển đổi văn bản thành hình ảnh thế hệ thứ 4 của Imagen"
|
1642
1678
|
},
|
1679
|
+
"imagen-4.0-ultra-generate-001": {
|
1680
|
+
"description": "Imagen thế hệ thứ 4, dòng mô hình chuyển văn bản sang hình ảnh — phiên bản Ultra"
|
1681
|
+
},
|
1643
1682
|
"imagen-4.0-ultra-generate-preview-06-06": {
|
1644
1683
|
"description": "Phiên bản Ultra của dòng mô hình chuyển đổi văn bản thành hình ảnh thế hệ thứ 4 của Imagen"
|
1645
1684
|
},
|
@@ -1679,6 +1718,9 @@
|
|
1679
1718
|
"kimi-k2-0711-preview": {
|
1680
1719
|
"description": "kimi-k2 là mô hình cơ sở kiến trúc MoE với khả năng mã hóa và Agent cực mạnh, tổng số tham số 1T, tham số kích hoạt 32B. Trong các bài kiểm tra hiệu năng chuẩn về suy luận kiến thức chung, lập trình, toán học, Agent và các lĩnh vực chính khác, mô hình K2 vượt trội hơn các mô hình mã nguồn mở phổ biến khác."
|
1681
1720
|
},
|
1721
|
+
"kimi-k2-turbo-preview": {
|
1722
|
+
"description": "kimi-k2 là một mô hình nền tảng kiến trúc MoE với khả năng xử lý mã và Agent rất mạnh, tổng số tham số 1T, tham số kích hoạt 32B. Trong các bài kiểm tra chuẩn về hiệu năng ở các hạng mục chính như suy luận kiến thức tổng quát, lập trình, toán học và Agent, mô hình K2 cho hiệu năng vượt trội so với các mô hình mã nguồn mở phổ biến khác."
|
1723
|
+
},
|
1682
1724
|
"kimi-latest": {
|
1683
1725
|
"description": "Sản phẩm trợ lý thông minh Kimi sử dụng mô hình lớn Kimi mới nhất, có thể chứa các tính năng chưa ổn định. Hỗ trợ hiểu hình ảnh, đồng thời tự động chọn mô hình 8k/32k/128k làm mô hình tính phí dựa trên độ dài ngữ cảnh yêu cầu."
|
1684
1726
|
},
|
@@ -1763,6 +1805,9 @@
|
|
1763
1805
|
"llava:34b": {
|
1764
1806
|
"description": "LLaVA là mô hình đa phương thức kết hợp bộ mã hóa hình ảnh và Vicuna, phục vụ cho việc hiểu biết mạnh mẽ về hình ảnh và ngôn ngữ."
|
1765
1807
|
},
|
1808
|
+
"magistral-medium-latest": {
|
1809
|
+
"description": "Magistral Medium 1.1 là một mô hình suy luận tiên tiến do Mistral AI ra mắt vào tháng 7 năm 2025."
|
1810
|
+
},
|
1766
1811
|
"mathstral": {
|
1767
1812
|
"description": "MathΣtral được thiết kế cho nghiên cứu khoa học và suy luận toán học, cung cấp khả năng tính toán hiệu quả và giải thích kết quả."
|
1768
1813
|
},
|
@@ -2094,7 +2139,7 @@
|
|
2094
2139
|
"description": "o1-mini là một mô hình suy diễn nhanh chóng và tiết kiệm chi phí, được thiết kế cho các ứng dụng lập trình, toán học và khoa học. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023."
|
2095
2140
|
},
|
2096
2141
|
"o1-preview": {
|
2097
|
-
"description": "
|
2142
|
+
"description": "Tập trung vào suy luận nâng cao và giải quyết các vấn đề phức tạp, bao gồm các bài toán và nhiệm vụ khoa học. Rất phù hợp cho những ứng dụng cần khả năng hiểu biết ngữ cảnh sâu sắc và quy trình làm việc tự chủ."
|
2098
2143
|
},
|
2099
2144
|
"o1-pro": {
|
2100
2145
|
"description": "Dòng mô hình o1 được huấn luyện qua học tăng cường, có khả năng suy nghĩ trước khi trả lời và thực hiện các nhiệm vụ suy luận phức tạp. Mô hình o1-pro sử dụng nhiều tài nguyên tính toán hơn để suy nghĩ sâu hơn, từ đó liên tục cung cấp câu trả lời chất lượng cao hơn."
|
@@ -2213,8 +2258,14 @@
|
|
2213
2258
|
"qwen-coder-turbo-latest": {
|
2214
2259
|
"description": "Mô hình mã Qwen."
|
2215
2260
|
},
|
2261
|
+
"qwen-flash": {
|
2262
|
+
"description": "Các mô hình thuộc dòng 通义千问 có tốc độ nhanh nhất và chi phí rất thấp, phù hợp cho các nhiệm vụ đơn giản."
|
2263
|
+
},
|
2216
2264
|
"qwen-image": {
|
2217
|
-
"description": "
|
2265
|
+
"description": "Qwen-Image là một mô hình sinh hình ảnh đa dụng, hỗ trợ nhiều phong cách nghệ thuật và đặc biệt giỏi trong việc tái hiện văn bản phức tạp, nhất là văn bản tiếng Trung và tiếng Anh. Mô hình hỗ trợ bố cục nhiều dòng, sinh văn bản ở cấp đoạn và khắc họa các chi tiết tinh tế, cho phép thực hiện các thiết kế bố cục kết hợp hình ảnh và văn bản phức tạp."
|
2266
|
+
},
|
2267
|
+
"qwen-image-edit": {
|
2268
|
+
"description": "Mô hình chỉnh sửa hình ảnh chuyên nghiệp do nhóm Qwen phát hành, hỗ trợ chỉnh sửa ngữ nghĩa và chỉnh sửa ngoại hình, có thể chỉnh sửa chính xác văn bản tiếng Trung và tiếng Anh, thực hiện chuyển đổi phong cách, xoay đối tượng và các chỉnh sửa hình ảnh chất lượng cao khác."
|
2218
2269
|
},
|
2219
2270
|
"qwen-long": {
|
2220
2271
|
"description": "Mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ ngữ cảnh văn bản dài và chức năng đối thoại dựa trên tài liệu dài, nhiều tài liệu."
|
@@ -2241,7 +2292,7 @@
|
|
2241
2292
|
"description": "Mô hình ngôn ngữ quy mô lớn Qwen phiên bản nâng cao, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và nhiều ngôn ngữ khác."
|
2242
2293
|
},
|
2243
2294
|
"qwen-turbo": {
|
2244
|
-
"description": "
|
2295
|
+
"description": "通义千问 Turbo 将不再更新,建议替换为通义千问 Flash。通义千问是一款超大规模的语言模型,支持中文、英文及其他语言的输入。"
|
2245
2296
|
},
|
2246
2297
|
"qwen-vl-chat-v1": {
|
2247
2298
|
"description": "Mô hình Qwen VL hỗ trợ các phương thức tương tác linh hoạt, bao gồm nhiều hình ảnh, nhiều vòng hỏi đáp, sáng tạo, v.v."
|
@@ -2558,9 +2609,15 @@
|
|
2558
2609
|
"step-2x-large": {
|
2559
2610
|
"description": "Mô hình tạo hình ảnh thế hệ mới của Step Star, tập trung vào tác vụ tạo hình ảnh, có thể tạo ra hình ảnh chất lượng cao dựa trên mô tả văn bản do người dùng cung cấp. Mô hình mới tạo ra hình ảnh có cảm giác thực hơn, khả năng tạo chữ tiếng Trung và tiếng Anh mạnh hơn."
|
2560
2611
|
},
|
2612
|
+
"step-3": {
|
2613
|
+
"description": "Mô hình này có khả năng nhận thức thị giác mạnh mẽ và suy luận phức tạp. Có thể chính xác hoàn thành việc hiểu các kiến thức phức tạp liên ngành, phân tích chéo giữa thông tin toán học và thông tin thị giác, cũng như xử lý các vấn đề phân tích hình ảnh trong đời sống hàng ngày."
|
2614
|
+
},
|
2561
2615
|
"step-r1-v-mini": {
|
2562
2616
|
"description": "Mô hình này là một mô hình suy luận lớn với khả năng hiểu hình ảnh mạnh mẽ, có thể xử lý thông tin hình ảnh và văn bản, và xuất ra nội dung văn bản sau khi suy nghĩ sâu. Mô hình này thể hiện xuất sắc trong lĩnh vực suy luận hình ảnh, đồng thời có khả năng toán học, mã và suy luận văn bản hàng đầu. Độ dài ngữ cảnh là 100k."
|
2563
2617
|
},
|
2618
|
+
"stepfun-ai/step3": {
|
2619
|
+
"description": "Step3 là mô hình suy luận đa mô thức tiên tiến được phát hành bởi 阶跃星辰 (StepFun). Mô hình này được xây dựng trên kiến trúc Mixture-of-Experts (MoE) với 321B tham số tổng và 38B tham số kích hoạt. Thiết kế đầu-cuối (end-to-end) nhằm tối thiểu hóa chi phí giải mã, đồng thời cung cấp hiệu năng hàng đầu trong suy luận thị giác-ngôn ngữ. Thông qua thiết kế phối hợp giữa Multi-Matrix Factorized Attention (MFA) và Attention-FFN Decoupling (AFD), Step3 duy trì hiệu suất vượt trội trên cả bộ tăng tốc cao cấp và các thiết bị tăng tốc cấp thấp. Trong giai đoạn tiền huấn luyện, Step3 đã xử lý hơn 20T token văn bản và 4T token hỗn hợp ảnh-văn bản, bao phủ hơn mười ngôn ngữ. Mô hình này đã đạt vị thế dẫn đầu trong các benchmark mã nguồn mở ở nhiều lĩnh vực, bao gồm toán học, mã (code) và các nhiệm vụ đa mô thức."
|
2620
|
+
},
|
2564
2621
|
"taichu_llm": {
|
2565
2622
|
"description": "Mô hình ngôn ngữ lớn Taichu có khả năng hiểu ngôn ngữ mạnh mẽ và các khả năng như sáng tạo văn bản, trả lời câu hỏi kiến thức, lập trình mã, tính toán toán học, suy luận logic, phân tích cảm xúc, tóm tắt văn bản. Đổi mới kết hợp giữa đào tạo trước với dữ liệu phong phú từ nhiều nguồn, thông qua việc liên tục cải tiến công nghệ thuật toán và hấp thụ kiến thức mới từ dữ liệu văn bản khổng lồ, giúp mô hình ngày càng hoàn thiện. Cung cấp thông tin và dịch vụ tiện lợi hơn cho người dùng cùng trải nghiệm thông minh hơn."
|
2566
2623
|
},
|
@@ -2707,5 +2764,8 @@
|
|
2707
2764
|
},
|
2708
2765
|
"zai-org/GLM-4.5-Air": {
|
2709
2766
|
"description": "GLM-4.5-Air là mô hình nền tảng dành cho ứng dụng tác nhân thông minh, sử dụng kiến trúc chuyên gia hỗn hợp (Mixture-of-Experts). Được tối ưu sâu trong các lĩnh vực gọi công cụ, duyệt web, kỹ thuật phần mềm và lập trình front-end, hỗ trợ tích hợp liền mạch vào các tác nhân mã như Claude Code, Roo Code. GLM-4.5 sử dụng chế độ suy luận hỗn hợp, thích ứng với nhiều kịch bản ứng dụng như suy luận phức tạp và sử dụng hàng ngày."
|
2767
|
+
},
|
2768
|
+
"zai-org/GLM-4.5V": {
|
2769
|
+
"description": "GLM-4.5V là thế hệ mô hình ngôn ngữ thị giác (VLM) mới nhất được phát hành bởi Zhipu AI. Mô hình này được xây dựng trên cơ sở mô hình văn bản chủ lực GLM-4.5-Air với tổng 106 tỷ tham số và 12 tỷ tham số kích hoạt, sử dụng kiến trúc chuyên gia hỗn hợp (Mixture of Experts - MoE), nhằm đạt hiệu năng xuất sắc với chi phí suy luận thấp hơn. Về mặt kỹ thuật, GLM-4.5V tiếp nối hướng phát triển của GLM-4.1V-Thinking và giới thiệu các đổi mới như mã hóa vị trí xoay ba chiều (3D-RoPE), đáng kể nâng cao khả năng nhận thức và suy luận về các mối quan hệ trong không gian 3D. Thông qua tối ưu hóa ở các giai đoạn tiền huấn luyện, tinh chỉnh có giám sát và học tăng cường, mô hình có khả năng xử lý nhiều dạng nội dung thị giác như hình ảnh, video và tài liệu dài, và đã đạt vị trí hàng đầu trong số các mô hình mã nguồn mở cùng cấp trên 41 bộ đánh giá đa phương thức công khai. Ngoài ra, mô hình còn bổ sung công tắc “chế độ tư duy”, cho phép người dùng linh hoạt lựa chọn giữa phản hồi nhanh và suy luận sâu để cân bằng hiệu quả và chất lượng."
|
2710
2770
|
}
|
2711
2771
|
}
|
@@ -26,6 +26,9 @@
|
|
26
26
|
"bedrock": {
|
27
27
|
"description": "Bedrock là dịch vụ do Amazon AWS cung cấp, tập trung vào việc cung cấp các mô hình ngôn ngữ AI và mô hình hình ảnh tiên tiến cho doanh nghiệp. Gia đình mô hình của nó bao gồm dòng Claude của Anthropic, dòng Llama 3.1 của Meta, v.v., bao quát nhiều lựa chọn từ nhẹ đến hiệu suất cao, hỗ trợ nhiều nhiệm vụ như tạo văn bản, đối thoại, xử lý hình ảnh, phù hợp cho các ứng dụng doanh nghiệp với quy mô và nhu cầu khác nhau."
|
28
28
|
},
|
29
|
+
"bfl": {
|
30
|
+
"description": "Phòng thí nghiệm nghiên cứu trí tuệ nhân tạo tiên phong dẫn đầu, kiến tạo cơ sở hạ tầng thị giác cho ngày mai."
|
31
|
+
},
|
29
32
|
"cloudflare": {
|
30
33
|
"description": "Chạy các mô hình học máy được hỗ trợ bởi GPU không máy chủ trên mạng lưới toàn cầu của Cloudflare."
|
31
34
|
},
|
@@ -130,6 +130,12 @@
|
|
130
130
|
},
|
131
131
|
"progress": {
|
132
132
|
"uploadingWithCount": "{{completed}}/{{total}} 已上传"
|
133
|
+
},
|
134
|
+
"validation": {
|
135
|
+
"fileSizeExceeded": "File size exceeded limit",
|
136
|
+
"fileSizeExceededDetail": "{{fileName}} ({{actualSize}}) exceeds the maximum size limit of {{maxSize}}",
|
137
|
+
"fileSizeExceededMultiple": "{{count}} files exceed the maximum size limit of {{maxSize}}: {{fileList}}",
|
138
|
+
"imageCountExceeded": "Image count exceeded limit"
|
133
139
|
}
|
134
140
|
},
|
135
141
|
"OllamaSetupGuide": {
|
package/locales/zh-CN/error.json
CHANGED
@@ -106,6 +106,17 @@
|
|
106
106
|
"PermissionDenied": "很抱歉,你没有权限访问该服务,请检查你的密钥是否有访问权限",
|
107
107
|
"InvalidProviderAPIKey": "{{provider}} API Key 不正确或为空,请检查 {{provider}} API Key 后重试",
|
108
108
|
"ProviderBizError": "请求 {{provider}} 服务出错,请根据以下信息排查或重试",
|
109
|
+
"GoogleAIBlockReason": {
|
110
|
+
"BLOCKLIST": "您的内容包含被禁止的词汇。请检查并修改您的输入内容后重试。",
|
111
|
+
"IMAGE_SAFETY": "生成的图像内容因安全原因被阻止。请尝试修改您的图像生成请求。",
|
112
|
+
"LANGUAGE": "您使用的语言暂不被支持。请尝试使用英语或其他支持的语言重新提问。",
|
113
|
+
"OTHER": "内容因未知原因被阻止。请尝试重新表述您的请求。",
|
114
|
+
"PROHIBITED_CONTENT": "您的请求可能包含违禁内容。请调整您的请求,确保内容符合使用规范。",
|
115
|
+
"RECITATION": "您的内容因可能涉及版权问题而被阻止。请尝试使用原创内容或重新表述您的请求。",
|
116
|
+
"SAFETY": "您的内容因安全策略而被阻止。请尝试调整您的请求内容,避免包含可能的有害或不当内容。",
|
117
|
+
"SPII": "您的内容可能包含敏感个人身份信息。为保护隐私,请移除相关敏感信息后重试。",
|
118
|
+
"default": "内容被阻止:{{blockReason}}。请调整您的请求内容后重试。"
|
119
|
+
},
|
109
120
|
"NoOpenAIAPIKey": "OpenAI API Key 不正确或为空,请添加自定义 OpenAI API Key",
|
110
121
|
"InvalidVertexCredentials": "Vertex 鉴权未通过,请检查鉴权凭证后重试",
|
111
122
|
"InvalidBedrockCredentials": "Bedrock 鉴权未通过,请检查 AccessKeyId/SecretAccessKey 后重试",
|
@@ -332,12 +332,21 @@
|
|
332
332
|
"Qwen/Qwen3-30B-A3B-Instruct-2507": {
|
333
333
|
"description": "Qwen3-30B-A3B-Instruct-2507 是 Qwen3-30B-A3B 非思考模式的更新版本。这是一个拥有 305 亿总参数和 33 亿激活参数的混合专家(MoE)模型。该模型在多个方面进行了关键增强,包括显著提升了指令遵循、逻辑推理、文本理解、数学、科学、编码和工具使用等通用能力。同时,它在多语言的长尾知识覆盖范围上取得了实质性进展,并能更好地与用户在主观和开放式任务中的偏好对齐,从而能够生成更有帮助的回复和更高质量的文本。此外,该模型的长文本理解能力也增强到了 256K。此模型仅支持非思考模式,其输出中不会生成 `<think></think>` 标签。"
|
334
334
|
},
|
335
|
+
"Qwen/Qwen3-30B-A3B-Thinking-2507": {
|
336
|
+
"description": "Qwen3-30B-A3B-Thinking-2507 是由阿里巴巴通义千问团队发布的 Qwen3 系列的最新思考模型。作为一个拥有 305 亿总参数和 33 亿激活参数的混合专家(MoE)模型,它专注于提升复杂任务的处理能力。该模型在逻辑推理、数学、科学、编程和需要人类专业知识的学术基准测试上表现出显著的性能提升。同时,它在指令遵循、工具使用、文本生成和与人类偏好对齐等通用能力方面也得到了显著增强。模型原生支持 256K 的长上下文理解能力,并可扩展至 100 万 tokens。此版本专为“思考模式”设计,旨在通过详尽的逐步推理来解决高度复杂的任务,其 Agent 智能体能力也表现出色。"
|
337
|
+
},
|
335
338
|
"Qwen/Qwen3-32B": {
|
336
339
|
"description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
|
337
340
|
},
|
338
341
|
"Qwen/Qwen3-8B": {
|
339
342
|
"description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
|
340
343
|
},
|
344
|
+
"Qwen/Qwen3-Coder-30B-A3B-Instruct": {
|
345
|
+
"description": "Qwen3-Coder-30B-A3B-Instruct 是由阿里巴巴通义千问团队开发的 Qwen3 系列中的代码模型。作为一个经过精简优化的模型,它在保持高性能和高效率的同时,专注于提升代码处理能力。该模型在代理式编程(Agentic Coding)、自动化浏览器操作和工具调用等复杂任务上,于开源模型中表现出显著的性能优势。它原生支持 256K tokens 的长上下文,并可扩展至 1M tokens,从而能够更好地进行代码库级别的理解和处理。此外,该模型为 Qwen Code、CLINE 等平台提供了强大的代理编码支持,并设计了专门的函数调用格式。"
|
346
|
+
},
|
347
|
+
"Qwen/Qwen3-Coder-480B-A35B-Instruct": {
|
348
|
+
"description": "Qwen3-Coder-480B-A35B-Instruct 是由阿里巴巴发布的、迄今为止最具代理(Agentic)能力的代码模型。它是一个拥有 4800 亿总参数和 350 亿激活参数的混合专家(MoE)模型,在效率和性能之间取得了平衡。该模型原生支持 256K(约 26 万) tokens 的上下文长度,并可通过 YaRN 等外推方法扩展至 100 万 tokens,使其能够处理大规模代码库和复杂的编程任务。Qwen3-Coder 专为代理式编码工作流设计,不仅能生成代码,还能与开发工具和环境自主交互,以解决复杂的编程问题。在多个编码和代理任务的基准测试中,该模型在开源模型中取得了顶尖水平,其性能可与 Claude Sonnet 4 等领先模型相媲美。"
|
349
|
+
},
|
341
350
|
"Qwen2-72B-Instruct": {
|
342
351
|
"description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,对比当前最优的开源模型,Qwen2-72B 在自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型。"
|
343
352
|
},
|
@@ -1103,12 +1112,27 @@
|
|
1103
1112
|
"flux-dev": {
|
1104
1113
|
"description": "FLUX.1 [dev] 是一款面向非商业应用的开源权重、精炼模型。FLUX.1 [dev] 在保持了与FLUX专业版相近的图像质量和指令遵循能力的同时,具备更高的运行效率。相较于同尺寸的标准模型,它在资源利用上更为高效。"
|
1105
1114
|
},
|
1115
|
+
"flux-kontext-max": {
|
1116
|
+
"description": "最先进的上下文图像生成和编辑——结合文本和图像以获得精确、连贯的结果。"
|
1117
|
+
},
|
1118
|
+
"flux-kontext-pro": {
|
1119
|
+
"description": "最先进的上下文图像生成和编辑——结合文本和图像以获得精确、连贯的结果。"
|
1120
|
+
},
|
1106
1121
|
"flux-kontext/dev": {
|
1107
1122
|
"description": "专注于图像编辑任务的FLUX.1模型,支持文本和图像输入。"
|
1108
1123
|
},
|
1109
1124
|
"flux-merged": {
|
1110
1125
|
"description": "FLUX.1-merged 模型结合了 \"DEV\" 在开发阶段探索的深度特性和 \"Schnell\" 所代表的高速执行优势。通过这一举措,FLUX.1-merged 不仅提升了模型的性能界限,还拓宽了其应用范围。"
|
1111
1126
|
},
|
1127
|
+
"flux-pro": {
|
1128
|
+
"description": "顶级商用AI图像生成模型——无与伦比的图像质量和多样化输出表现。"
|
1129
|
+
},
|
1130
|
+
"flux-pro-1.1": {
|
1131
|
+
"description": "升级版专业级AI图像生成模型——提供卓越的图像质量和精确的提示词遵循能力。"
|
1132
|
+
},
|
1133
|
+
"flux-pro-1.1-ultra": {
|
1134
|
+
"description": "超高分辨率AI图像生成——支持4兆像素输出,10秒内生成超清图像。"
|
1135
|
+
},
|
1112
1136
|
"flux-pro/kontext": {
|
1113
1137
|
"description": "FLUX.1 Kontext [pro] 能够处理文本和参考图像作为输入,无缝实现目标性的局部编辑和复杂的整体场景变换。"
|
1114
1138
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"gemini-2.5-flash": {
|
1194
1218
|
"description": "Gemini 2.5 Flash 是 Google 性价比最高的模型,提供全面的功能。"
|
1195
1219
|
},
|
1220
|
+
"gemini-2.5-flash-image-preview": {
|
1221
|
+
"description": "Gemini 2.5 Flash Image Preview 是 Google 最新、最快、最高效的原生多模态模型,它允许您通过对话生成和编辑图像。"
|
1222
|
+
},
|
1196
1223
|
"gemini-2.5-flash-lite": {
|
1197
1224
|
"description": "Gemini 2.5 Flash-Lite 是 Google 最小、性价比最高的模型,专为大规模使用而设计。"
|
1198
1225
|
},
|
@@ -1295,6 +1322,9 @@
|
|
1295
1322
|
"glm-4.5-x": {
|
1296
1323
|
"description": "GLM-4.5 的极速版,在性能强劲的同时,生成速度可达 100 tokens/秒。"
|
1297
1324
|
},
|
1325
|
+
"glm-4.5v": {
|
1326
|
+
"description": "智谱新一代基于 MOE 架构的视觉推理模型,以106B的总参数量和12B激活参数量,在各类基准测试中达到全球同级别开源多模态模型 SOTA,涵盖图像、视频、文档理解及 GUI 任务等常见任务。"
|
1327
|
+
},
|
1298
1328
|
"glm-4v": {
|
1299
1329
|
"description": "GLM-4V 提供强大的图像理解与推理能力,支持多种视觉任务。"
|
1300
1330
|
},
|
@@ -1434,7 +1464,7 @@
|
|
1434
1464
|
"description": "GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。"
|
1435
1465
|
},
|
1436
1466
|
"gpt-4.5-preview": {
|
1437
|
-
"description": "GPT-4.5
|
1467
|
+
"description": "GPT-4.5-preview 是最新的通用模型,具有深厚的世界知识和对用户意图的更好理解,擅长创意任务和代理规划。该模型的知识截止2023年10月。"
|
1438
1468
|
},
|
1439
1469
|
"gpt-4o": {
|
1440
1470
|
"description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
|
@@ -1637,9 +1667,18 @@
|
|
1637
1667
|
"image-01-live": {
|
1638
1668
|
"description": "图像生成模型,画面表现细腻,支持文生图并进行画风设置"
|
1639
1669
|
},
|
1670
|
+
"imagen-4.0-fast-generate-001": {
|
1671
|
+
"description": "Imagen 4th generation text-to-image model series Fast version"
|
1672
|
+
},
|
1673
|
+
"imagen-4.0-generate-001": {
|
1674
|
+
"description": "Imagen 4th generation text-to-image model series"
|
1675
|
+
},
|
1640
1676
|
"imagen-4.0-generate-preview-06-06": {
|
1641
1677
|
"description": "Imagen 4th generation text-to-image model series"
|
1642
1678
|
},
|
1679
|
+
"imagen-4.0-ultra-generate-001": {
|
1680
|
+
"description": "Imagen 4th generation text-to-image model series Ultra version"
|
1681
|
+
},
|
1643
1682
|
"imagen-4.0-ultra-generate-preview-06-06": {
|
1644
1683
|
"description": "Imagen 4th generation text-to-image model series Ultra version"
|
1645
1684
|
},
|
@@ -1679,6 +1718,9 @@
|
|
1679
1718
|
"kimi-k2-0711-preview": {
|
1680
1719
|
"description": "kimi-k2 是一款具备超强代码和 Agent 能力的 MoE 架构基础模型,总参数 1T,激活参数 32B。在通用知识推理、编程、数学、Agent 等主要类别的基准性能测试中,K2 模型的性能超过其他主流开源模型。"
|
1681
1720
|
},
|
1721
|
+
"kimi-k2-turbo-preview": {
|
1722
|
+
"description": "kimi-k2 是一款具备超强代码和 Agent 能力的 MoE 架构基础模型,总参数 1T,激活参数 32B。在通用知识推理、编程、数学、Agent 等主要类别的基准性能测试中,K2 模型的性能超过其他主流开源模型。"
|
1723
|
+
},
|
1682
1724
|
"kimi-latest": {
|
1683
1725
|
"description": "Kimi 智能助手产品使用最新的 Kimi 大模型,可能包含尚未稳定的特性。支持图片理解,同时会自动根据请求的上下文长度选择 8k/32k/128k 模型作为计费模型"
|
1684
1726
|
},
|
@@ -1763,6 +1805,9 @@
|
|
1763
1805
|
"llava:34b": {
|
1764
1806
|
"description": "LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。"
|
1765
1807
|
},
|
1808
|
+
"magistral-medium-latest": {
|
1809
|
+
"description": "Magistral Medium 1.1 是 Mistral AI 于2025年7月发布的前沿级推理模型。"
|
1810
|
+
},
|
1766
1811
|
"mathstral": {
|
1767
1812
|
"description": "MathΣtral 专为科学研究和数学推理设计,提供有效的计算能力和结果解释。"
|
1768
1813
|
},
|
@@ -2094,7 +2139,7 @@
|
|
2094
2139
|
"description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。"
|
2095
2140
|
},
|
2096
2141
|
"o1-preview": {
|
2097
|
-
"description": "
|
2142
|
+
"description": "专注于高级推理和解决复杂问题,包括数学和科学任务。非常适合需要深度上下文理解和自主工作流程的应用。"
|
2098
2143
|
},
|
2099
2144
|
"o1-pro": {
|
2100
2145
|
"description": "o1 系列模型经过强化学习训练,能够在回答前进行思考,并执行复杂的推理任务。o1-pro 模型使用了更多计算资源,以进行更深入的思考,从而持续提供更优质的回答。"
|
@@ -2213,8 +2258,14 @@
|
|
2213
2258
|
"qwen-coder-turbo-latest": {
|
2214
2259
|
"description": "通义千问代码模型。"
|
2215
2260
|
},
|
2261
|
+
"qwen-flash": {
|
2262
|
+
"description": "通义千问系列速度最快、成本极低的模型,适合简单任务。"
|
2263
|
+
},
|
2216
2264
|
"qwen-image": {
|
2217
|
-
"description": "Qwen
|
2265
|
+
"description": "Qwen-Image 是一款通用图像生成模型,支持多种艺术风格,尤其擅长复杂文本渲染,特别是中英文文本渲染。模型支持多行布局、段落级文本生成以及细粒度细节刻画,可实现复杂的图文混合布局设计。"
|
2266
|
+
},
|
2267
|
+
"qwen-image-edit": {
|
2268
|
+
"description": "Qwen 团队发布的专业图像编辑模型,支持语义编辑和外观编辑,能够精确编辑中英文文字,实现风格转换、对象旋转等高质量图像编辑。"
|
2218
2269
|
},
|
2219
2270
|
"qwen-long": {
|
2220
2271
|
"description": "通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。"
|
@@ -2241,7 +2292,7 @@
|
|
2241
2292
|
"description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。"
|
2242
2293
|
},
|
2243
2294
|
"qwen-turbo": {
|
2244
|
-
"description": "
|
2295
|
+
"description": "通义千问 Turbo 后续不再更新,建议替换为通义千问 Flash 。通义千问超大规模语言模型,支持中文、英文等不同语言输入。"
|
2245
2296
|
},
|
2246
2297
|
"qwen-vl-chat-v1": {
|
2247
2298
|
"description": "通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。"
|
@@ -2558,9 +2609,15 @@
|
|
2558
2609
|
"step-2x-large": {
|
2559
2610
|
"description": "阶跃星辰新一代生图模型,该模型专注于图像生成任务,能够根据用户提供的文本描述,生成高质量的图像。新模型生成图片质感更真实,中英文文字生成能力更强。"
|
2560
2611
|
},
|
2612
|
+
"step-3": {
|
2613
|
+
"description": "该模型拥有强大的视觉感知和复杂推理能力。可准确完成跨领域的复杂知识理解、数学与视觉信息的交叉分析,以及日常生活中的各类视觉分析问题。"
|
2614
|
+
},
|
2561
2615
|
"step-r1-v-mini": {
|
2562
2616
|
"description": "该模型是拥有强大的图像理解能力的推理大模型,能够处理图像和文字信息,经过深度思考后输出文本生成文本内容。该模型在视觉推理领域表现突出,同时拥有第一梯队的数学、代码、文本推理能力。上下文长度为100k。"
|
2563
2617
|
},
|
2618
|
+
"stepfun-ai/step3": {
|
2619
|
+
"description": "Step3 是由阶跃星辰(StepFun)发布的前沿多模态推理模型,它基于拥有 321B 总参数和 38B 激活参数的专家混合(MoE)架构构建。该模型采用端到端设计,旨在最小化解码成本,同时在视觉语言推理方面提供顶级性能。通过多矩阵分解注意力(MFA)和注意力-FFN 解耦(AFD)的协同设计,Step3 在旗舰级和低端加速器上都能保持卓越的效率。在预训练阶段,Step3 处理了超过 20T 的文本 token 和 4T 的图文混合 token,覆盖十多种语言。该模型在数学、代码及多模态等多个基准测试中均达到了开源模型的领先水平。"
|
2620
|
+
},
|
2564
2621
|
"taichu_llm": {
|
2565
2622
|
"description": "基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力"
|
2566
2623
|
},
|
@@ -2707,5 +2764,8 @@
|
|
2707
2764
|
},
|
2708
2765
|
"zai-org/GLM-4.5-Air": {
|
2709
2766
|
"description": "GLM-4.5-Air 是一款专为智能体应用打造的基础模型,使用了混合专家(Mixture-of-Experts)架构。在工具调用、网页浏览、软件工程、前端编程领域进行了深度优化,支持无缝接入 Claude Code、Roo Code 等代码智能体中使用。GLM-4.5 采用混合推理模式,可以适应复杂推理和日常使用等多种应用场景。"
|
2767
|
+
},
|
2768
|
+
"zai-org/GLM-4.5V": {
|
2769
|
+
"description": "GLM-4.5V 是由智谱 AI(Zhipu AI)发布的最新一代视觉语言模型(VLM)该模型基于拥有 106B 总参数和 12B 激活参数的旗舰文本模型 GLM-4.5-Air 构建,采用了混合专家(MoE)架构,旨在以更低的推理成本实现卓越性能 GLM-4.5V 在技术上延续了 GLM-4.1V-Thinking 的路线,并引入了三维旋转位置编码(3D-RoPE)等创新,显著增强了对三维空间关系的感知与推理能力。通过在预训练、监督微调和强化学习阶段的优化,该模型具备了处理图像、视频、长文档等多种视觉内容的能力,在 41 个公开的多模态基准测试中达到了同级别开源模型的顶尖水平此外,模型还新增了“思考模式”开关,允许用户在快速响应和深度推理之间灵活选择,以平衡效率与效果。"
|
2710
2770
|
}
|
2711
2771
|
}
|
@@ -26,6 +26,9 @@
|
|
26
26
|
"bedrock": {
|
27
27
|
"description": "Bedrock 是亚马逊 AWS 提供的一项服务,专注于为企业提供先进的 AI 语言模型和视觉模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵盖从轻量级到高性能的多种选择,支持文本生成、对话、图像处理等多种任务,适用于不同规模和需求的企业应用。"
|
28
28
|
},
|
29
|
+
"bfl": {
|
30
|
+
"description": "领先的前沿人工智能研究实验室,构建明日的视觉基础设施。"
|
31
|
+
},
|
29
32
|
"cloudflare": {
|
30
33
|
"description": "在 Cloudflare 的全球网络上运行由无服务器 GPU 驱动的机器学习模型。"
|
31
34
|
},
|
@@ -1,4 +1,9 @@
|
|
1
1
|
{
|
2
|
+
"ArgsInput": {
|
3
|
+
"addArgument": "新增參數",
|
4
|
+
"argumentPlaceholder": "參數 {{index}}",
|
5
|
+
"enterFirstArgument": "輸入第一個參數..."
|
6
|
+
},
|
2
7
|
"DragUpload": {
|
3
8
|
"dragDesc": "拖曳檔案到這裡,支援上傳多個圖片。",
|
4
9
|
"dragFileDesc": "拖曳圖片和檔案到這裡,支援上傳多個圖片和檔案。",
|
@@ -125,6 +130,12 @@
|
|
125
130
|
},
|
126
131
|
"progress": {
|
127
132
|
"uploadingWithCount": "{{completed}}/{{total}} 已上傳"
|
133
|
+
},
|
134
|
+
"validation": {
|
135
|
+
"fileSizeExceeded": "檔案大小已超過限制",
|
136
|
+
"fileSizeExceededDetail": "{{fileName}}({{actualSize}})超過最大檔案大小限制 {{maxSize}}",
|
137
|
+
"fileSizeExceededMultiple": "{{count}} 個檔案超過最大檔案大小限制 {{maxSize}}:{{fileList}}",
|
138
|
+
"imageCountExceeded": "圖片數量已超出限制"
|
128
139
|
}
|
129
140
|
},
|
130
141
|
"OllamaSetupGuide": {
|
package/locales/zh-TW/error.json
CHANGED
@@ -85,6 +85,17 @@
|
|
85
85
|
"CreateMessageError": "很抱歉,訊息未能正常發送,請複製內容後重新發送,刷新頁面後此訊息將不會保留",
|
86
86
|
"ExceededContextWindow": "當前請求內容超出模型可處理的長度,請減少內容量後重試",
|
87
87
|
"FreePlanLimit": "目前為免費用戶,無法使用該功能,請升級到付費計劃後繼續使用",
|
88
|
+
"GoogleAIBlockReason": {
|
89
|
+
"BLOCKLIST": "您的內容包含被禁止的詞彙。請檢查並修改您的輸入內容後再試。",
|
90
|
+
"IMAGE_SAFETY": "生成的圖像內容因安全因素而被阻擋。請嘗試修改您的圖像生成請求。",
|
91
|
+
"LANGUAGE": "您使用的語言暫時不被支援。請嘗試使用英文或其他可支援的語言重新提問。",
|
92
|
+
"OTHER": "內容因未知原因而被阻擋。請嘗試重新表述您的請求。",
|
93
|
+
"PROHIBITED_CONTENT": "您的請求可能包含違禁內容。請調整您的請求,確保內容符合使用規範。",
|
94
|
+
"RECITATION": "您的內容可能涉及版權問題而遭到阻擋。請嘗試使用原創內容或重新表述您的請求。",
|
95
|
+
"SAFETY": "您的內容因安全政策而被阻擋。請嘗試調整您的請求內容,避免包含可能有害或不當的內容。",
|
96
|
+
"SPII": "您的內容可能包含敏感個人身分資訊。為保護隱私,請移除相關敏感資訊後再試。",
|
97
|
+
"default": "內容被阻擋:{{blockReason}}。請調整您的請求內容後再試。"
|
98
|
+
},
|
88
99
|
"InsufficientQuota": "很抱歉,該金鑰的配額已達上限,請檢查帳戶餘額是否充足,或增加金鑰配額後再試",
|
89
100
|
"InvalidAccessCode": "密碼不正確或為空,請輸入正確的訪問密碼,或添加自定義 API 金鑰",
|
90
101
|
"InvalidBedrockCredentials": "Bedrock 驗證未通過,請檢查 AccessKeyId/SecretAccessKey 後重試",
|
@@ -113,18 +124,6 @@
|
|
113
124
|
"PluginServerError": "外掛伺服器請求回傳錯誤。請根據下面的錯誤資訊檢查您的外掛描述檔案、外掛設定或伺服器實作",
|
114
125
|
"PluginSettingsInvalid": "該外掛需要正確設定後才可以使用。請檢查您的設定是否正確",
|
115
126
|
"ProviderBizError": "請求 {{provider}} 服務出錯,請根據以下資訊排查或重試",
|
116
|
-
|
117
|
-
"GoogleAIBlockReason": {
|
118
|
-
"BLOCKLIST": "您的內容包含被禁止的詞彙。請檢查並修改您的輸入內容後重試。",
|
119
|
-
"IMAGE_SAFETY": "生成的圖像內容因安全原因被阻止。請嘗試修改您的圖像生成請求。",
|
120
|
-
"LANGUAGE": "您使用的語言暫不被支援。請嘗試使用英語或其他支援的語言重新提問。",
|
121
|
-
"OTHER": "內容因未知原因被阻止。請嘗試重新表述您的請求或聯繫技術支援。",
|
122
|
-
"PROHIBITED_CONTENT": "您的內容可能包含禁止的內容類型。請調整您的請求,確保內容符合使用規範。",
|
123
|
-
"RECITATION": "您的內容因可能涉及版權問題而被阻止。請嘗試使用原創內容或重新表述您的請求。",
|
124
|
-
"SAFETY": "您的內容因安全策略而被阻止。請嘗試調整您的請求內容,避免包含可能的有害或不當內容。",
|
125
|
-
"SPII": "您的內容可能包含敏感個人身份資訊。為保護隱私,請移除相關敏感資訊後重試。",
|
126
|
-
"default": "內容被阻止:{{blockReason}}。請調整您的請求內容後重試。"
|
127
|
-
},
|
128
127
|
"QuotaLimitReached": "很抱歉,當前 Token 用量或請求次數已達該金鑰的配額上限,請增加該金鑰的配額或稍後再試",
|
129
128
|
"StreamChunkError": "流式請求的消息塊解析錯誤,請檢查當前 API 介面是否符合標準規範,或聯繫你的 API 供應商諮詢",
|
130
129
|
"SubscriptionKeyMismatch": "很抱歉,由於系統偶發故障,當前訂閱用量暫時失效,請點擊下方按鈕恢復訂閱,或郵件聯繫我們獲取支持",
|