@lobehub/chat 1.134.0 → 1.134.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/workflows/claude-translator.yml +1 -1
- package/.github/workflows/lock-closed-issues.yml +1 -1
- package/.github/workflows/test.yml +4 -4
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/models.json +43 -4
- package/locales/bg-BG/models.json +43 -4
- package/locales/de-DE/models.json +43 -4
- package/locales/en-US/models.json +43 -4
- package/locales/es-ES/models.json +43 -4
- package/locales/fa-IR/models.json +43 -4
- package/locales/fr-FR/models.json +43 -4
- package/locales/it-IT/models.json +43 -4
- package/locales/ja-JP/models.json +43 -4
- package/locales/ko-KR/models.json +43 -4
- package/locales/nl-NL/models.json +43 -4
- package/locales/pl-PL/models.json +43 -4
- package/locales/pt-BR/models.json +43 -4
- package/locales/ru-RU/models.json +43 -4
- package/locales/tr-TR/models.json +43 -4
- package/locales/vi-VN/models.json +43 -4
- package/locales/zh-CN/models.json +43 -4
- package/locales/zh-TW/models.json +43 -4
- package/package.json +2 -2
- package/packages/database/src/repositories/aiInfra/index.ts +1 -1
- package/packages/model-bank/src/types/aiModel.ts +2 -0
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/Form.tsx +38 -3
- package/src/locales/default/modelProvider.ts +15 -0
- package/src/store/aiInfra/slices/aiProvider/action.ts +4 -1
|
@@ -92,6 +92,12 @@
|
|
|
92
92
|
"DeepSeek-V3.1-Think": {
|
|
93
93
|
"description": "DeepSeek-V3.1 - chế độ suy nghĩ; DeepSeek-V3.1 là mô hình suy luận lai mới của DeepSeek, hỗ trợ hai chế độ suy luận là suy nghĩ và không suy nghĩ, hiệu quả suy nghĩ cao hơn so với DeepSeek-R1-0528. Qua tối ưu hậu huấn luyện, hiệu suất sử dụng công cụ Agent và các tác vụ tác nhân được cải thiện đáng kể."
|
|
94
94
|
},
|
|
95
|
+
"DeepSeek-V3.2-Exp": {
|
|
96
|
+
"description": "DeepSeek V3.2 là mô hình lớn chung mới nhất của DeepSeek, hỗ trợ kiến trúc suy luận hỗn hợp và có khả năng Agent mạnh mẽ hơn."
|
|
97
|
+
},
|
|
98
|
+
"DeepSeek-V3.2-Exp-Think": {
|
|
99
|
+
"description": "Chế độ suy nghĩ của DeepSeek V3.2. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ nhằm nâng cao độ chính xác của câu trả lời."
|
|
100
|
+
},
|
|
95
101
|
"Doubao-lite-128k": {
|
|
96
102
|
"description": "Doubao-lite sở hữu tốc độ phản hồi tối ưu, hiệu quả chi phí tốt hơn, cung cấp lựa chọn linh hoạt hơn cho các kịch bản khác nhau của khách hàng. Hỗ trợ suy luận và tinh chỉnh với cửa sổ ngữ cảnh 128k."
|
|
97
103
|
},
|
|
@@ -287,6 +293,9 @@
|
|
|
287
293
|
"Pro/deepseek-ai/DeepSeek-V3.1": {
|
|
288
294
|
"description": "DeepSeek-V3.1 là mô hình ngôn ngữ lớn chế độ hỗn hợp do DeepSeek AI phát hành, với nhiều nâng cấp quan trọng dựa trên phiên bản trước. Một đổi mới lớn của mô hình là tích hợp \"Chế độ suy nghĩ\" (Thinking Mode) và \"Chế độ không suy nghĩ\" (Non-thinking Mode) trong cùng một mô hình, người dùng có thể linh hoạt chuyển đổi bằng cách điều chỉnh mẫu trò chuyện để phù hợp với các yêu cầu nhiệm vụ khác nhau. Qua tối ưu hóa sau huấn luyện chuyên biệt, V3.1 đã cải thiện đáng kể hiệu suất trong việc gọi công cụ và nhiệm vụ Agent, hỗ trợ tốt hơn cho các công cụ tìm kiếm bên ngoài và thực hiện các nhiệm vụ phức tạp nhiều bước. Mô hình được huấn luyện tiếp dựa trên DeepSeek-V3.1-Base, sử dụng phương pháp mở rộng văn bản dài hai giai đoạn, tăng đáng kể lượng dữ liệu huấn luyện, giúp cải thiện khả năng xử lý tài liệu dài và mã nguồn dài. Là một mô hình mã nguồn mở, DeepSeek-V3.1 thể hiện năng lực tương đương với các mô hình đóng hàng đầu trong các bài kiểm tra chuẩn về mã hóa, toán học và suy luận, đồng thời với kiến trúc chuyên gia hỗn hợp (MoE), nó duy trì dung lượng mô hình lớn trong khi giảm chi phí suy luận hiệu quả."
|
|
289
295
|
},
|
|
296
|
+
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
297
|
+
"description": "DeepSeek-V3.1-Terminus là phiên bản cập nhật của mô hình V3.1 do DeepSeek phát hành, được định vị là mô hình ngôn ngữ lớn với trí tuệ hỗn hợp. Bản cập nhật này tập trung sửa các vấn đề phản hồi từ người dùng và nâng cao độ ổn định trong khi vẫn giữ nguyên khả năng của mô hình. Nó cải thiện đáng kể tính nhất quán ngôn ngữ, giảm thiểu việc sử dụng lẫn lộn tiếng Trung và tiếng Anh cũng như các ký tự bất thường. Mô hình tích hợp \"Chế độ suy nghĩ\" (Thinking Mode) và \"Chế độ không suy nghĩ\" (Non-thinking Mode), người dùng có thể linh hoạt chuyển đổi qua các mẫu trò chuyện để phù hợp với các nhiệm vụ khác nhau. Một tối ưu quan trọng là V3.1-Terminus tăng cường hiệu suất của Agent mã (Code Agent) và Agent tìm kiếm (Search Agent), giúp chúng đáng tin cậy hơn trong việc gọi công cụ và thực hiện các nhiệm vụ phức tạp nhiều bước."
|
|
298
|
+
},
|
|
290
299
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
291
300
|
"description": "Kimi K2-Instruct-0905 là phiên bản mới nhất và mạnh mẽ nhất của Kimi K2. Đây là một mô hình ngôn ngữ chuyên gia hỗn hợp (MoE) hàng đầu với tổng số tham số lên đến 1 nghìn tỷ và 32 tỷ tham số kích hoạt. Các đặc điểm chính của mô hình bao gồm: tăng cường trí tuệ mã hóa tác nhân, thể hiện sự cải thiện đáng kể trong các bài kiểm tra chuẩn công khai và các nhiệm vụ mã hóa tác nhân trong thế giới thực; cải tiến trải nghiệm mã hóa giao diện người dùng, nâng cao cả về tính thẩm mỹ và tính thực tiễn trong lập trình giao diện."
|
|
292
301
|
},
|
|
@@ -926,6 +935,9 @@
|
|
|
926
935
|
"deepseek-ai/DeepSeek-V3.1": {
|
|
927
936
|
"description": "DeepSeek-V3.1 là mô hình ngôn ngữ lớn chế độ hỗn hợp do DeepSeek AI phát hành, với nhiều nâng cấp quan trọng dựa trên phiên bản trước. Một đổi mới lớn của mô hình là tích hợp \"Chế độ suy nghĩ\" (Thinking Mode) và \"Chế độ không suy nghĩ\" (Non-thinking Mode) trong cùng một mô hình, người dùng có thể linh hoạt chuyển đổi bằng cách điều chỉnh mẫu trò chuyện để phù hợp với các yêu cầu nhiệm vụ khác nhau. Qua tối ưu hóa sau huấn luyện chuyên biệt, V3.1 đã cải thiện đáng kể hiệu suất trong việc gọi công cụ và nhiệm vụ Agent, hỗ trợ tốt hơn cho các công cụ tìm kiếm bên ngoài và thực hiện các nhiệm vụ phức tạp nhiều bước. Mô hình được huấn luyện tiếp dựa trên DeepSeek-V3.1-Base, sử dụng phương pháp mở rộng văn bản dài hai giai đoạn, tăng đáng kể lượng dữ liệu huấn luyện, giúp cải thiện khả năng xử lý tài liệu dài và mã nguồn dài. Là một mô hình mã nguồn mở, DeepSeek-V3.1 thể hiện năng lực tương đương với các mô hình đóng hàng đầu trong các bài kiểm tra chuẩn về mã hóa, toán học và suy luận, đồng thời với kiến trúc chuyên gia hỗn hợp (MoE), nó duy trì dung lượng mô hình lớn trong khi giảm chi phí suy luận hiệu quả."
|
|
928
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
|
+
"description": "DeepSeek-V3.1-Terminus là phiên bản cập nhật của mô hình V3.1 do DeepSeek phát hành, được định vị là mô hình ngôn ngữ lớn với trí tuệ hỗn hợp. Bản cập nhật này tập trung sửa các vấn đề phản hồi từ người dùng và nâng cao độ ổn định trong khi vẫn giữ nguyên khả năng của mô hình. Nó cải thiện đáng kể tính nhất quán ngôn ngữ, giảm thiểu việc sử dụng lẫn lộn tiếng Trung và tiếng Anh cũng như các ký tự bất thường. Mô hình tích hợp \"Chế độ suy nghĩ\" (Thinking Mode) và \"Chế độ không suy nghĩ\" (Non-thinking Mode), người dùng có thể linh hoạt chuyển đổi qua các mẫu trò chuyện để phù hợp với các nhiệm vụ khác nhau. Một tối ưu quan trọng là V3.1-Terminus tăng cường hiệu suất của Agent mã (Code Agent) và Agent tìm kiếm (Search Agent), giúp chúng đáng tin cậy hơn trong việc gọi công cụ và thực hiện các nhiệm vụ phức tạp nhiều bước."
|
|
940
|
+
},
|
|
929
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
930
942
|
"description": "DeepSeek 67B là mô hình tiên tiến được huấn luyện cho các cuộc đối thoại phức tạp."
|
|
931
943
|
},
|
|
@@ -999,7 +1011,7 @@
|
|
|
999
1011
|
"description": "DeepSeek R1 phiên bản đầy đủ, có 671B tham số, hỗ trợ tìm kiếm trực tuyến theo thời gian thực, có khả năng hiểu và tạo ra mạnh mẽ hơn."
|
|
1000
1012
|
},
|
|
1001
1013
|
"deepseek-reasoner": {
|
|
1002
|
-
"description": "
|
|
1014
|
+
"description": "Chế độ suy nghĩ của DeepSeek V3.2. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ nhằm nâng cao độ chính xác của câu trả lời."
|
|
1003
1015
|
},
|
|
1004
1016
|
"deepseek-v2": {
|
|
1005
1017
|
"description": "DeepSeek V2 là mô hình ngôn ngữ Mixture-of-Experts hiệu quả, phù hợp cho các nhu cầu xử lý tiết kiệm."
|
|
@@ -1352,24 +1364,36 @@
|
|
|
1352
1364
|
"gemini-2.5-flash": {
|
|
1353
1365
|
"description": "Gemini 2.5 Flash là mô hình có hiệu suất chi phí tốt nhất của Google, cung cấp đầy đủ các chức năng."
|
|
1354
1366
|
},
|
|
1367
|
+
"gemini-2.5-flash-image": {
|
|
1368
|
+
"description": "Nano Banana là mô hình đa phương thức nguyên bản mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép bạn tạo và chỉnh sửa hình ảnh thông qua đối thoại."
|
|
1369
|
+
},
|
|
1355
1370
|
"gemini-2.5-flash-image-preview": {
|
|
1356
1371
|
"description": "Nano Banana là mô hình đa phương thức nguyên bản mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép bạn tạo và chỉnh sửa hình ảnh thông qua đối thoại."
|
|
1357
1372
|
},
|
|
1358
1373
|
"gemini-2.5-flash-image-preview:image": {
|
|
1359
1374
|
"description": "Nano Banana là mô hình đa phương thức nguyên bản mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép bạn tạo và chỉnh sửa hình ảnh thông qua đối thoại."
|
|
1360
1375
|
},
|
|
1376
|
+
"gemini-2.5-flash-image:image": {
|
|
1377
|
+
"description": "Nano Banana là mô hình đa phương thức nguyên bản mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép bạn tạo và chỉnh sửa hình ảnh thông qua đối thoại."
|
|
1378
|
+
},
|
|
1361
1379
|
"gemini-2.5-flash-lite": {
|
|
1362
1380
|
"description": "Gemini 2.5 Flash-Lite là mô hình nhỏ nhất và có hiệu suất chi phí tốt nhất của Google, được thiết kế dành cho việc sử dụng quy mô lớn."
|
|
1363
1381
|
},
|
|
1364
1382
|
"gemini-2.5-flash-lite-preview-06-17": {
|
|
1365
1383
|
"description": "Gemini 2.5 Flash-Lite Preview là mô hình nhỏ nhất và có hiệu suất chi phí tốt nhất của Google, được thiết kế dành cho sử dụng quy mô lớn."
|
|
1366
1384
|
},
|
|
1385
|
+
"gemini-2.5-flash-lite-preview-09-2025": {
|
|
1386
|
+
"description": "Phiên bản xem trước (25 tháng 9 năm 2025) của Gemini 2.5 Flash-Lite"
|
|
1387
|
+
},
|
|
1367
1388
|
"gemini-2.5-flash-preview-04-17": {
|
|
1368
1389
|
"description": "Gemini 2.5 Flash Preview là mô hình có giá trị tốt nhất của Google, cung cấp đầy đủ các tính năng."
|
|
1369
1390
|
},
|
|
1370
1391
|
"gemini-2.5-flash-preview-05-20": {
|
|
1371
1392
|
"description": "Gemini 2.5 Flash Preview là mô hình có hiệu suất chi phí tốt nhất của Google, cung cấp các tính năng toàn diện."
|
|
1372
1393
|
},
|
|
1394
|
+
"gemini-2.5-flash-preview-09-2025": {
|
|
1395
|
+
"description": "Phiên bản xem trước (25 tháng 9 năm 2025) của Gemini 2.5 Flash"
|
|
1396
|
+
},
|
|
1373
1397
|
"gemini-2.5-pro": {
|
|
1374
1398
|
"description": "Gemini 2.5 Pro là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận các vấn đề phức tạp trong lĩnh vực mã nguồn, toán học và STEM, cũng như phân tích các bộ dữ liệu lớn, kho mã và tài liệu bằng ngữ cảnh dài."
|
|
1375
1399
|
},
|
|
@@ -1382,6 +1406,15 @@
|
|
|
1382
1406
|
"gemini-2.5-pro-preview-06-05": {
|
|
1383
1407
|
"description": "Gemini 2.5 Pro Preview là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận các vấn đề phức tạp trong lĩnh vực mã nguồn, toán học và STEM, cũng như phân tích dữ liệu lớn, kho mã và tài liệu với ngữ cảnh dài."
|
|
1384
1408
|
},
|
|
1409
|
+
"gemini-flash-latest": {
|
|
1410
|
+
"description": "Phiên bản mới nhất của Gemini Flash"
|
|
1411
|
+
},
|
|
1412
|
+
"gemini-flash-lite-latest": {
|
|
1413
|
+
"description": "Phiên bản mới nhất của Gemini Flash-Lite"
|
|
1414
|
+
},
|
|
1415
|
+
"gemini-pro-latest": {
|
|
1416
|
+
"description": "Phiên bản mới nhất của Gemini Pro"
|
|
1417
|
+
},
|
|
1385
1418
|
"gemma-7b-it": {
|
|
1386
1419
|
"description": "Gemma 7B phù hợp cho việc xử lý các nhiệm vụ quy mô vừa và nhỏ, đồng thời mang lại hiệu quả chi phí."
|
|
1387
1420
|
},
|
|
@@ -1811,12 +1844,12 @@
|
|
|
1811
1844
|
"hunyuan-t1-latest": {
|
|
1812
1845
|
"description": "Nâng cao đáng kể năng lực của mô hình chính và mô hình suy nghĩ chậm trong các lĩnh vực toán học khó, suy luận phức tạp, mã hóa khó, tuân thủ chỉ thị và chất lượng sáng tạo văn bản."
|
|
1813
1846
|
},
|
|
1814
|
-
"hunyuan-t1-vision": {
|
|
1815
|
-
"description": "Mô hình suy nghĩ sâu đa phương thức Hunyuan, hỗ trợ chuỗi suy nghĩ dài nguyên bản đa phương thức, xuất sắc trong các tình huống suy luận hình ảnh đa dạng, cải thiện toàn diện so với mô hình suy nghĩ nhanh trong các bài toán khoa học tự nhiên."
|
|
1816
|
-
},
|
|
1817
1847
|
"hunyuan-t1-vision-20250619": {
|
|
1818
1848
|
"description": "Phiên bản mới nhất của Hunyuan t1-vision là mô hình suy nghĩ sâu đa phương thức, hỗ trợ chuỗi tư duy dài nguyên bản đa phương thức, cải thiện toàn diện so với phiên bản mặc định thế hệ trước."
|
|
1819
1849
|
},
|
|
1850
|
+
"hunyuan-t1-vision-20250916": {
|
|
1851
|
+
"description": "Mô hình suy nghĩ sâu đa phương thức Hunyuan, hỗ trợ chuỗi suy nghĩ dài nguyên bản đa phương thức, chuyên xử lý các tình huống suy luận hình ảnh, cải thiện toàn diện so với mô hình suy nghĩ nhanh trong các bài toán khoa học tự nhiên."
|
|
1852
|
+
},
|
|
1820
1853
|
"hunyuan-turbo": {
|
|
1821
1854
|
"description": "Phiên bản xem trước của thế hệ mới mô hình ngôn ngữ lớn Hunyuan, sử dụng cấu trúc mô hình chuyên gia hỗn hợp (MoE) hoàn toàn mới, so với hunyuan-pro, hiệu suất suy diễn nhanh hơn và hiệu quả mạnh mẽ hơn."
|
|
1822
1855
|
},
|
|
@@ -1838,6 +1871,9 @@
|
|
|
1838
1871
|
"hunyuan-turbos-20250604": {
|
|
1839
1872
|
"description": "Nâng cấp nền tảng tiền huấn luyện, cải thiện khả năng viết và đọc hiểu, tăng cường đáng kể năng lực lập trình và khoa học tự nhiên, tiếp tục nâng cao khả năng tuân thủ các chỉ dẫn phức tạp."
|
|
1840
1873
|
},
|
|
1874
|
+
"hunyuan-turbos-20250926": {
|
|
1875
|
+
"description": "Nâng cấp chất lượng dữ liệu nền tiền huấn luyện. Tối ưu chiến lược huấn luyện giai đoạn posttrain, liên tục nâng cao khả năng Agent, tiếng Anh và các ngôn ngữ nhỏ, tuân thủ chỉ thị, mã hóa và năng lực khoa học tự nhiên."
|
|
1876
|
+
},
|
|
1841
1877
|
"hunyuan-turbos-latest": {
|
|
1842
1878
|
"description": "hunyuan-TurboS là phiên bản mới nhất của mô hình lớn hỗn hợp Hunyuan, có khả năng tư duy mạnh mẽ hơn và trải nghiệm tốt hơn."
|
|
1843
1879
|
},
|
|
@@ -3146,6 +3182,9 @@
|
|
|
3146
3182
|
"zai-org/GLM-4.5V": {
|
|
3147
3183
|
"description": "GLM-4.5V là thế hệ mô hình ngôn ngữ thị giác (VLM) mới nhất được phát hành bởi Zhipu AI. Mô hình này được xây dựng trên cơ sở mô hình văn bản chủ lực GLM-4.5-Air với tổng 106 tỷ tham số và 12 tỷ tham số kích hoạt, sử dụng kiến trúc chuyên gia hỗn hợp (Mixture of Experts - MoE), nhằm đạt hiệu năng xuất sắc với chi phí suy luận thấp hơn. Về mặt kỹ thuật, GLM-4.5V tiếp nối hướng phát triển của GLM-4.1V-Thinking và giới thiệu các đổi mới như mã hóa vị trí xoay ba chiều (3D-RoPE), đáng kể nâng cao khả năng nhận thức và suy luận về các mối quan hệ trong không gian 3D. Thông qua tối ưu hóa ở các giai đoạn tiền huấn luyện, tinh chỉnh có giám sát và học tăng cường, mô hình có khả năng xử lý nhiều dạng nội dung thị giác như hình ảnh, video và tài liệu dài, và đã đạt vị trí hàng đầu trong số các mô hình mã nguồn mở cùng cấp trên 41 bộ đánh giá đa phương thức công khai. Ngoài ra, mô hình còn bổ sung công tắc “chế độ tư duy”, cho phép người dùng linh hoạt lựa chọn giữa phản hồi nhanh và suy luận sâu để cân bằng hiệu quả và chất lượng."
|
|
3148
3184
|
},
|
|
3185
|
+
"zai-org/GLM-4.6": {
|
|
3186
|
+
"description": "So với GLM-4.5, GLM-4.6 mang đến nhiều cải tiến quan trọng. Cửa sổ ngữ cảnh được mở rộng từ 128K lên 200K token, giúp mô hình xử lý các nhiệm vụ Agent phức tạp hơn. Mô hình đạt điểm cao hơn trong các bài kiểm tra chuẩn về mã và thể hiện hiệu suất thực tế mạnh mẽ hơn trong các ứng dụng như Claude Code, Cline, Roo Code và Kilo Code, bao gồm cải tiến trong việc tạo giao diện frontend với hiệu ứng hình ảnh tinh tế. GLM-4.6 cải thiện rõ rệt hiệu suất suy luận và hỗ trợ sử dụng công cụ trong quá trình suy luận, mang lại năng lực tổng hợp mạnh mẽ hơn. Mô hình thể hiện sức mạnh hơn trong việc sử dụng công cụ và Agent dựa trên tìm kiếm, đồng thời tích hợp hiệu quả hơn vào khung Agent. Về mặt viết lách, mô hình phù hợp hơn với sở thích về phong cách và khả năng đọc hiểu của con người, và thể hiện tự nhiên hơn trong các tình huống nhập vai."
|
|
3187
|
+
},
|
|
3149
3188
|
"zai/glm-4.5": {
|
|
3150
3189
|
"description": "Dòng mô hình GLM-4.5 được thiết kế đặc biệt cho các tác nhân thông minh. Mô hình hàng đầu GLM-4.5 tích hợp 355 tỷ tham số tổng (32 tỷ tham số kích hoạt), hợp nhất khả năng suy luận, mã hóa và đại lý để giải quyết các yêu cầu ứng dụng phức tạp. Là hệ thống suy luận hỗn hợp, nó cung cấp hai chế độ hoạt động."
|
|
3151
3190
|
},
|
|
@@ -92,6 +92,12 @@
|
|
|
92
92
|
"DeepSeek-V3.1-Think": {
|
|
93
93
|
"description": "DeepSeek-V3.1-思考模式;DeepSeek-V3.1 是深度求索全新推出的混合推理模型,支持思考与非思考2种推理模式,较 DeepSeek-R1-0528 思考效率更高。经 Post-Training 优化,Agent 工具使用与智能体任务表现大幅提升。"
|
|
94
94
|
},
|
|
95
|
+
"DeepSeek-V3.2-Exp": {
|
|
96
|
+
"description": "DeepSeek V3.2 是 DeepSeek 最新发布的通用大模型,支持混合推理架构,具备更强的 Agent 能力。"
|
|
97
|
+
},
|
|
98
|
+
"DeepSeek-V3.2-Exp-Think": {
|
|
99
|
+
"description": "DeepSeek V3.2 思考模式。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
|
|
100
|
+
},
|
|
95
101
|
"Doubao-lite-128k": {
|
|
96
102
|
"description": "Doubao-lite 拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持128k上下文窗口的推理和精调。"
|
|
97
103
|
},
|
|
@@ -287,6 +293,9 @@
|
|
|
287
293
|
"Pro/deepseek-ai/DeepSeek-V3.1": {
|
|
288
294
|
"description": "DeepSeek-V3.1 是由深度求索(DeepSeek AI)发布的混合模式大语言模型,它在前代模型的基础上进行了多方面的重要升级。该模型的一大创新是集成了“思考模式”(Thinking Mode)和“非思考模式”(Non-thinking Mode)于一体,用户可以通过调整聊天模板灵活切换,以适应不同的任务需求。通过专门的训练后优化,V3.1 在工具调用和 Agent 任务方面的性能得到了显著增强,能够更好地支持外部搜索工具和执行多步复杂任务。该模型基于 DeepSeek-V3.1-Base 进行后训练,通过两阶段长文本扩展方法,大幅增加了训练数据量,使其在处理长文档和长篇代码方面表现更佳。作为一个开源模型,DeepSeek-V3.1 在编码、数学和推理等多个基准测试中展现了与顶尖闭源模型相媲美的能力,同时凭借其混合专家(MoE)架构,在保持巨大模型容量的同时,有效降低了推理成本。"
|
|
289
295
|
},
|
|
296
|
+
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
297
|
+
"description": "DeepSeek-V3.1-Terminus 是由深度求索(DeepSeek)发布的 V3.1 模型的更新版本,定位为混合智能体大语言模型。此次更新在保持模型原有能力的基础上,专注于修复用户反馈的问题并提升稳定性。它显著改善了语言一致性,减少了中英文混用和异常字符的出现。模型集成了“思考模式”(Thinking Mode)和“非思考模式”(Non-thinking Mode),用户可通过聊天模板灵活切换以适应不同任务。作为一个重要的优化,V3.1-Terminus 增强了代码智能体(Code Agent)和搜索智能体(Search Agent)的性能,使其在工具调用和执行多步复杂任务方面更加可靠。"
|
|
298
|
+
},
|
|
290
299
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
291
300
|
"description": "Kimi K2-Instruct-0905 是 Kimi K2 最新、最强大的版本。它是一款顶尖的混合专家(MoE)语言模型,拥有 1 万亿的总参数和 320 亿的激活参数。该模型的主要特性包括:增强的智能体编码智能,在公开基准测试和真实世界的编码智能体任务中表现出显著的性能提升;改进的前端编码体验,在前端编程的美观性和实用性方面均有进步。"
|
|
292
301
|
},
|
|
@@ -926,6 +935,9 @@
|
|
|
926
935
|
"deepseek-ai/DeepSeek-V3.1": {
|
|
927
936
|
"description": "DeepSeek-V3.1 是由深度求索(DeepSeek AI)发布的混合模式大语言模型,它在前代模型的基础上进行了多方面的重要升级。该模型的一大创新是集成了“思考模式”(Thinking Mode)和“非思考模式”(Non-thinking Mode)于一体,用户可以通过调整聊天模板灵活切换,以适应不同的任务需求。通过专门的训练后优化,V3.1 在工具调用和 Agent 任务方面的性能得到了显著增强,能够更好地支持外部搜索工具和执行多步复杂任务。该模型基于 DeepSeek-V3.1-Base 进行后训练,通过两阶段长文本扩展方法,大幅增加了训练数据量,使其在处理长文档和长篇代码方面表现更佳。作为一个开源模型,DeepSeek-V3.1 在编码、数学和推理等多个基准测试中展现了与顶尖闭源模型相媲美的能力,同时凭借其混合专家(MoE)架构,在保持巨大模型容量的同时,有效降低了推理成本。"
|
|
928
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
|
+
"description": "DeepSeek-V3.1-Terminus 是由深度求索(DeepSeek)发布的 V3.1 模型的更新版本,定位为混合智能体大语言模型。此次更新在保持模型原有能力的基础上,专注于修复用户反馈的问题并提升稳定性。它显著改善了语言一致性,减少了中英文混用和异常字符的出现。模型集成了“思考模式”(Thinking Mode)和“非思考模式”(Non-thinking Mode),用户可通过聊天模板灵活切换以适应不同任务。作为一个重要的优化,V3.1-Terminus 增强了代码智能体(Code Agent)和搜索智能体(Search Agent)的性能,使其在工具调用和执行多步复杂任务方面更加可靠。"
|
|
940
|
+
},
|
|
929
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
930
942
|
"description": "DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。"
|
|
931
943
|
},
|
|
@@ -999,7 +1011,7 @@
|
|
|
999
1011
|
"description": "DeepSeek R1 满血版,拥有 671B 参数,支持实时联网搜索,具有更强大的理解和生成能力。"
|
|
1000
1012
|
},
|
|
1001
1013
|
"deepseek-reasoner": {
|
|
1002
|
-
"description": "DeepSeek V3.
|
|
1014
|
+
"description": "DeepSeek V3.2 思考模式。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
|
|
1003
1015
|
},
|
|
1004
1016
|
"deepseek-v2": {
|
|
1005
1017
|
"description": "DeepSeek V2 是高效的 Mixture-of-Experts 语言模型,适用于经济高效的处理需求。"
|
|
@@ -1352,24 +1364,36 @@
|
|
|
1352
1364
|
"gemini-2.5-flash": {
|
|
1353
1365
|
"description": "Gemini 2.5 Flash 是 Google 性价比最高的模型,提供全面的功能。"
|
|
1354
1366
|
},
|
|
1367
|
+
"gemini-2.5-flash-image": {
|
|
1368
|
+
"description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,它允许您通过对话生成和编辑图像。"
|
|
1369
|
+
},
|
|
1355
1370
|
"gemini-2.5-flash-image-preview": {
|
|
1356
1371
|
"description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,它允许您通过对话生成和编辑图像。"
|
|
1357
1372
|
},
|
|
1358
1373
|
"gemini-2.5-flash-image-preview:image": {
|
|
1359
1374
|
"description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,它允许您通过对话生成和编辑图像。"
|
|
1360
1375
|
},
|
|
1376
|
+
"gemini-2.5-flash-image:image": {
|
|
1377
|
+
"description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,它允许您通过对话生成和编辑图像。"
|
|
1378
|
+
},
|
|
1361
1379
|
"gemini-2.5-flash-lite": {
|
|
1362
1380
|
"description": "Gemini 2.5 Flash-Lite 是 Google 最小、性价比最高的模型,专为大规模使用而设计。"
|
|
1363
1381
|
},
|
|
1364
1382
|
"gemini-2.5-flash-lite-preview-06-17": {
|
|
1365
1383
|
"description": "Gemini 2.5 Flash-Lite Preview 是 Google 最小、性价比最高的模型,专为大规模使用而设计。"
|
|
1366
1384
|
},
|
|
1385
|
+
"gemini-2.5-flash-lite-preview-09-2025": {
|
|
1386
|
+
"description": "Preview release (September 25th, 2025) of Gemini 2.5 Flash-Lite"
|
|
1387
|
+
},
|
|
1367
1388
|
"gemini-2.5-flash-preview-04-17": {
|
|
1368
1389
|
"description": "Gemini 2.5 Flash Preview 是 Google 性价比最高的模型,提供全面的功能。"
|
|
1369
1390
|
},
|
|
1370
1391
|
"gemini-2.5-flash-preview-05-20": {
|
|
1371
1392
|
"description": "Gemini 2.5 Flash Preview 是 Google 性价比最高的模型,提供全面的功能。"
|
|
1372
1393
|
},
|
|
1394
|
+
"gemini-2.5-flash-preview-09-2025": {
|
|
1395
|
+
"description": "Preview release (Septempber 25th, 2025) of Gemini 2.5 Flash"
|
|
1396
|
+
},
|
|
1373
1397
|
"gemini-2.5-pro": {
|
|
1374
1398
|
"description": "Gemini 2.5 Pro 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,以及使用长上下文分析大型数据集、代码库和文档。"
|
|
1375
1399
|
},
|
|
@@ -1382,6 +1406,15 @@
|
|
|
1382
1406
|
"gemini-2.5-pro-preview-06-05": {
|
|
1383
1407
|
"description": "Gemini 2.5 Pro Preview 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,以及使用长上下文分析大型数据集、代码库和文档。"
|
|
1384
1408
|
},
|
|
1409
|
+
"gemini-flash-latest": {
|
|
1410
|
+
"description": "Latest release of Gemini Flash"
|
|
1411
|
+
},
|
|
1412
|
+
"gemini-flash-lite-latest": {
|
|
1413
|
+
"description": "Latest release of Gemini Flash-Lite"
|
|
1414
|
+
},
|
|
1415
|
+
"gemini-pro-latest": {
|
|
1416
|
+
"description": "Latest release of Gemini Pro"
|
|
1417
|
+
},
|
|
1385
1418
|
"gemma-7b-it": {
|
|
1386
1419
|
"description": "Gemma 7B 适合中小规模任务处理,兼具成本效益。"
|
|
1387
1420
|
},
|
|
@@ -1811,12 +1844,12 @@
|
|
|
1811
1844
|
"hunyuan-t1-latest": {
|
|
1812
1845
|
"description": "大幅提升主模型慢思考模型的高难数学、复杂推理、高难代码、指令遵循、文本创作质量等能力。"
|
|
1813
1846
|
},
|
|
1814
|
-
"hunyuan-t1-vision": {
|
|
1815
|
-
"description": "混元多模态理解深度思考模型,支持多模态原生长思维链,擅长处理各种图片推理场景,在理科难题上相比快思考模型全面提升。"
|
|
1816
|
-
},
|
|
1817
1847
|
"hunyuan-t1-vision-20250619": {
|
|
1818
1848
|
"description": "混元最新版t1-vision多模态理解深度思考模型,支持多模态原生长思维链,相比上一代默认版本模型全面提升。"
|
|
1819
1849
|
},
|
|
1850
|
+
"hunyuan-t1-vision-20250916": {
|
|
1851
|
+
"description": "混元多模态理解深度思考模型,支持多模态原生长思维链,擅长处理各种图片推理场景,在理科难题上相比快思考模型全面提升。"
|
|
1852
|
+
},
|
|
1820
1853
|
"hunyuan-turbo": {
|
|
1821
1854
|
"description": "混元全新一代大语言模型的预览版,采用全新的混合专家模型(MoE)结构,相比hunyuan-pro推理效率更快,效果表现更强。"
|
|
1822
1855
|
},
|
|
@@ -1838,6 +1871,9 @@
|
|
|
1838
1871
|
"hunyuan-turbos-20250604": {
|
|
1839
1872
|
"description": "预训练底座升级,写作、阅读理解能力提升,较大幅度提升代码和理科能力,复杂指令遵循等持续提升。"
|
|
1840
1873
|
},
|
|
1874
|
+
"hunyuan-turbos-20250926": {
|
|
1875
|
+
"description": "预训练底座数据质量升级。优化 posttrain 阶段训练策略,持续提升 Agent、英语小语种、指令遵循、代码和理科能力。"
|
|
1876
|
+
},
|
|
1841
1877
|
"hunyuan-turbos-latest": {
|
|
1842
1878
|
"description": "hunyuan-TurboS 混元旗舰大模型最新版本,具备更强的思考能力,更优的体验效果。"
|
|
1843
1879
|
},
|
|
@@ -3146,6 +3182,9 @@
|
|
|
3146
3182
|
"zai-org/GLM-4.5V": {
|
|
3147
3183
|
"description": "GLM-4.5V 是由智谱 AI(Zhipu AI)发布的最新一代视觉语言模型(VLM)该模型基于拥有 106B 总参数和 12B 激活参数的旗舰文本模型 GLM-4.5-Air 构建,采用了混合专家(MoE)架构,旨在以更低的推理成本实现卓越性能 GLM-4.5V 在技术上延续了 GLM-4.1V-Thinking 的路线,并引入了三维旋转位置编码(3D-RoPE)等创新,显著增强了对三维空间关系的感知与推理能力。通过在预训练、监督微调和强化学习阶段的优化,该模型具备了处理图像、视频、长文档等多种视觉内容的能力,在 41 个公开的多模态基准测试中达到了同级别开源模型的顶尖水平此外,模型还新增了“思考模式”开关,允许用户在快速响应和深度推理之间灵活选择,以平衡效率与效果。"
|
|
3148
3184
|
},
|
|
3185
|
+
"zai-org/GLM-4.6": {
|
|
3186
|
+
"description": "与 GLM-4.5 相比,GLM-4.6 带来了多项关键改进。其上下文窗口从 128K 扩展到 200K tokens,使模型能够处理更复杂的智能体任务。模型在代码基准测试中取得了更高的分数,并在 Claude Code、Cline、Roo Code 和 Kilo Code 等应用中展现了更强的真实世界性能,包括在生成视觉效果精致的前端页面方面有所改进。GLM-4.6 在推理性能上表现出明显提升,并支持在推理过程中使用工具,从而带来了更强的综合能力。它在工具使用和基于搜索的智能体方面表现更强,并且能更有效地集成到智能体框架中。在写作方面,该模型在风格和可读性上更符合人类偏好,并在角色扮演场景中表现得更自然。"
|
|
3187
|
+
},
|
|
3149
3188
|
"zai/glm-4.5": {
|
|
3150
3189
|
"description": "GLM-4.5 系列模型是专门为智能体设计的基础模型。旗舰 GLM-4.5 集成了 3550 亿总参数(320 亿活跃),统一了推理、编码和代理能力以解决复杂的应用需求。作为混合推理系统,它提供双重操作模式。"
|
|
3151
3190
|
},
|
|
@@ -92,6 +92,12 @@
|
|
|
92
92
|
"DeepSeek-V3.1-Think": {
|
|
93
93
|
"description": "DeepSeek-V3.1-思考模式;DeepSeek-V3.1 是深度求索全新推出的混合推理模型,支援思考與非思考兩種推理模式,較 DeepSeek-R1-0528 思考效率更高。經 Post-Training 優化,Agent 工具使用與智能體任務表現大幅提升。"
|
|
94
94
|
},
|
|
95
|
+
"DeepSeek-V3.2-Exp": {
|
|
96
|
+
"description": "DeepSeek V3.2 是 DeepSeek 最新發佈的通用大模型,支援混合推理架構,具備更強的 Agent 能力。"
|
|
97
|
+
},
|
|
98
|
+
"DeepSeek-V3.2-Exp-Think": {
|
|
99
|
+
"description": "DeepSeek V3.2 思考模式。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
|
|
100
|
+
},
|
|
95
101
|
"Doubao-lite-128k": {
|
|
96
102
|
"description": "Doubao-lite 擁有極致的響應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持128k上下文視窗的推理和精調。"
|
|
97
103
|
},
|
|
@@ -287,6 +293,9 @@
|
|
|
287
293
|
"Pro/deepseek-ai/DeepSeek-V3.1": {
|
|
288
294
|
"description": "DeepSeek-V3.1 是由深度求索(DeepSeek AI)發佈的混合模式大型語言模型,它在前代模型的基礎上進行了多方面的重要升級。該模型的一大創新是整合了「思考模式」(Thinking Mode)與「非思考模式」(Non-thinking Mode)於一體,使用者可以透過調整聊天範本靈活切換,以適應不同的任務需求。透過專門的後訓練優化,V3.1 在工具調用與 Agent 任務方面的效能獲得顯著提升,能更好地支援外部搜尋工具及執行多步複雜任務。該模型基於 DeepSeek-V3.1-Base 進行後訓練,透過兩階段長文本擴展方法,大幅增加訓練資料量,使其在處理長文件與長篇程式碼方面表現更佳。作為一個開源模型,DeepSeek-V3.1 在編碼、數學與推理等多個基準測試中展現了與頂尖閉源模型相媲美的能力,同時憑藉其混合專家(MoE)架構,在保持龐大模型容量的同時,有效降低推理成本。"
|
|
289
295
|
},
|
|
296
|
+
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
297
|
+
"description": "DeepSeek-V3.1-Terminus 是由深度求索(DeepSeek)發佈的 V3.1 模型的更新版本,定位為混合智能體大語言模型。此次更新在保持模型原有能力的基礎上,專注於修復用戶反饋的問題並提升穩定性。它顯著改善了語言一致性,減少了中英文混用和異常字元的出現。模型整合了「思考模式」(Thinking Mode)和「非思考模式」(Non-thinking Mode),用戶可透過聊天範本靈活切換以適應不同任務。作為一個重要的優化,V3.1-Terminus 強化了程式碼智能體(Code Agent)和搜尋智能體(Search Agent)的效能,使其在工具呼叫和執行多步複雜任務方面更加可靠。"
|
|
298
|
+
},
|
|
290
299
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
291
300
|
"description": "Kimi K2-Instruct-0905 是 Kimi K2 最新、最強大的版本。它是一款頂尖的混合專家(MoE)語言模型,擁有 1 兆的總參數和 320 億的激活參數。該模型的主要特性包括:增強的智能體編碼智能,在公開基準測試和真實世界的編碼智能體任務中表現出顯著的性能提升;改進的前端編碼體驗,在前端程式設計的美觀性和實用性方面均有進步。"
|
|
292
301
|
},
|
|
@@ -926,6 +935,9 @@
|
|
|
926
935
|
"deepseek-ai/DeepSeek-V3.1": {
|
|
927
936
|
"description": "DeepSeek-V3.1 是由深度求索(DeepSeek AI)發佈的混合模式大型語言模型,它在前代模型的基礎上進行了多方面的重要升級。該模型的一大創新是整合了「思考模式」(Thinking Mode)與「非思考模式」(Non-thinking Mode)於一體,使用者可以透過調整聊天範本靈活切換,以適應不同的任務需求。透過專門的後訓練優化,V3.1 在工具調用與 Agent 任務方面的效能獲得顯著提升,能更好地支援外部搜尋工具及執行多步複雜任務。該模型基於 DeepSeek-V3.1-Base 進行後訓練,透過兩階段長文本擴展方法,大幅增加訓練資料量,使其在處理長文件與長篇程式碼方面表現更佳。作為一個開源模型,DeepSeek-V3.1 在編碼、數學與推理等多個基準測試中展現了與頂尖閉源模型相媲美的能力,同時憑藉其混合專家(MoE)架構,在保持龐大模型容量的同時,有效降低推理成本。"
|
|
928
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
|
+
"description": "DeepSeek-V3.1-Terminus 是由深度求索(DeepSeek)發佈的 V3.1 模型的更新版本,定位為混合智能體大語言模型。此次更新在保持模型原有能力的基礎上,專注於修復用戶反饋的問題並提升穩定性。它顯著改善了語言一致性,減少了中英文混用和異常字元的出現。模型整合了「思考模式」(Thinking Mode)和「非思考模式」(Non-thinking Mode),用戶可透過聊天範本靈活切換以適應不同任務。作為一個重要的優化,V3.1-Terminus 強化了程式碼智能體(Code Agent)和搜尋智能體(Search Agent)的效能,使其在工具呼叫和執行多步複雜任務方面更加可靠。"
|
|
940
|
+
},
|
|
929
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
930
942
|
"description": "DeepSeek 67B 是為高複雜性對話訓練的先進模型。"
|
|
931
943
|
},
|
|
@@ -999,7 +1011,7 @@
|
|
|
999
1011
|
"description": "DeepSeek R1 滿血版,擁有 671B 參數,支持即時聯網搜索,具有更強大的理解和生成能力。"
|
|
1000
1012
|
},
|
|
1001
1013
|
"deepseek-reasoner": {
|
|
1002
|
-
"description": "DeepSeek V3.
|
|
1014
|
+
"description": "DeepSeek V3.2 思考模式。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
|
|
1003
1015
|
},
|
|
1004
1016
|
"deepseek-v2": {
|
|
1005
1017
|
"description": "DeepSeek V2 是高效的 Mixture-of-Experts 語言模型,適用於經濟高效的處理需求。"
|
|
@@ -1352,24 +1364,36 @@
|
|
|
1352
1364
|
"gemini-2.5-flash": {
|
|
1353
1365
|
"description": "Gemini 2.5 Flash 是 Google 性價比最高的模型,提供全面的功能。"
|
|
1354
1366
|
},
|
|
1367
|
+
"gemini-2.5-flash-image": {
|
|
1368
|
+
"description": "Nano Banana 是 Google 最新、最快、最高效的原生多模態模型,它允許您透過對話生成和編輯圖像。"
|
|
1369
|
+
},
|
|
1355
1370
|
"gemini-2.5-flash-image-preview": {
|
|
1356
1371
|
"description": "Nano Banana 是 Google 最新、最快、最高效的原生多模態模型,它允許您透過對話生成和編輯圖像。"
|
|
1357
1372
|
},
|
|
1358
1373
|
"gemini-2.5-flash-image-preview:image": {
|
|
1359
1374
|
"description": "Nano Banana 是 Google 最新、最快、最高效的原生多模態模型,它允許您透過對話生成和編輯圖像。"
|
|
1360
1375
|
},
|
|
1376
|
+
"gemini-2.5-flash-image:image": {
|
|
1377
|
+
"description": "Nano Banana 是 Google 最新、最快、最高效的原生多模態模型,它允許您透過對話生成和編輯圖像。"
|
|
1378
|
+
},
|
|
1361
1379
|
"gemini-2.5-flash-lite": {
|
|
1362
1380
|
"description": "Gemini 2.5 Flash-Lite 是 Google 最小、性價比最高的模型,專為大規模使用而設計。"
|
|
1363
1381
|
},
|
|
1364
1382
|
"gemini-2.5-flash-lite-preview-06-17": {
|
|
1365
1383
|
"description": "Gemini 2.5 Flash-Lite Preview 是 Google 最小、性價比最高的模型,專為大規模使用而設計。"
|
|
1366
1384
|
},
|
|
1385
|
+
"gemini-2.5-flash-lite-preview-09-2025": {
|
|
1386
|
+
"description": "預覽版本(2025年9月25日)之 Gemini 2.5 Flash-Lite"
|
|
1387
|
+
},
|
|
1367
1388
|
"gemini-2.5-flash-preview-04-17": {
|
|
1368
1389
|
"description": "Gemini 2.5 Flash Preview 是 Google 性價比最高的模型,提供全面的功能。"
|
|
1369
1390
|
},
|
|
1370
1391
|
"gemini-2.5-flash-preview-05-20": {
|
|
1371
1392
|
"description": "Gemini 2.5 Flash Preview 是 Google 性價比最高的模型,提供全面的功能。"
|
|
1372
1393
|
},
|
|
1394
|
+
"gemini-2.5-flash-preview-09-2025": {
|
|
1395
|
+
"description": "預覽版本(2025年9月25日)之 Gemini 2.5 Flash"
|
|
1396
|
+
},
|
|
1373
1397
|
"gemini-2.5-pro": {
|
|
1374
1398
|
"description": "Gemini 2.5 Pro 是 Google 最先進的思維模型,能夠對程式碼、數學和 STEM 領域的複雜問題進行推理,以及使用長上下文分析大型資料集、程式碼庫和文件。"
|
|
1375
1399
|
},
|
|
@@ -1382,6 +1406,15 @@
|
|
|
1382
1406
|
"gemini-2.5-pro-preview-06-05": {
|
|
1383
1407
|
"description": "Gemini 2.5 Pro Preview 是 Google 最先進的思維模型,能夠對程式碼、數學和STEM領域的複雜問題進行推理,以及使用長上下文分析大型資料集、程式碼庫和文件。"
|
|
1384
1408
|
},
|
|
1409
|
+
"gemini-flash-latest": {
|
|
1410
|
+
"description": "Gemini Flash 最新版本"
|
|
1411
|
+
},
|
|
1412
|
+
"gemini-flash-lite-latest": {
|
|
1413
|
+
"description": "Gemini Flash-Lite 最新版本"
|
|
1414
|
+
},
|
|
1415
|
+
"gemini-pro-latest": {
|
|
1416
|
+
"description": "Gemini Pro 最新版本"
|
|
1417
|
+
},
|
|
1385
1418
|
"gemma-7b-it": {
|
|
1386
1419
|
"description": "Gemma 7B 適合中小規模任務處理,兼具成本效益。"
|
|
1387
1420
|
},
|
|
@@ -1811,12 +1844,12 @@
|
|
|
1811
1844
|
"hunyuan-t1-latest": {
|
|
1812
1845
|
"description": "大幅提升主模型慢思考模型的高難數學、複雜推理、高難程式碼、指令遵循、文本創作品質等能力。"
|
|
1813
1846
|
},
|
|
1814
|
-
"hunyuan-t1-vision": {
|
|
1815
|
-
"description": "混元多模態理解深度思考模型,支援多模態原生長思維鏈,擅長處理各種圖片推理場景,在理科難題上相比快思考模型全面提升。"
|
|
1816
|
-
},
|
|
1817
1847
|
"hunyuan-t1-vision-20250619": {
|
|
1818
1848
|
"description": "混元最新版 t1-vision 多模態理解深度思考模型,支持多模態原生長思維鏈,相較上一代預設版本模型全面提升。"
|
|
1819
1849
|
},
|
|
1850
|
+
"hunyuan-t1-vision-20250916": {
|
|
1851
|
+
"description": "混元多模態理解深度思考模型,支援多模態原生長思維鏈,擅長處理各種圖片推理場景,在理科難題上相比快思考模型全面提升。"
|
|
1852
|
+
},
|
|
1820
1853
|
"hunyuan-turbo": {
|
|
1821
1854
|
"description": "混元全新一代大語言模型的預覽版,採用全新的混合專家模型(MoE)結構,相較於 hunyuan-pro 推理效率更快,效果表現更強。"
|
|
1822
1855
|
},
|
|
@@ -1838,6 +1871,9 @@
|
|
|
1838
1871
|
"hunyuan-turbos-20250604": {
|
|
1839
1872
|
"description": "預訓練底座升級,寫作、閱讀理解能力提升,較大幅度提升程式碼和理科能力,複雜指令遵循等持續提升。"
|
|
1840
1873
|
},
|
|
1874
|
+
"hunyuan-turbos-20250926": {
|
|
1875
|
+
"description": "預訓練底座資料品質升級。優化 posttrain 階段訓練策略,持續提升 Agent、英語小語種、指令遵循、程式碼和理科能力。"
|
|
1876
|
+
},
|
|
1841
1877
|
"hunyuan-turbos-latest": {
|
|
1842
1878
|
"description": "hunyuan-TurboS 混元旗艦大模型最新版本,具備更強的思考能力,更優的體驗效果。"
|
|
1843
1879
|
},
|
|
@@ -3146,6 +3182,9 @@
|
|
|
3146
3182
|
"zai-org/GLM-4.5V": {
|
|
3147
3183
|
"description": "GLM-4.5V 是由智譜 AI(Zhipu AI)發布的最新一代視覺語言模型(VLM)。該模型基於擁有 106B 總參數和 12B 激活參數的旗艦文本模型 GLM-4.5-Air 構建,採用了混合專家(MoE)架構,旨在以更低的推理成本實現卓越性能。GLM-4.5V 在技術上延續了 GLM-4.1V-Thinking 的路線,並引入了三維旋轉位置編碼(3D-RoPE)等創新,顯著增強了對三維空間關係的感知與推理能力。透過在預訓練、監督微調和強化學習階段的優化,該模型具備處理影像、影片、長文檔等多種視覺內容的能力,在 41 個公開的多模態基準測試中達到同級別開源模型的頂尖水準。此外,模型還新增了「思考模式」開關,允許使用者在快速回應與深度推理之間靈活選擇,以平衡效率與效果。"
|
|
3148
3184
|
},
|
|
3185
|
+
"zai-org/GLM-4.6": {
|
|
3186
|
+
"description": "與 GLM-4.5 相比,GLM-4.6 帶來多項關鍵改進。其上下文視窗從 128K 擴展到 200K tokens,使模型能夠處理更複雜的智能體任務。模型在程式碼基準測試中取得更高分數,並在 Claude Code、Cline、Roo Code 和 Kilo Code 等應用中展現更強的真實世界效能,包括在生成視覺效果精緻的前端頁面方面有所改進。GLM-4.6 在推理效能上表現出明顯提升,並支援在推理過程中使用工具,從而帶來更強的綜合能力。它在工具使用和基於搜尋的智能體方面表現更強,並且能更有效地整合到智能體框架中。在寫作方面,該模型在風格和可讀性上更符合人類偏好,並在角色扮演場景中表現得更自然。"
|
|
3187
|
+
},
|
|
3149
3188
|
"zai/glm-4.5": {
|
|
3150
3189
|
"description": "GLM-4.5 系列模型是專門為智能體設計的基礎模型。旗艦 GLM-4.5 整合了 3550 億總參數(320 億活躍),統一了推理、編碼和代理能力以解決複雜的應用需求。作為混合推理系統,它提供雙重操作模式。"
|
|
3151
3190
|
},
|
package/package.json
CHANGED
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
{
|
|
2
2
|
"name": "@lobehub/chat",
|
|
3
|
-
"version": "1.134.
|
|
3
|
+
"version": "1.134.2",
|
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
|
5
5
|
"keywords": [
|
|
6
6
|
"framework",
|
|
@@ -372,7 +372,7 @@
|
|
|
372
372
|
"vite": "^7.1.5",
|
|
373
373
|
"vitest": "^3.2.4"
|
|
374
374
|
},
|
|
375
|
-
"packageManager": "pnpm@10.
|
|
375
|
+
"packageManager": "pnpm@10.18.0",
|
|
376
376
|
"publishConfig": {
|
|
377
377
|
"access": "public",
|
|
378
378
|
"registry": "https://registry.npmjs.org"
|
|
@@ -327,6 +327,7 @@ export const CreateAiModelSchema = z.object({
|
|
|
327
327
|
id: z.string(),
|
|
328
328
|
providerId: z.string(),
|
|
329
329
|
releasedAt: z.string().optional(),
|
|
330
|
+
type: AiModelTypeSchema.optional(),
|
|
330
331
|
|
|
331
332
|
// checkModel: z.string().optional(),
|
|
332
333
|
// homeUrl: z.string().optional(),
|
|
@@ -362,6 +363,7 @@ export const UpdateAiModelSchema = z.object({
|
|
|
362
363
|
.optional(),
|
|
363
364
|
contextWindowTokens: z.number().nullable().optional(),
|
|
364
365
|
displayName: z.string().nullable().optional(),
|
|
366
|
+
type: AiModelTypeSchema.optional(),
|
|
365
367
|
});
|
|
366
368
|
|
|
367
369
|
export type UpdateAiModelParams = z.infer<typeof UpdateAiModelSchema>;
|
package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/Form.tsx
CHANGED
|
@@ -1,13 +1,14 @@
|
|
|
1
1
|
import { Input } from '@lobehub/ui';
|
|
2
|
-
import { Checkbox, Form, FormInstance } from 'antd';
|
|
3
|
-
import { memo, useEffect } from 'react';
|
|
2
|
+
import { Checkbox, Form, FormInstance, Select } from 'antd';
|
|
3
|
+
import { memo, useEffect, useMemo } from 'react';
|
|
4
4
|
import { useTranslation } from 'react-i18next';
|
|
5
5
|
|
|
6
6
|
import MaxTokenSlider from '@/components/MaxTokenSlider';
|
|
7
7
|
import { useIsMobile } from '@/hooks/useIsMobile';
|
|
8
|
-
import { AiModelType } from '../../../../../../../../../packages/model-bank/src/types/aiModel';
|
|
9
8
|
import { ChatModelCard } from '@/types/llm';
|
|
10
9
|
|
|
10
|
+
import { AiModelType } from '../../../../../../../../../packages/model-bank/src/types/aiModel';
|
|
11
|
+
|
|
11
12
|
interface ModelConfigFormProps {
|
|
12
13
|
idEditable?: boolean;
|
|
13
14
|
initialValues?: ChatModelCard;
|
|
@@ -24,6 +25,30 @@ const ModelConfigForm = memo<ModelConfigFormProps>(
|
|
|
24
25
|
|
|
25
26
|
const isMobile = useIsMobile();
|
|
26
27
|
|
|
28
|
+
const modelTypeOptions = useMemo(
|
|
29
|
+
() =>
|
|
30
|
+
(
|
|
31
|
+
[
|
|
32
|
+
'chat',
|
|
33
|
+
'embedding',
|
|
34
|
+
'tts',
|
|
35
|
+
'stt',
|
|
36
|
+
'image',
|
|
37
|
+
// 'text2video',
|
|
38
|
+
// 'text2music',
|
|
39
|
+
'realtime',
|
|
40
|
+
] as AiModelType[]
|
|
41
|
+
).map((value) => {
|
|
42
|
+
const label = t(`providerModels.item.modelConfig.type.options.${value}`);
|
|
43
|
+
|
|
44
|
+
return {
|
|
45
|
+
label: label !== value ? `${label} (${value})` : label,
|
|
46
|
+
value,
|
|
47
|
+
};
|
|
48
|
+
}),
|
|
49
|
+
[t],
|
|
50
|
+
);
|
|
51
|
+
|
|
27
52
|
useEffect(() => {
|
|
28
53
|
onFormInstanceReady(formInstance);
|
|
29
54
|
}, []);
|
|
@@ -102,6 +127,16 @@ const ModelConfigForm = memo<ModelConfigFormProps>(
|
|
|
102
127
|
>
|
|
103
128
|
<Checkbox />
|
|
104
129
|
</Form.Item>
|
|
130
|
+
<Form.Item
|
|
131
|
+
extra={t('providerModels.item.modelConfig.type.extra')}
|
|
132
|
+
label={t('providerModels.item.modelConfig.type.title')}
|
|
133
|
+
name={'type'}
|
|
134
|
+
>
|
|
135
|
+
<Select
|
|
136
|
+
options={modelTypeOptions}
|
|
137
|
+
placeholder={t('providerModels.item.modelConfig.type.placeholder')}
|
|
138
|
+
/>
|
|
139
|
+
</Form.Item>
|
|
105
140
|
{/*<Form.Item*/}
|
|
106
141
|
{/* extra={t('providerModels.item.modelConfig.files.extra')}*/}
|
|
107
142
|
{/* label={t('providerModels.item.modelConfig.files.title')}*/}
|
|
@@ -299,6 +299,21 @@ export default {
|
|
|
299
299
|
title: '最大上下文窗口',
|
|
300
300
|
unlimited: '无限制',
|
|
301
301
|
},
|
|
302
|
+
type: {
|
|
303
|
+
extra: '不同模型类型拥有差异化的使用场景与能力',
|
|
304
|
+
options: {
|
|
305
|
+
chat: '对话',
|
|
306
|
+
embedding: '向量化',
|
|
307
|
+
image: '图片生成',
|
|
308
|
+
realtime: '实时对话',
|
|
309
|
+
stt: '语音转文本',
|
|
310
|
+
text2music: '文本转音乐',
|
|
311
|
+
text2video: '文本转视频',
|
|
312
|
+
tts: '语音合成',
|
|
313
|
+
},
|
|
314
|
+
placeholder: '请选择模型类型',
|
|
315
|
+
title: '模型类型',
|
|
316
|
+
},
|
|
302
317
|
vision: {
|
|
303
318
|
extra:
|
|
304
319
|
'此配置将仅开启应用中的图片上传配置,是否支持识别完全取决于模型本身,请自行测试该模型的视觉识别能力可用性',
|
|
@@ -160,7 +160,10 @@ export const createAiProviderSlice: StateCreator<
|
|
|
160
160
|
await get().refreshAiProviderRuntimeState();
|
|
161
161
|
},
|
|
162
162
|
refreshAiProviderRuntimeState: async () => {
|
|
163
|
-
await
|
|
163
|
+
await Promise.all([
|
|
164
|
+
mutate([AiProviderSwrKey.fetchAiProviderRuntimeState, true]),
|
|
165
|
+
mutate([AiProviderSwrKey.fetchAiProviderRuntimeState, false]),
|
|
166
|
+
]);
|
|
164
167
|
},
|
|
165
168
|
removeAiProvider: async (id) => {
|
|
166
169
|
await aiProviderService.deleteAiProvider(id);
|