@lobehub/chat 1.92.2 → 1.93.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/README.md +8 -8
- package/README.zh-CN.md +8 -8
- package/changelog/v1.json +21 -0
- package/docs/development/database-schema.dbml +51 -1
- package/locales/ar/modelProvider.json +4 -0
- package/locales/ar/models.json +64 -34
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/modelProvider.json +4 -0
- package/locales/bg-BG/models.json +64 -34
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/modelProvider.json +4 -0
- package/locales/de-DE/models.json +64 -34
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/modelProvider.json +4 -0
- package/locales/en-US/models.json +64 -34
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/modelProvider.json +4 -0
- package/locales/es-ES/models.json +64 -34
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/modelProvider.json +4 -0
- package/locales/fa-IR/models.json +64 -34
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/modelProvider.json +4 -0
- package/locales/fr-FR/models.json +64 -34
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/modelProvider.json +4 -0
- package/locales/it-IT/models.json +64 -34
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/modelProvider.json +4 -0
- package/locales/ja-JP/models.json +64 -34
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/modelProvider.json +4 -0
- package/locales/ko-KR/models.json +64 -34
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/modelProvider.json +4 -0
- package/locales/nl-NL/models.json +64 -34
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/modelProvider.json +4 -0
- package/locales/pl-PL/models.json +64 -34
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/modelProvider.json +4 -0
- package/locales/pt-BR/models.json +64 -34
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/modelProvider.json +4 -0
- package/locales/ru-RU/models.json +63 -33
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/modelProvider.json +4 -0
- package/locales/tr-TR/models.json +64 -34
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/modelProvider.json +4 -0
- package/locales/vi-VN/models.json +64 -34
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/modelProvider.json +4 -0
- package/locales/zh-CN/models.json +59 -29
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/modelProvider.json +4 -0
- package/locales/zh-TW/models.json +64 -34
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +2 -2
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +16 -0
- package/src/config/aiModels/openrouter.ts +44 -0
- package/src/config/modelProviders/openai.ts +3 -1
- package/src/database/client/migrations.json +25 -0
- package/src/database/migrations/0025_add_provider_config.sql +1 -0
- package/src/database/migrations/meta/0025_snapshot.json +5703 -0
- package/src/database/migrations/meta/_journal.json +7 -0
- package/src/database/models/__tests__/aiProvider.test.ts +2 -0
- package/src/database/models/aiProvider.ts +5 -2
- package/src/database/repositories/tableViewer/index.test.ts +1 -1
- package/src/database/schemas/_helpers.ts +5 -1
- package/src/database/schemas/aiInfra.ts +5 -1
- package/src/libs/model-runtime/openai/index.ts +21 -2
- package/src/libs/model-runtime/openrouter/index.ts +55 -43
- package/src/libs/model-runtime/types/chat.ts +6 -9
- package/src/libs/model-runtime/utils/openaiCompatibleFactory/index.ts +79 -5
- package/src/libs/model-runtime/utils/openaiHelpers.test.ts +145 -1
- package/src/libs/model-runtime/utils/openaiHelpers.ts +59 -0
- package/src/libs/model-runtime/utils/streams/openai/__snapshots__/responsesStream.test.ts.snap +193 -0
- package/src/libs/model-runtime/utils/streams/openai/index.ts +2 -0
- package/src/libs/model-runtime/utils/streams/{openai.test.ts → openai/openai.test.ts} +1 -1
- package/src/libs/model-runtime/utils/streams/{openai.ts → openai/openai.ts} +5 -5
- package/src/libs/model-runtime/utils/streams/openai/responsesStream.test.ts +826 -0
- package/src/libs/model-runtime/utils/streams/openai/responsesStream.ts +166 -0
- package/src/libs/model-runtime/utils/streams/protocol.ts +4 -1
- package/src/libs/model-runtime/utils/streams/utils.ts +20 -0
- package/src/libs/model-runtime/utils/usageConverter.ts +59 -0
- package/src/locales/default/modelProvider.ts +4 -0
- package/src/services/__tests__/chat.test.ts +27 -0
- package/src/services/chat.ts +8 -2
- package/src/services/file/ClientS3/index.test.ts +8 -8
- package/src/services/file/ClientS3/index.ts +2 -1
- package/src/store/aiInfra/slices/aiProvider/selectors.ts +11 -0
- package/src/types/aiProvider.ts +13 -1
@@ -230,6 +230,9 @@
|
|
230
230
|
"Pro/deepseek-ai/DeepSeek-R1": {
|
231
231
|
"description": "DeepSeek-R1 là một mô hình suy diễn được điều khiển bởi học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc trong mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh, tối ưu hóa thêm hiệu suất suy diễn. Nó thể hiện hiệu suất tương đương với OpenAI-o1 trong các nhiệm vụ toán học, mã và suy diễn, và thông qua phương pháp đào tạo được thiết kế cẩn thận, nâng cao hiệu quả tổng thể."
|
232
232
|
},
|
233
|
+
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
234
|
+
"description": "DeepSeek-R1 là mô hình suy luận được điều khiển bằng học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc hiểu của mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh để tối ưu hóa hiệu suất suy luận. Mô hình đạt hiệu quả tương đương OpenAI-o1 trong các nhiệm vụ toán học, mã hóa và suy luận, đồng thời nâng cao tổng thể nhờ phương pháp huấn luyện tinh tế."
|
235
|
+
},
|
233
236
|
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
234
237
|
"description": "DeepSeek-R1-Distill-Qwen-1.5B là mô hình được tạo ra từ Qwen2.5-Math-1.5B thông qua quá trình chưng cất kiến thức. Mô hình này được tinh chỉnh bằng 800.000 mẫu được chọn lọc từ DeepSeek-R1, thể hiện hiệu suất tốt trong nhiều bài kiểm tra chuẩn. Là một mô hình nhẹ, nó đạt được độ chính xác 83,9% trên MATH-500, tỷ lệ vượt qua 28,9% trên AIME 2024, và đạt điểm 954 trên CodeForces, cho thấy khả năng suy luận vượt quá quy mô tham số của nó."
|
235
238
|
},
|
@@ -422,8 +425,8 @@
|
|
422
425
|
"THUDM/glm-4-9b-chat": {
|
423
426
|
"description": "GLM-4 9B là phiên bản mã nguồn mở, cung cấp trải nghiệm đối thoại tối ưu cho các ứng dụng hội thoại."
|
424
427
|
},
|
425
|
-
"
|
426
|
-
"description": "
|
428
|
+
"Tongyi-Zhiwen/QwenLong-L1-32B": {
|
429
|
+
"description": "QwenLong-L1-32B là mô hình suy luận lớn có ngữ cảnh dài đầu tiên được huấn luyện bằng học tăng cường (LRM), tối ưu hóa cho các nhiệm vụ suy luận văn bản dài. Mô hình sử dụng khung học tăng cường mở rộng ngữ cảnh tiến dần, đạt được chuyển đổi ổn định từ ngữ cảnh ngắn sang dài. Trong bảy bài kiểm tra chuẩn hỏi đáp tài liệu ngữ cảnh dài, QwenLong-L1-32B vượt qua các mô hình hàng đầu như OpenAI-o3-mini và Qwen3-235B-A22B, hiệu suất tương đương Claude-3.7-Sonnet-Thinking. Mô hình đặc biệt mạnh về suy luận toán học, logic và suy luận đa bước."
|
427
430
|
},
|
428
431
|
"Yi-34B-Chat": {
|
429
432
|
"description": "Yi-1.5-34B, trong khi vẫn giữ được khả năng ngôn ngữ chung xuất sắc của dòng mô hình gốc, đã tăng cường đào tạo với 500 tỷ token chất lượng cao, nâng cao đáng kể khả năng logic toán học và mã."
|
@@ -734,6 +737,12 @@
|
|
734
737
|
"deepseek-ai/DeepSeek-R1": {
|
735
738
|
"description": "DeepSeek-R1 là một mô hình suy diễn được điều khiển bởi học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc hiểu trong mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh, tối ưu hóa thêm hiệu suất suy diễn. Nó thể hiện hiệu suất tương đương với OpenAI-o1 trong các nhiệm vụ toán học, mã và suy diễn, và thông qua phương pháp đào tạo được thiết kế cẩn thận, nâng cao hiệu quả tổng thể."
|
736
739
|
},
|
740
|
+
"deepseek-ai/DeepSeek-R1-0528": {
|
741
|
+
"description": "DeepSeek R1 đã nâng cao đáng kể chiều sâu khả năng suy luận và phán đoán nhờ tận dụng tài nguyên tính toán tăng thêm và cơ chế tối ưu thuật toán trong quá trình huấn luyện sau. Mô hình thể hiện xuất sắc trong nhiều bài đánh giá chuẩn, bao gồm toán học, lập trình và logic chung. Hiệu suất tổng thể hiện gần đạt các mô hình hàng đầu như O3 và Gemini 2.5 Pro."
|
742
|
+
},
|
743
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
|
744
|
+
"description": "DeepSeek-R1-0528-Qwen3-8B là mô hình được chưng cất chuỗi suy nghĩ từ DeepSeek-R1-0528 sang Qwen3 8B Base. Mô hình đạt hiệu suất tiên tiến nhất (SOTA) trong các mô hình mã nguồn mở, vượt Qwen3 8B 10% trong bài kiểm tra AIME 2024 và đạt mức hiệu suất của Qwen3-235B-thinking. Mô hình thể hiện xuất sắc trong suy luận toán học, lập trình và logic chung, có kiến trúc giống Qwen3-8B nhưng dùng chung cấu hình tokenizer của DeepSeek-R1-0528."
|
745
|
+
},
|
737
746
|
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
|
738
747
|
"description": "Mô hình chưng cất DeepSeek-R1, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
|
739
748
|
},
|
@@ -836,9 +845,6 @@
|
|
836
845
|
"deepseek-v3-0324": {
|
837
846
|
"description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật trong khả năng lập trình và kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài."
|
838
847
|
},
|
839
|
-
"deepseek/deepseek-chat": {
|
840
|
-
"description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều lĩnh vực như nhiệm vụ viết, theo dõi chỉ dẫn."
|
841
|
-
},
|
842
848
|
"deepseek/deepseek-chat-v3-0324": {
|
843
849
|
"description": "DeepSeek V3 là một mô hình hỗn hợp chuyên gia với 685B tham số, là phiên bản mới nhất trong dòng mô hình trò chuyện flagship của đội ngũ DeepSeek.\n\nNó kế thừa mô hình [DeepSeek V3](/deepseek/deepseek-chat-v3) và thể hiện xuất sắc trong nhiều nhiệm vụ."
|
844
850
|
},
|
@@ -848,6 +854,12 @@
|
|
848
854
|
"deepseek/deepseek-r1": {
|
849
855
|
"description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
|
850
856
|
},
|
857
|
+
"deepseek/deepseek-r1-0528": {
|
858
|
+
"description": "DeepSeek-R1 đã cải thiện đáng kể khả năng suy luận của mô hình ngay cả khi có rất ít dữ liệu gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ nhằm nâng cao độ chính xác của câu trả lời cuối."
|
859
|
+
},
|
860
|
+
"deepseek/deepseek-r1-0528:free": {
|
861
|
+
"description": "DeepSeek-R1 đã cải thiện đáng kể khả năng suy luận của mô hình ngay cả khi có rất ít dữ liệu gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ nhằm nâng cao độ chính xác của câu trả lời cuối."
|
862
|
+
},
|
851
863
|
"deepseek/deepseek-r1-distill-llama-70b": {
|
852
864
|
"description": "DeepSeek R1 Distill Llama 70B là mô hình ngôn ngữ lớn dựa trên Llama3.3 70B, mô hình này sử dụng đầu ra tinh chỉnh từ DeepSeek R1 để đạt được hiệu suất cạnh tranh tương đương với các mô hình tiên tiến lớn."
|
853
865
|
},
|
@@ -1262,6 +1274,9 @@
|
|
1262
1274
|
"gpt-4o-mini-realtime-preview": {
|
1263
1275
|
"description": "Phiên bản thời gian thực của GPT-4o-mini, hỗ trợ đầu vào và đầu ra âm thanh và văn bản theo thời gian thực."
|
1264
1276
|
},
|
1277
|
+
"gpt-4o-mini-search-preview": {
|
1278
|
+
"description": "GPT-4o mini phiên bản xem trước tìm kiếm là mô hình được huấn luyện chuyên biệt để hiểu và thực thi các truy vấn tìm kiếm trên web, sử dụng API Chat Completions. Ngoài phí token, truy vấn tìm kiếm trên web còn tính phí theo mỗi lần gọi công cụ."
|
1279
|
+
},
|
1265
1280
|
"gpt-4o-mini-tts": {
|
1266
1281
|
"description": "GPT-4o mini TTS là mô hình chuyển văn bản thành giọng nói dựa trên GPT-4o mini, cung cấp sinh âm thanh cao cấp với chi phí thấp hơn."
|
1267
1282
|
},
|
@@ -1274,6 +1289,9 @@
|
|
1274
1289
|
"gpt-4o-realtime-preview-2024-12-17": {
|
1275
1290
|
"description": "Phiên bản thời gian thực của GPT-4o, hỗ trợ đầu vào và đầu ra âm thanh và văn bản theo thời gian thực."
|
1276
1291
|
},
|
1292
|
+
"gpt-4o-search-preview": {
|
1293
|
+
"description": "GPT-4o phiên bản xem trước tìm kiếm là mô hình được huấn luyện chuyên biệt để hiểu và thực thi các truy vấn tìm kiếm trên web, sử dụng API Chat Completions. Ngoài phí token, truy vấn tìm kiếm trên web còn tính phí theo mỗi lần gọi công cụ."
|
1294
|
+
},
|
1277
1295
|
"grok-2-1212": {
|
1278
1296
|
"description": "Mô hình này đã được cải thiện về độ chính xác, khả năng tuân thủ hướng dẫn và khả năng đa ngôn ngữ."
|
1279
1297
|
},
|
@@ -1307,6 +1325,9 @@
|
|
1307
1325
|
"hunyuan-large-longcontext": {
|
1308
1326
|
"description": "Chuyên xử lý các nhiệm vụ văn bản dài như tóm tắt tài liệu và hỏi đáp tài liệu, đồng thời cũng có khả năng xử lý các nhiệm vụ tạo văn bản chung. Thể hiện xuất sắc trong phân tích và tạo nội dung văn bản dài, có thể đáp ứng hiệu quả các yêu cầu xử lý nội dung dài phức tạp và chi tiết."
|
1309
1327
|
},
|
1328
|
+
"hunyuan-large-vision": {
|
1329
|
+
"description": "Mô hình này phù hợp với các kịch bản hiểu hình ảnh và văn bản, là mô hình ngôn ngữ thị giác lớn dựa trên Hunyuan Large, hỗ trợ đầu vào nhiều hình ảnh với độ phân giải tùy ý cùng văn bản, tạo ra nội dung văn bản, tập trung vào các nhiệm vụ liên quan đến hiểu hình ảnh và văn bản, có sự cải thiện đáng kể về khả năng hiểu đa ngôn ngữ hình ảnh và văn bản."
|
1330
|
+
},
|
1310
1331
|
"hunyuan-lite": {
|
1311
1332
|
"description": "Nâng cấp lên cấu trúc MOE, với cửa sổ ngữ cảnh 256k, dẫn đầu nhiều mô hình mã nguồn mở trong các bộ đánh giá NLP, mã, toán học, ngành nghề, v.v."
|
1312
1333
|
},
|
@@ -1331,18 +1352,15 @@
|
|
1331
1352
|
"hunyuan-t1-20250321": {
|
1332
1353
|
"description": "Xây dựng toàn diện khả năng mô hình cho cả khoa học tự nhiên và khoa học xã hội, khả năng nắm bắt thông tin văn bản dài mạnh mẽ. Hỗ trợ suy luận và giải đáp các vấn đề khoa học như toán học, logic, khoa học và mã với nhiều độ khó khác nhau."
|
1333
1354
|
},
|
1355
|
+
"hunyuan-t1-20250403": {
|
1356
|
+
"description": "Nâng cao khả năng tạo mã cấp dự án; cải thiện chất lượng viết văn bản; nâng cao khả năng hiểu chủ đề văn bản đa vòng, tuân thủ chỉ thị toB và hiểu từ ngữ; tối ưu hóa vấn đề đầu ra hỗn hợp phồn thể và giản thể, cũng như hỗn hợp tiếng Trung và tiếng Anh."
|
1357
|
+
},
|
1334
1358
|
"hunyuan-t1-latest": {
|
1335
1359
|
"description": "Mô hình suy luận Hybrid-Transformer-Mamba quy mô siêu lớn đầu tiên trong ngành, mở rộng khả năng suy luận, tốc độ giải mã cực nhanh, và tiếp tục điều chỉnh theo sở thích của con người."
|
1336
1360
|
},
|
1337
1361
|
"hunyuan-t1-vision": {
|
1338
1362
|
"description": "Mô hình suy nghĩ sâu đa phương thức Hunyuan, hỗ trợ chuỗi suy nghĩ dài nguyên bản đa phương thức, xuất sắc trong các tình huống suy luận hình ảnh đa dạng, cải thiện toàn diện so với mô hình suy nghĩ nhanh trong các bài toán khoa học tự nhiên."
|
1339
1363
|
},
|
1340
|
-
"hunyuan-translation": {
|
1341
|
-
"description": "Hỗ trợ dịch giữa 15 ngôn ngữ bao gồm tiếng Trung, tiếng Anh, tiếng Nhật, tiếng Pháp, tiếng Bồ Đào Nha, tiếng Tây Ban Nha, tiếng Thổ Nhĩ Kỳ, tiếng Nga, tiếng Ả Rập, tiếng Hàn, tiếng Ý, tiếng Đức, tiếng Việt, tiếng Mã Lai và tiếng Indonesia, dựa trên bộ đánh giá dịch tự động hóa COMET, có khả năng dịch giữa các ngôn ngữ phổ biến tốt hơn so với các mô hình cùng quy mô trên thị trường."
|
1342
|
-
},
|
1343
|
-
"hunyuan-translation-lite": {
|
1344
|
-
"description": "Mô hình dịch Hỗn Nguyên hỗ trợ dịch theo kiểu đối thoại ngôn ngữ tự nhiên; hỗ trợ dịch giữa 15 ngôn ngữ bao gồm tiếng Trung, tiếng Anh, tiếng Nhật, tiếng Pháp, tiếng Bồ Đào Nha, tiếng Tây Ban Nha, tiếng Thổ Nhĩ Kỳ, tiếng Nga, tiếng Ả Rập, tiếng Hàn, tiếng Ý, tiếng Đức, tiếng Việt, tiếng Mã Lai và tiếng Indonesia."
|
1345
|
-
},
|
1346
1364
|
"hunyuan-turbo": {
|
1347
1365
|
"description": "Phiên bản xem trước của thế hệ mới mô hình ngôn ngữ lớn Hunyuan, sử dụng cấu trúc mô hình chuyên gia hỗn hợp (MoE) hoàn toàn mới, so với hunyuan-pro, hiệu suất suy diễn nhanh hơn và hiệu quả mạnh mẽ hơn."
|
1348
1366
|
},
|
@@ -1355,8 +1373,11 @@
|
|
1355
1373
|
"hunyuan-turbo-vision": {
|
1356
1374
|
"description": "Mô hình ngôn ngữ hình ảnh thế hệ mới của Hunyuan, sử dụng cấu trúc mô hình chuyên gia hỗn hợp (MoE) hoàn toàn mới, nâng cao toàn diện khả năng nhận diện cơ bản, sáng tạo nội dung, hỏi đáp kiến thức, và phân tích suy luận so với mô hình thế hệ trước."
|
1357
1375
|
},
|
1358
|
-
"hunyuan-turbos-
|
1359
|
-
"description": "
|
1376
|
+
"hunyuan-turbos-20250313": {
|
1377
|
+
"description": "Thống nhất phong cách các bước giải toán, tăng cường hỏi đáp toán học đa vòng. Tối ưu hóa phong cách trả lời trong sáng tác văn bản, loại bỏ cảm giác AI, tăng thêm tính văn chương."
|
1378
|
+
},
|
1379
|
+
"hunyuan-turbos-20250416": {
|
1380
|
+
"description": "Nâng cấp nền tảng tiền huấn luyện, tăng cường khả năng hiểu và tuân thủ chỉ thị của nền tảng; tăng cường năng lực các môn khoa học tự nhiên như toán học, lập trình, logic, khoa học trong giai đoạn căn chỉnh; cải thiện chất lượng sáng tạo văn học, hiểu văn bản, độ chính xác dịch thuật, hỏi đáp kiến thức và các năng lực khoa học xã hội; tăng cường năng lực Agent trong các lĩnh vực, đặc biệt là khả năng hiểu đối thoại đa vòng."
|
1360
1381
|
},
|
1361
1382
|
"hunyuan-turbos-latest": {
|
1362
1383
|
"description": "hunyuan-TurboS là phiên bản mới nhất của mô hình lớn hỗn hợp Hunyuan, có khả năng tư duy mạnh mẽ hơn và trải nghiệm tốt hơn."
|
@@ -1364,8 +1385,8 @@
|
|
1364
1385
|
"hunyuan-turbos-longtext-128k-20250325": {
|
1365
1386
|
"description": "Chuyên xử lý các nhiệm vụ văn bản dài như tóm tắt tài liệu và hỏi đáp tài liệu, đồng thời cũng có khả năng xử lý các nhiệm vụ tạo văn bản chung. Nó thể hiện xuất sắc trong việc phân tích và tạo ra văn bản dài, có khả năng đáp ứng hiệu quả các yêu cầu xử lý nội dung dài phức tạp và chi tiết."
|
1366
1387
|
},
|
1367
|
-
"hunyuan-turbos-
|
1368
|
-
"description": "Mô hình
|
1388
|
+
"hunyuan-turbos-role-plus": {
|
1389
|
+
"description": "Mô hình nhập vai phiên bản mới nhất của Hunyuan, được tinh chỉnh chính thức bởi Hunyuan, dựa trên mô hình Hunyuan kết hợp với bộ dữ liệu kịch bản nhập vai để tăng cường huấn luyện, mang lại hiệu quả cơ bản tốt hơn trong các kịch bản nhập vai."
|
1369
1390
|
},
|
1370
1391
|
"hunyuan-vision": {
|
1371
1392
|
"description": "Mô hình đa phương thức mới nhất của Hunyuan, hỗ trợ đầu vào hình ảnh + văn bản để tạo ra nội dung văn bản."
|
@@ -1886,11 +1907,14 @@
|
|
1886
1907
|
"qvq-72b-preview": {
|
1887
1908
|
"description": "Mô hình QVQ là mô hình nghiên cứu thử nghiệm do đội ngũ Qwen phát triển, tập trung vào việc nâng cao khả năng suy luận hình ảnh, đặc biệt trong lĩnh vực suy luận toán học."
|
1888
1909
|
},
|
1889
|
-
"qvq-max
|
1890
|
-
"description": "Mô hình suy luận thị giác QVQ của Tongyi Qianwen, hỗ trợ đầu vào thị giác và
|
1910
|
+
"qvq-max": {
|
1911
|
+
"description": "Mô hình suy luận thị giác QVQ của Tongyi Qianwen, hỗ trợ đầu vào thị giác và xuất ra chuỗi suy nghĩ, thể hiện năng lực mạnh mẽ trong toán học, lập trình, phân tích thị giác, sáng tạo và các nhiệm vụ chung."
|
1891
1912
|
},
|
1892
|
-
"qwen-coder-plus
|
1893
|
-
"description": "Mô hình mã
|
1913
|
+
"qwen-coder-plus": {
|
1914
|
+
"description": "Mô hình mã hóa Tongyi Qianwen."
|
1915
|
+
},
|
1916
|
+
"qwen-coder-turbo": {
|
1917
|
+
"description": "Mô hình mã hóa Tongyi Qianwen."
|
1894
1918
|
},
|
1895
1919
|
"qwen-coder-turbo-latest": {
|
1896
1920
|
"description": "Mô hình mã Qwen."
|
@@ -1898,41 +1922,44 @@
|
|
1898
1922
|
"qwen-long": {
|
1899
1923
|
"description": "Mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ ngữ cảnh văn bản dài và chức năng đối thoại dựa trên tài liệu dài, nhiều tài liệu."
|
1900
1924
|
},
|
1925
|
+
"qwen-math-plus": {
|
1926
|
+
"description": "Mô hình toán học Tongyi Qianwen được thiết kế chuyên biệt cho việc giải toán."
|
1927
|
+
},
|
1901
1928
|
"qwen-math-plus-latest": {
|
1902
1929
|
"description": "Mô hình toán học Qwen được thiết kế đặc biệt để giải quyết các bài toán toán học."
|
1903
1930
|
},
|
1931
|
+
"qwen-math-turbo": {
|
1932
|
+
"description": "Mô hình toán học Tongyi Qianwen được thiết kế chuyên biệt cho việc giải toán."
|
1933
|
+
},
|
1904
1934
|
"qwen-math-turbo-latest": {
|
1905
1935
|
"description": "Mô hình toán học Qwen được thiết kế đặc biệt để giải quyết các bài toán toán học."
|
1906
1936
|
},
|
1907
1937
|
"qwen-max": {
|
1908
1938
|
"description": "Mô hình ngôn ngữ quy mô lớn Qwen cấp tỷ, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và nhiều ngôn ngữ khác, là mô hình API đằng sau phiên bản sản phẩm Qwen 2.5 hiện tại."
|
1909
1939
|
},
|
1910
|
-
"qwen-
|
1911
|
-
"description": "
|
1912
|
-
},
|
1913
|
-
"qwen-omni-turbo-latest": {
|
1914
|
-
"description": "Mô hình Qwen-Omni hỗ trợ đầu vào từ nhiều loại dữ liệu khác nhau, bao gồm video, âm thanh, hình ảnh, văn bản, và xuất ra âm thanh và văn bản."
|
1940
|
+
"qwen-omni-turbo": {
|
1941
|
+
"description": "Dòng mô hình Qwen-Omni hỗ trợ đầu vào đa dạng các loại dữ liệu đa phương thức, bao gồm video, âm thanh, hình ảnh, văn bản, và xuất ra âm thanh cùng văn bản."
|
1915
1942
|
},
|
1916
1943
|
"qwen-plus": {
|
1917
1944
|
"description": "Mô hình ngôn ngữ quy mô lớn Qwen phiên bản nâng cao, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và nhiều ngôn ngữ khác."
|
1918
1945
|
},
|
1919
|
-
"qwen-plus-latest": {
|
1920
|
-
"description": "Phiên bản nâng cao của mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và nhiều ngôn ngữ khác."
|
1921
|
-
},
|
1922
1946
|
"qwen-turbo": {
|
1923
1947
|
"description": "Mô hình ngôn ngữ quy mô lớn Qwen hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và nhiều ngôn ngữ khác."
|
1924
1948
|
},
|
1925
|
-
"qwen-turbo-latest": {
|
1926
|
-
"description": "Mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và nhiều ngôn ngữ khác."
|
1927
|
-
},
|
1928
1949
|
"qwen-vl-chat-v1": {
|
1929
1950
|
"description": "Mô hình Qwen VL hỗ trợ các phương thức tương tác linh hoạt, bao gồm nhiều hình ảnh, nhiều vòng hỏi đáp, sáng tạo, v.v."
|
1930
1951
|
},
|
1952
|
+
"qwen-vl-max": {
|
1953
|
+
"description": "Mô hình ngôn ngữ thị giác quy mô siêu lớn Tongyi Qianwen. So với phiên bản nâng cao, tiếp tục cải thiện khả năng suy luận thị giác và tuân thủ chỉ thị, cung cấp mức độ nhận thức và cảm nhận thị giác cao hơn."
|
1954
|
+
},
|
1931
1955
|
"qwen-vl-max-latest": {
|
1932
1956
|
"description": "Mô hình ngôn ngữ hình ảnh quy mô siêu lớn của Tongyi Qianwen. So với phiên bản nâng cao, nó lại nâng cao khả năng suy luận hình ảnh và khả năng tuân thủ chỉ dẫn, cung cấp mức độ nhận thức và cảm nhận hình ảnh cao hơn."
|
1933
1957
|
},
|
1934
|
-
"qwen-vl-ocr
|
1935
|
-
"description": "
|
1958
|
+
"qwen-vl-ocr": {
|
1959
|
+
"description": "Tongyi Qianwen OCR là mô hình chuyên biệt cho trích xuất văn bản, tập trung vào khả năng trích xuất chữ viết từ các loại hình ảnh như tài liệu, bảng biểu, đề thi, chữ viết tay. Mô hình có thể nhận diện nhiều ngôn ngữ, hiện hỗ trợ: tiếng Trung, tiếng Anh, tiếng Pháp, tiếng Nhật, tiếng Hàn, tiếng Đức, tiếng Nga, tiếng Ý, tiếng Việt, tiếng Ả Rập."
|
1960
|
+
},
|
1961
|
+
"qwen-vl-plus": {
|
1962
|
+
"description": "Phiên bản nâng cao của mô hình ngôn ngữ thị giác quy mô lớn Tongyi Qianwen. Nâng cao đáng kể khả năng nhận diện chi tiết và nhận dạng văn bản, hỗ trợ hình ảnh có độ phân giải trên một triệu điểm ảnh và tỷ lệ khung hình tùy ý."
|
1936
1963
|
},
|
1937
1964
|
"qwen-vl-plus-latest": {
|
1938
1965
|
"description": "Mô hình ngôn ngữ hình ảnh quy mô lớn phiên bản nâng cao của Tongyi Qianwen. Nâng cao khả năng nhận diện chi tiết và nhận diện văn bản, hỗ trợ độ phân giải trên một triệu pixel và các tỷ lệ chiều dài và chiều rộng tùy ý."
|
@@ -2021,6 +2048,9 @@
|
|
2021
2048
|
"qwen2.5-coder-1.5b-instruct": {
|
2022
2049
|
"description": "Phiên bản mã nguồn mở của mô hình mã Qwen."
|
2023
2050
|
},
|
2051
|
+
"qwen2.5-coder-14b-instruct": {
|
2052
|
+
"description": "Phiên bản mã nguồn mở của mô hình mã hóa Tongyi Qianwen."
|
2053
|
+
},
|
2024
2054
|
"qwen2.5-coder-32b-instruct": {
|
2025
2055
|
"description": "Phiên bản mã nguồn mở của mô hình mã Qwen."
|
2026
2056
|
},
|
@@ -2111,8 +2141,8 @@
|
|
2111
2141
|
"qwq-32b-preview": {
|
2112
2142
|
"description": "Mô hình QwQ là một mô hình nghiên cứu thử nghiệm được phát triển bởi đội ngũ Qwen, tập trung vào việc nâng cao khả năng suy luận của AI."
|
2113
2143
|
},
|
2114
|
-
"qwq-plus
|
2115
|
-
"description": "Mô hình suy
|
2144
|
+
"qwq-plus": {
|
2145
|
+
"description": "Mô hình suy luận QwQ dựa trên mô hình Qwen2.5, đã nâng cao đáng kể khả năng suy luận thông qua học tăng cường. Các chỉ số cốt lõi về toán học, mã hóa (AIME 24/25, LiveCodeBench) và một số chỉ số chung (IFEval, LiveBench, v.v.) đạt mức tương đương phiên bản đầy đủ của DeepSeek-R1."
|
2116
2146
|
},
|
2117
2147
|
"qwq_32b": {
|
2118
2148
|
"description": "Mô hình suy luận có quy mô trung bình trong dòng Qwen. So với các mô hình tinh chỉnh hướng dẫn truyền thống, QwQ có khả năng suy nghĩ và suy luận, có thể nâng cao hiệu suất đáng kể trong các nhiệm vụ hạ nguồn, đặc biệt là trong việc giải quyết các vấn đề khó khăn."
|
@@ -71,6 +71,9 @@
|
|
71
71
|
"mistral": {
|
72
72
|
"description": "Mistral cung cấp các mô hình tiên tiến cho mục đích chung, chuyên nghiệp và nghiên cứu, được ứng dụng rộng rãi trong suy diễn phức tạp, nhiệm vụ đa ngôn ngữ, tạo mã, v.v. Thông qua giao diện gọi chức năng, người dùng có thể tích hợp các chức năng tùy chỉnh để thực hiện các ứng dụng cụ thể."
|
73
73
|
},
|
74
|
+
"modelscope": {
|
75
|
+
"description": "ModelScope là nền tảng mô hình như một dịch vụ do Alibaba Cloud phát triển, cung cấp nhiều mô hình AI và dịch vụ suy luận phong phú."
|
76
|
+
},
|
74
77
|
"moonshot": {
|
75
78
|
"description": "Moonshot là nền tảng mã nguồn mở do Công ty TNHH Công nghệ Mặt Trăng Bắc Kinh phát hành, cung cấp nhiều mô hình xử lý ngôn ngữ tự nhiên, ứng dụng rộng rãi trong nhiều lĩnh vực, bao gồm nhưng không giới hạn ở sáng tác nội dung, nghiên cứu học thuật, gợi ý thông minh, chẩn đoán y tế, v.v., hỗ trợ xử lý văn bản dài và nhiệm vụ tạo phức tạp."
|
76
79
|
},
|
@@ -230,6 +230,9 @@
|
|
230
230
|
"Pro/deepseek-ai/DeepSeek-R1": {
|
231
231
|
"description": "DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。"
|
232
232
|
},
|
233
|
+
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
234
|
+
"description": "DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。"
|
235
|
+
},
|
233
236
|
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
234
237
|
"description": "DeepSeek-R1-Distill-Qwen-1.5B 是基于 Qwen2.5-Math-1.5B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,在多个基准测试中展现出不错的性能。作为一个轻量级模型,在 MATH-500 上达到了 83.9% 的准确率,在 AIME 2024 上达到了 28.9% 的通过率,在 CodeForces 上获得了 954 的评分,显示出超出其参数规模的推理能力。"
|
235
238
|
},
|
@@ -422,8 +425,8 @@
|
|
422
425
|
"THUDM/glm-4-9b-chat": {
|
423
426
|
"description": "GLM-4-9B-Chat 是智谱 AI 推出的 GLM-4 系列预训练模型中的开源版本。该模型在语义、数学、推理、代码和知识等多个方面表现出色。除了支持多轮对话外,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理等高级功能。模型支持 26 种语言,包括中文、英文、日语、韩语和德语等。在多项基准测试中,GLM-4-9B-Chat 展现了优秀的性能,如 AlignBench-v2、MT-Bench、MMLU 和 C-Eval 等。该模型支持最大 128K 的上下文长度,适用于学术研究和商业应用"
|
424
427
|
},
|
425
|
-
"
|
426
|
-
"description": "
|
428
|
+
"Tongyi-Zhiwen/QwenLong-L1-32B": {
|
429
|
+
"description": "QwenLong-L1-32B 是首个使用强化学习训练的长上下文大型推理模型(LRM),专门针对长文本推理任务进行优化。该模型通过渐进式上下文扩展的强化学习框架,实现了从短上下文到长上下文的稳定迁移。在七个长上下文文档问答基准测试中,QwenLong-L1-32B 超越了 OpenAI-o3-mini 和 Qwen3-235B-A22B 等旗舰模型,性能可媲美 Claude-3.7-Sonnet-Thinking。该模型特别擅长数学推理、逻辑推理和多跳推理等复杂任务。"
|
427
430
|
},
|
428
431
|
"Yi-34B-Chat": {
|
429
432
|
"description": "Yi-1.5-34B 在保持原系列模型优秀的通用语言能力的前提下,通过增量训练 5 千亿高质量 token,大幅提高了数学逻辑、代码能力。"
|
@@ -734,6 +737,12 @@
|
|
734
737
|
"deepseek-ai/DeepSeek-R1": {
|
735
738
|
"description": "DeepSeek-R1 系列通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆,超越 OpenAI-o1-mini 水平。"
|
736
739
|
},
|
740
|
+
"deepseek-ai/DeepSeek-R1-0528": {
|
741
|
+
"description": "DeepSeek R1 通过利用增加的计算资源和在后训练过程中引入算法优化机制,显著提高了其推理和推断能力的深度。该模型在各种基准评估中表现出色,包括数学、编程和一般逻辑方面。其整体性能现已接近领先模型,如 O3 和 Gemini 2.5 Pro。"
|
742
|
+
},
|
743
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
|
744
|
+
"description": "DeepSeek-R1-0528-Qwen3-8B 是通过从 DeepSeek-R1-0528 模型蒸馏思维链到 Qwen3 8B Base 获得的模型。该模型在开源模型中达到了最先进(SOTA)的性能,在 AIME 2024 测试中超越了 Qwen3 8B 10%,并达到了 Qwen3-235B-thinking 的性能水平。该模型在数学推理、编程和通用逻辑等多个基准测试中表现出色,其架构与 Qwen3-8B 相同,但共享 DeepSeek-R1-0528 的分词器配置。"
|
745
|
+
},
|
737
746
|
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
|
738
747
|
"description": "DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
|
739
748
|
},
|
@@ -836,9 +845,6 @@
|
|
836
845
|
"deepseek-v3-0324": {
|
837
846
|
"description": "DeepSeek-V3-0324 为671B 参数 MoE 模型,在编程与技术能力、上下文理解与长文本处理等方面优势突出。"
|
838
847
|
},
|
839
|
-
"deepseek/deepseek-chat": {
|
840
|
-
"description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。"
|
841
|
-
},
|
842
848
|
"deepseek/deepseek-chat-v3-0324": {
|
843
849
|
"description": "DeepSeek V3 是一个 685B 参数的专家混合模型,是 DeepSeek 团队旗舰聊天模型系列的最新迭代。\n\n它继承了 [DeepSeek V3](/deepseek/deepseek-chat-v3) 模型,并在各种任务上表现出色。"
|
844
850
|
},
|
@@ -848,6 +854,12 @@
|
|
848
854
|
"deepseek/deepseek-r1": {
|
849
855
|
"description": "DeepSeek R1是DeepSeek团队发布的最新开源模型,具备非常强悍的推理性能,尤其在数学、编程和推理任务上达到了与OpenAI的o1模型相当的水平。"
|
850
856
|
},
|
857
|
+
"deepseek/deepseek-r1-0528": {
|
858
|
+
"description": "DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
|
859
|
+
},
|
860
|
+
"deepseek/deepseek-r1-0528:free": {
|
861
|
+
"description": "DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
|
862
|
+
},
|
851
863
|
"deepseek/deepseek-r1-distill-llama-70b": {
|
852
864
|
"description": "DeepSeek R1 Distill Llama 70B是基于Llama3.3 70B的大型语言模型,该模型利用DeepSeek R1输出的微调,实现了与大型前沿模型相当的竞争性能。"
|
853
865
|
},
|
@@ -1262,6 +1274,9 @@
|
|
1262
1274
|
"gpt-4o-mini-realtime-preview": {
|
1263
1275
|
"description": "GPT-4o-mini 实时版本,支持音频和文本实时输入输出"
|
1264
1276
|
},
|
1277
|
+
"gpt-4o-mini-search-preview": {
|
1278
|
+
"description": "GPT-4o mini 搜索预览版是一个专门训练用于理解和执行网页搜索查询的模型,使用的是 Chat Completions API。除了令牌费用之外,网页搜索查询还会按每次工具调用收取费用。"
|
1279
|
+
},
|
1265
1280
|
"gpt-4o-mini-tts": {
|
1266
1281
|
"description": "GPT-4o mini TTS 是一个基于 GPT-4o mini 构建的文本转语音模型,这是一种快速且强大的语言模型。使用它可以将文本转换为自然听起来的语音文本。最大输入标记数为 2000。"
|
1267
1282
|
},
|
@@ -1274,6 +1289,9 @@
|
|
1274
1289
|
"gpt-4o-realtime-preview-2024-12-17": {
|
1275
1290
|
"description": "GPT-4o 实时版本,支持音频和文本实时输入输出"
|
1276
1291
|
},
|
1292
|
+
"gpt-4o-search-preview": {
|
1293
|
+
"description": "GPT-4o 搜索预览版是一个专门训练用于理解和执行网页搜索查询的模型,使用的是 Chat Completions API。除了令牌费用之外,网页搜索查询还会按每次工具调用收取费用。"
|
1294
|
+
},
|
1277
1295
|
"grok-2-1212": {
|
1278
1296
|
"description": "该模型在准确性、指令遵循和多语言能力方面有所改进。"
|
1279
1297
|
},
|
@@ -1307,6 +1325,9 @@
|
|
1307
1325
|
"hunyuan-large-longcontext": {
|
1308
1326
|
"description": "擅长处理长文任务如文档摘要和文档问答等,同时也具备处理通用文本生成任务的能力。在长文本的分析和生成上表现优异,能有效应对复杂和详尽的长文内容处理需求。"
|
1309
1327
|
},
|
1328
|
+
"hunyuan-large-vision": {
|
1329
|
+
"description": "此模型适用于图文理解场景,是基于混元Large训练的视觉语言大模型,支持任意分辨率多张图片+文本输入,生成文本内容,聚焦图文理解相关任务,在多语言图文理解能力上有显著提升。"
|
1330
|
+
},
|
1310
1331
|
"hunyuan-lite": {
|
1311
1332
|
"description": "升级为 MOE 结构,上下文窗口为 256k ,在 NLP,代码,数学,行业等多项评测集上领先众多开源模型。"
|
1312
1333
|
},
|
@@ -1331,18 +1352,15 @@
|
|
1331
1352
|
"hunyuan-t1-20250321": {
|
1332
1353
|
"description": "全面搭建模型文理科能力,长文本信息捕捉能力强。支持推理解答各种难度的数学/逻辑推理/科学/代码等科学问题。"
|
1333
1354
|
},
|
1355
|
+
"hunyuan-t1-20250403": {
|
1356
|
+
"description": "提升项目级别代码生成能力;提升文本生成写作质量;提升文本理解 topic 的多轮、tob 指令遵循和字词理解能力;优化繁简混杂和中英混杂输出问题。"
|
1357
|
+
},
|
1334
1358
|
"hunyuan-t1-latest": {
|
1335
1359
|
"description": "业内首个超大规模 Hybrid-Transformer-Mamba 推理模型,扩展推理能力,超强解码速度,进一步对齐人类偏好。"
|
1336
1360
|
},
|
1337
1361
|
"hunyuan-t1-vision": {
|
1338
1362
|
"description": "混元多模态理解深度思考模型,支持多模态原生长思维链,擅长处理各种图片推理场景,在理科难题上相比快思考模型全面提升。"
|
1339
1363
|
},
|
1340
|
-
"hunyuan-translation": {
|
1341
|
-
"description": "支持中文和英语、日语、法语、葡萄牙语、西班牙语、土耳其语、俄语、阿拉伯语、韩语、意大利语、德语、越南语、马来语、印尼语15种语言互译,基于多场景翻译评测集自动化评估COMET评分,在十余种常用语种中外互译能力上整体优于市场同规模模型。"
|
1342
|
-
},
|
1343
|
-
"hunyuan-translation-lite": {
|
1344
|
-
"description": "混元翻译模型支持自然语言对话式翻译;支持中文和英语、日语、法语、葡萄牙语、西班牙语、土耳其语、俄语、阿拉伯语、韩语、意大利语、德语、越南语、马来语、印尼语15种语言互译。"
|
1345
|
-
},
|
1346
1364
|
"hunyuan-turbo": {
|
1347
1365
|
"description": "混元全新一代大语言模型的预览版,采用全新的混合专家模型(MoE)结构,相比hunyuan-pro推理效率更快,效果表现更强。"
|
1348
1366
|
},
|
@@ -1355,8 +1373,11 @@
|
|
1355
1373
|
"hunyuan-turbo-vision": {
|
1356
1374
|
"description": "混元新一代视觉语言旗舰大模型,采用全新的混合专家模型(MoE)结构,在图文理解相关的基础识别、内容创作、知识问答、分析推理等能力上相比前一代模型全面提升。"
|
1357
1375
|
},
|
1358
|
-
"hunyuan-turbos-
|
1359
|
-
"description": "
|
1376
|
+
"hunyuan-turbos-20250313": {
|
1377
|
+
"description": "统一数学解题步骤的风格,加强数学多轮问答。文本创作优化回答风格,去除AI味,增加文采。"
|
1378
|
+
},
|
1379
|
+
"hunyuan-turbos-20250416": {
|
1380
|
+
"description": "预训练底座升级,增强底座的指令理解及遵循能力;对齐阶段增强数学、代码、逻辑、科学等理科能力;提升文创写作质量、文本理解、翻译准确率、知识问答等文科能力;增强各领域 Agent 能力,重点加强多轮对话理解能力等。"
|
1360
1381
|
},
|
1361
1382
|
"hunyuan-turbos-latest": {
|
1362
1383
|
"description": "hunyuan-TurboS 混元旗舰大模型最新版本,具备更强的思考能力,更优的体验效果。"
|
@@ -1364,8 +1385,8 @@
|
|
1364
1385
|
"hunyuan-turbos-longtext-128k-20250325": {
|
1365
1386
|
"description": "擅长处理长文任务如文档摘要和文档问答等,同时也具备处理通用文本生成任务的能力。在长文本的分析和生成上表现优异,能有效应对复杂和详尽的长文内容处理需求。"
|
1366
1387
|
},
|
1367
|
-
"hunyuan-turbos-
|
1368
|
-
"description": "
|
1388
|
+
"hunyuan-turbos-role-plus": {
|
1389
|
+
"description": "混元最新版角色扮演模型,混元官方精调训练推出的角色扮演模型,基于混元模型结合角色扮演场景数据集进行增训,在角色扮演场景具有更好的基础效果。"
|
1369
1390
|
},
|
1370
1391
|
"hunyuan-vision": {
|
1371
1392
|
"description": "混元最新多模态模型,支持图片+文本输入生成文本内容。"
|
@@ -1886,10 +1907,13 @@
|
|
1886
1907
|
"qvq-72b-preview": {
|
1887
1908
|
"description": "QVQ-72B-Preview 是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力。"
|
1888
1909
|
},
|
1889
|
-
"qvq-max
|
1910
|
+
"qvq-max": {
|
1890
1911
|
"description": "通义千问QVQ视觉推理模型,支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现了更强的能力。"
|
1891
1912
|
},
|
1892
|
-
"qwen-coder-plus
|
1913
|
+
"qwen-coder-plus": {
|
1914
|
+
"description": "通义千问代码模型。"
|
1915
|
+
},
|
1916
|
+
"qwen-coder-turbo": {
|
1893
1917
|
"description": "通义千问代码模型。"
|
1894
1918
|
},
|
1895
1919
|
"qwen-coder-turbo-latest": {
|
@@ -1898,42 +1922,45 @@
|
|
1898
1922
|
"qwen-long": {
|
1899
1923
|
"description": "通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。"
|
1900
1924
|
},
|
1925
|
+
"qwen-math-plus": {
|
1926
|
+
"description": "通义千问数学模型是专门用于数学解题的语言模型。"
|
1927
|
+
},
|
1901
1928
|
"qwen-math-plus-latest": {
|
1902
1929
|
"description": "通义千问数学模型是专门用于数学解题的语言模型。"
|
1903
1930
|
},
|
1931
|
+
"qwen-math-turbo": {
|
1932
|
+
"description": "通义千问数学模型是专门用于数学解题的语言模型。"
|
1933
|
+
},
|
1904
1934
|
"qwen-math-turbo-latest": {
|
1905
1935
|
"description": "通义千问数学模型是专门用于数学解题的语言模型。"
|
1906
1936
|
},
|
1907
1937
|
"qwen-max": {
|
1908
1938
|
"description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型。"
|
1909
1939
|
},
|
1910
|
-
"qwen-
|
1911
|
-
"description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型。"
|
1912
|
-
},
|
1913
|
-
"qwen-omni-turbo-latest": {
|
1940
|
+
"qwen-omni-turbo": {
|
1914
1941
|
"description": "Qwen-Omni 系列模型支持输入多种模态的数据,包括视频、音频、图片、文本,并输出音频与文本。"
|
1915
1942
|
},
|
1916
1943
|
"qwen-plus": {
|
1917
1944
|
"description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。"
|
1918
1945
|
},
|
1919
|
-
"qwen-plus-latest": {
|
1920
|
-
"description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。"
|
1921
|
-
},
|
1922
1946
|
"qwen-turbo": {
|
1923
1947
|
"description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入。"
|
1924
1948
|
},
|
1925
|
-
"qwen-turbo-latest": {
|
1926
|
-
"description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入。"
|
1927
|
-
},
|
1928
1949
|
"qwen-vl-chat-v1": {
|
1929
1950
|
"description": "通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。"
|
1930
1951
|
},
|
1952
|
+
"qwen-vl-max": {
|
1953
|
+
"description": "通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。"
|
1954
|
+
},
|
1931
1955
|
"qwen-vl-max-latest": {
|
1932
1956
|
"description": "通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。"
|
1933
1957
|
},
|
1934
|
-
"qwen-vl-ocr
|
1958
|
+
"qwen-vl-ocr": {
|
1935
1959
|
"description": "通义千问OCR是文字提取专有模型,专注于文档、表格、试题、手写体文字等类型图像的文字提取能力。它能够识别多种文字,目前支持的语言有:汉语、英语、法语、日语、韩语、德语、俄语、意大利语、越南语、阿拉伯语。"
|
1936
1960
|
},
|
1961
|
+
"qwen-vl-plus": {
|
1962
|
+
"description": "通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。"
|
1963
|
+
},
|
1937
1964
|
"qwen-vl-plus-latest": {
|
1938
1965
|
"description": "通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。"
|
1939
1966
|
},
|
@@ -2021,6 +2048,9 @@
|
|
2021
2048
|
"qwen2.5-coder-1.5b-instruct": {
|
2022
2049
|
"description": "通义千问代码模型开源版。"
|
2023
2050
|
},
|
2051
|
+
"qwen2.5-coder-14b-instruct": {
|
2052
|
+
"description": "通义千问代码模型开源版。"
|
2053
|
+
},
|
2024
2054
|
"qwen2.5-coder-32b-instruct": {
|
2025
2055
|
"description": "通义千问代码模型开源版。"
|
2026
2056
|
},
|
@@ -2111,7 +2141,7 @@
|
|
2111
2141
|
"qwq-32b-preview": {
|
2112
2142
|
"description": "QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。"
|
2113
2143
|
},
|
2114
|
-
"qwq-plus
|
2144
|
+
"qwq-plus": {
|
2115
2145
|
"description": "基于 Qwen2.5 模型训练的 QwQ 推理模型,通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、LiveCodeBench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平。"
|
2116
2146
|
},
|
2117
2147
|
"qwq_32b": {
|
@@ -71,6 +71,9 @@
|
|
71
71
|
"mistral": {
|
72
72
|
"description": "Mistral 提供先进的通用、专业和研究型模型,广泛应用于复杂推理、多语言任务、代码生成等领域,通过功能调用接口,用户可以集成自定义功能,实现特定应用。"
|
73
73
|
},
|
74
|
+
"modelscope": {
|
75
|
+
"description": "ModelScope是阿里云推出的模型即服务平台,提供丰富的AI模型和推理服务。"
|
76
|
+
},
|
74
77
|
"moonshot": {
|
75
78
|
"description": "Moonshot 是由北京月之暗面科技有限公司推出的开源平台,提供多种自然语言处理模型,应用领域广泛,包括但不限于内容创作、学术研究、智能推荐、医疗诊断等,支持长文本处理和复杂生成任务。"
|
76
79
|
},
|