@lobehub/lobehub 2.0.0-next.189 → 2.0.0-next.190

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (39) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/models.json +3 -8
  4. package/locales/ar/providers.json +0 -1
  5. package/locales/bg-BG/models.json +3 -6
  6. package/locales/bg-BG/providers.json +0 -1
  7. package/locales/de-DE/models.json +56 -6
  8. package/locales/de-DE/providers.json +0 -1
  9. package/locales/en-US/models.json +23 -15
  10. package/locales/en-US/providers.json +0 -1
  11. package/locales/es-ES/models.json +46 -7
  12. package/locales/es-ES/providers.json +0 -1
  13. package/locales/fa-IR/models.json +3 -6
  14. package/locales/fa-IR/providers.json +0 -1
  15. package/locales/fr-FR/models.json +45 -6
  16. package/locales/fr-FR/providers.json +0 -1
  17. package/locales/it-IT/models.json +35 -7
  18. package/locales/it-IT/providers.json +0 -1
  19. package/locales/ja-JP/models.json +33 -7
  20. package/locales/ja-JP/providers.json +0 -1
  21. package/locales/ko-KR/models.json +37 -7
  22. package/locales/ko-KR/providers.json +0 -1
  23. package/locales/nl-NL/models.json +3 -1
  24. package/locales/nl-NL/providers.json +0 -1
  25. package/locales/pl-PL/models.json +3 -1
  26. package/locales/pl-PL/providers.json +0 -1
  27. package/locales/pt-BR/models.json +43 -6
  28. package/locales/pt-BR/providers.json +0 -1
  29. package/locales/ru-RU/models.json +3 -6
  30. package/locales/ru-RU/providers.json +0 -1
  31. package/locales/tr-TR/models.json +45 -6
  32. package/locales/tr-TR/providers.json +0 -1
  33. package/locales/vi-VN/models.json +52 -1
  34. package/locales/vi-VN/providers.json +0 -1
  35. package/locales/zh-CN/models.json +3 -7
  36. package/locales/zh-CN/providers.json +0 -1
  37. package/locales/zh-TW/models.json +3 -6
  38. package/locales/zh-TW/providers.json +0 -1
  39. package/package.json +1 -1
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick là một mô hình MoE lớn với kích hoạt chuyên gia hiệu quả, mang lại hiệu suất suy luận mạnh mẽ.",
74
74
  "MiniMax-M1.description": "Mô hình suy luận nội bộ mới với 80K chuỗi suy nghĩ và đầu vào 1M, đạt hiệu suất tương đương các mô hình hàng đầu toàn cầu.",
75
75
  "MiniMax-M2-Stable.description": "Được xây dựng cho lập trình hiệu quả và quy trình tác tử, với khả năng đồng thời cao hơn cho mục đích thương mại.",
76
- "MiniMax-M2.description": "Được xây dựng cho lập trình hiệu quả quy trình tác tử.",
76
+ "MiniMax-M2.1-Lightning.description": "Khả năng lập trình đa ngôn ngữ mạnh mẽ, nâng cấp toàn diện trải nghiệm lập trình. Nhanh hơn, hiệu quả hơn.",
77
+ "MiniMax-M2.1.description": "Khả năng lập trình đa ngôn ngữ mạnh mẽ, nâng cấp toàn diện trải nghiệm lập trình",
78
+ "MiniMax-M2.description": "Được thiết kế đặc biệt cho lập trình hiệu quả và quy trình làm việc của Agent",
77
79
  "MiniMax-Text-01.description": "MiniMax-01 giới thiệu cơ chế chú ý tuyến tính quy mô lớn vượt ra ngoài Transformer cổ điển, với 456B tham số và 45.9B được kích hoạt mỗi lượt. Mô hình đạt hiệu suất hàng đầu và hỗ trợ ngữ cảnh lên đến 4M token (gấp 32 lần GPT-4o, 20 lần Claude-3.5-Sonnet).",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 là mô hình suy luận quy mô lớn với trọng số mở, sử dụng kiến trúc chú ý lai với tổng 456B tham số và khoảng 45.9B được kích hoạt mỗi token. Mô hình hỗ trợ ngữ cảnh 1M gốc và sử dụng Flash Attention để giảm 75% FLOPs khi tạo 100K token so với DeepSeek R1. Với kiến trúc MoE cùng CISPO và huấn luyện RL chú ý lai, mô hình đạt hiệu suất hàng đầu trong suy luận đầu vào dài và các tác vụ kỹ thuật phần mềm thực tế.",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 định nghĩa lại hiệu quả của tác tử. Đây là mô hình MoE nhỏ gọn, nhanh, tiết kiệm chi phí với tổng 230B và 10B tham số hoạt động, được xây dựng cho các tác vụ lập trình và tác tử hàng đầu trong khi vẫn giữ được trí tuệ tổng quát mạnh mẽ. Với chỉ 10B tham số hoạt động, mô hình có thể cạnh tranh với các mô hình lớn hơn nhiều, lý tưởng cho các ứng dụng hiệu suất cao.",
@@ -101,6 +103,7 @@
101
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 là mô hình MoE với 671B tham số, sử dụng MLA và DeepSeekMoE với cân bằng tải không mất mát để suy luận và huấn luyện hiệu quả. Được huấn luyện sơ bộ trên 14.8T token chất lượng cao và tinh chỉnh thêm bằng SFT và RL, nó vượt trội hơn các mô hình mã nguồn mở khác và tiệm cận các mô hình đóng hàng đầu.",
102
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 là phiên bản mới nhất và mạnh nhất của Kimi K2. Đây là mô hình MoE hàng đầu với tổng 1T và 32B tham số đang hoạt động. Các tính năng chính bao gồm trí tuệ lập trình đại lý mạnh hơn với cải tiến đáng kể trên các điểm chuẩn và tác vụ đại lý thực tế, cùng với thẩm mỹ và khả năng sử dụng mã giao diện người dùng được cải thiện.",
103
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo là biến thể Turbo được tối ưu hóa cho tốc độ suy luận và thông lượng trong khi vẫn giữ khả năng suy luận nhiều bước và sử dụng công cụ của K2 Thinking. Đây là mô hình MoE với khoảng 1T tham số, hỗ trợ ngữ cảnh gốc 256K và gọi công cụ quy mô lớn ổn định cho các tình huống sản xuất có yêu cầu nghiêm ngặt về độ trễ và đồng thời.",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7 là mô hình hàng đầu thế hệ mới của Zhipu, với tổng số tham số 355 tỷ và 32 tỷ tham số kích hoạt. Mô hình được nâng cấp toàn diện về đối thoại tổng quát, suy luận và năng lực tác tử. GLM-4.7 tăng cường khả năng Tư duy Đan xen (Interleaved Thinking), đồng thời giới thiệu Tư duy Bảo lưu (Preserved Thinking) và Tư duy theo lượt (Turn-level Thinking).",
104
107
  "QwQ-32B-Preview.description": "Qwen QwQ là một mô hình nghiên cứu thử nghiệm tập trung vào việc cải thiện khả năng suy luận.",
105
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview là một mô hình nghiên cứu từ Qwen tập trung vào suy luận thị giác, nổi bật trong việc hiểu các cảnh phức tạp và giải các bài toán thị giác.",
106
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ là một mô hình nghiên cứu thử nghiệm tập trung vào việc nâng cao khả năng suy luận của AI.",
@@ -247,6 +250,54 @@
247
250
  "anthropic/claude-opus-4.description": "Opus 4 là mô hình hàng đầu của Anthropic được thiết kế cho các tác vụ phức tạp và ứng dụng doanh nghiệp.",
248
251
  "anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 là mô hình suy luận lai mới nhất của Anthropic, được tối ưu hóa cho suy luận phức tạp và mã hóa.",
249
252
  "anthropic/claude-sonnet-4.description": "Claude Sonnet 4 là mô hình suy luận lai của Anthropic với khả năng tư duy và không tư duy kết hợp.",
253
+ "ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B là một mô hình ngôn ngữ lớn dạng thưa với 72 tỷ tham số tổng và 16 tỷ tham số kích hoạt, dựa trên kiến trúc MoE nhóm (MoGE). Nó nhóm các chuyên gia trong quá trình lựa chọn và giới hạn số token để kích hoạt số chuyên gia bằng nhau trong mỗi nhóm, giúp cân bằng tải và nâng cao hiệu quả triển khai trên Ascend.",
254
+ "aya.description": "Aya 23 là mô hình đa ngôn ngữ của Cohere, hỗ trợ 23 ngôn ngữ cho nhiều tình huống sử dụng khác nhau.",
255
+ "aya:35b.description": "Aya 23 là mô hình đa ngôn ngữ của Cohere, hỗ trợ 23 ngôn ngữ cho nhiều tình huống sử dụng khác nhau.",
256
+ "azure-DeepSeek-R1-0528.description": "Triển khai bởi Microsoft; DeepSeek R1 đã được nâng cấp thành DeepSeek-R1-0528. Bản cập nhật tăng cường tính toán và tối ưu hóa thuật toán hậu huấn luyện, cải thiện đáng kể độ sâu suy luận và khả năng suy diễn. Mô hình thể hiện mạnh mẽ trong các bài kiểm tra toán học, lập trình và logic tổng quát, tiệm cận các mô hình hàng đầu như O3 và Gemini 2.5 Pro.",
257
+ "baichuan-m2-32b.description": "Baichuan M2 32B là mô hình MoE từ Baichuan Intelligence với khả năng suy luận mạnh mẽ.",
258
+ "baichuan/baichuan2-13b-chat.description": "Baichuan-13B là mô hình mã nguồn mở với 13 tỷ tham số, có thể sử dụng thương mại từ Baichuan, đạt kết quả hàng đầu trong phân khúc trên các bài kiểm tra tiếng Trung và tiếng Anh uy tín.",
259
+ "baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B là mô hình MoE của Baidu với 300 tỷ tham số tổng và 47 tỷ tham số kích hoạt mỗi token, cân bằng giữa hiệu suất mạnh mẽ và hiệu quả tính toán. Là mô hình cốt lõi của ERNIE 4.5, nó xuất sắc trong hiểu ngôn ngữ, sinh văn bản, suy luận và lập trình. Mô hình sử dụng phương pháp tiền huấn luyện MoE đa phương thức dị thể với huấn luyện kết hợp văn bản-hình ảnh để tăng cường năng lực tổng thể, đặc biệt là khả năng tuân thủ hướng dẫn và kiến thức thế giới.",
260
+ "baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview là mô hình ERNIE đa phương thức thế hệ mới của Baidu, mạnh mẽ trong hiểu đa phương thức, tuân thủ hướng dẫn, sáng tạo, hỏi đáp thực tế và gọi công cụ.",
261
+ "black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro là phiên bản nâng cấp nhanh hơn của FLUX Pro với chất lượng hình ảnh xuất sắc và khả năng tuân thủ prompt tốt.",
262
+ "black-forest-labs/flux-dev.description": "FLUX Dev là phiên bản phát triển của FLUX dành cho mục đích phi thương mại.",
263
+ "black-forest-labs/flux-pro.description": "FLUX Pro là mô hình FLUX chuyên nghiệp cho đầu ra hình ảnh chất lượng cao.",
264
+ "black-forest-labs/flux-schnell.description": "FLUX Schnell là mô hình tạo ảnh nhanh được tối ưu hóa cho tốc độ.",
265
+ "c4ai-aya-expanse-32b.description": "Aya Expanse là mô hình đa ngôn ngữ hiệu suất cao với 32 tỷ tham số, sử dụng tinh chỉnh theo hướng dẫn, phân bổ dữ liệu, huấn luyện theo sở thích và hợp nhất mô hình để cạnh tranh với các mô hình đơn ngữ. Hỗ trợ 23 ngôn ngữ.",
266
+ "c4ai-aya-expanse-8b.description": "Aya Expanse là mô hình đa ngôn ngữ hiệu suất cao với 8 tỷ tham số, sử dụng tinh chỉnh theo hướng dẫn, phân bổ dữ liệu, huấn luyện theo sở thích và hợp nhất mô hình để cạnh tranh với các mô hình đơn ngữ. Hỗ trợ 23 ngôn ngữ.",
267
+ "c4ai-aya-vision-32b.description": "Aya Vision là mô hình đa phương thức tiên tiến với hiệu suất mạnh mẽ trên các bài kiểm tra ngôn ngữ, văn bản và hình ảnh. Hỗ trợ 23 ngôn ngữ. Phiên bản 32B tập trung vào hiệu suất đa ngôn ngữ hàng đầu.",
268
+ "c4ai-aya-vision-8b.description": "Aya Vision là mô hình đa phương thức tiên tiến với hiệu suất mạnh mẽ trên các bài kiểm tra ngôn ngữ, văn bản và hình ảnh. Phiên bản 8B tập trung vào độ trễ thấp và hiệu suất mạnh mẽ.",
269
+ "charglm-3.description": "CharGLM-3 được xây dựng cho nhập vai và đồng hành cảm xúc, hỗ trợ bộ nhớ nhiều lượt siêu dài và đối thoại cá nhân hóa.",
270
+ "charglm-4.description": "CharGLM-4 được xây dựng cho nhập vai và đồng hành cảm xúc, hỗ trợ bộ nhớ nhiều lượt siêu dài và đối thoại cá nhân hóa.",
271
+ "chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực, kết hợp khả năng hiểu và sinh văn bản mạnh mẽ cho các tình huống sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.",
272
+ "claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
273
+ "claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ tiếp theo nhanh nhất của Anthropic. So với Claude 3 Haiku, nó cải thiện toàn diện các kỹ năng và vượt qua mô hình lớn nhất trước đó Claude 3 Opus trên nhiều bài kiểm tra trí tuệ.",
275
+ "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku cung cấp phản hồi nhanh cho các tác vụ nhẹ.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic và là mô hình suy luận lai đầu tiên trên thị trường. Nó có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng mà người dùng có thể quan sát.",
277
+ "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
278
+ "claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
279
+ "claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
280
+ "claude-3-sonnet-20240229.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn và triển khai quy mô lớn đáng tin cậy.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ cực nhanh và khả năng suy luận mở rộng.",
282
+ "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
283
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
285
+ "claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
286
+ "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
288
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
289
+ "codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.",
290
+ "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.",
291
+ "codegemma.description": "CodeGemma là mô hình nhẹ cho các tác vụ lập trình đa dạng, cho phép lặp lại nhanh và tích hợp dễ dàng.",
292
+ "codegemma:2b.description": "CodeGemma là mô hình nhẹ cho các tác vụ lập trình đa dạng, cho phép lặp lại nhanh và tích hợp dễ dàng.",
293
+ "codellama.description": "Code Llama là mô hình ngôn ngữ lớn tập trung vào sinh mã và thảo luận mã, hỗ trợ nhiều ngôn ngữ lập trình cho quy trình làm việc của lập trình viên.",
294
+ "codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama là mô hình ngôn ngữ lớn tập trung vào sinh mã và thảo luận mã, hỗ trợ nhiều ngôn ngữ lập trình cho quy trình làm việc của lập trình viên.",
295
+ "codellama:13b.description": "Code Llama là mô hình ngôn ngữ lớn tập trung vào sinh mã và thảo luận mã, hỗ trợ nhiều ngôn ngữ lập trình cho quy trình làm việc của lập trình viên.",
296
+ "codellama:34b.description": "Code Llama là mô hình ngôn ngữ lớn tập trung vào sinh mã và thảo luận mã, hỗ trợ nhiều ngôn ngữ lập trình cho quy trình làm việc của lập trình viên.",
297
+ "codellama:70b.description": "Code Llama là mô hình ngôn ngữ lớn tập trung vào sinh mã và thảo luận mã, hỗ trợ nhiều ngôn ngữ lập trình cho quy trình làm việc của lập trình viên.",
298
+ "codeqwen.description": "CodeQwen1.5 là mô hình ngôn ngữ lớn được huấn luyện trên dữ liệu mã phong phú, được xây dựng cho các tác vụ lập trình phức tạp.",
299
+ "codestral-latest.description": "Codestral là mô hình lập trình tiên tiến nhất của chúng tôi; phiên bản v2 (tháng 1 năm 2025) nhắm đến các tác vụ tần suất cao, độ trễ thấp như FIM, sửa mã và sinh bài kiểm tra.",
300
+ "codestral.description": "Codestral là mô hình lập trình đầu tiên của Mistral AI, cung cấp hỗ trợ sinh mã mạnh mẽ.",
250
301
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 là một mô hình ngôn ngữ mở dành cho nhà phát triển, nhà nghiên cứu và doanh nghiệp, được thiết kế để hỗ trợ xây dựng, thử nghiệm và mở rộng các ý tưởng AI sinh ngữ một cách có trách nhiệm. Là một phần trong nền tảng đổi mới cộng đồng toàn cầu, mô hình này phù hợp với môi trường có tài nguyên hạn chế, thiết bị biên và yêu cầu thời gian huấn luyện nhanh hơn.",
251
302
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Khả năng suy luận hình ảnh mạnh mẽ trên ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu thị giác.",
252
303
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng tác tử hiểu thị giác.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Tổ chức mã nguồn mở tập trung vào nghiên cứu mô hình lớn và công cụ, cung cấp nền tảng hiệu quả, dễ sử dụng để tiếp cận các mô hình và thuật toán tiên tiến.",
30
30
  "jina.description": "Thành lập năm 2020, Jina AI là công ty hàng đầu về AI tìm kiếm. Bộ công cụ tìm kiếm của họ bao gồm mô hình vector, bộ xếp hạng lại và mô hình ngôn ngữ nhỏ để xây dựng ứng dụng tìm kiếm sinh và đa phương thức chất lượng cao.",
31
31
  "lmstudio.description": "LM Studio là ứng dụng máy tính để phát triển và thử nghiệm LLM ngay trên máy của bạn.",
32
- "lobehub.description": "LobeHub Cloud sử dụng API chính thức để truy cập các mô hình AI và tính mức sử dụng bằng Tín dụng dựa trên số lượng token của mô hình.",
33
32
  "minimax.description": "Thành lập năm 2021, MiniMax xây dựng AI đa năng với các mô hình nền tảng đa phương thức, bao gồm mô hình văn bản MoE hàng nghìn tỷ tham số, mô hình giọng nói và thị giác, cùng các ứng dụng như Hailuo AI.",
34
33
  "mistral.description": "Mistral cung cấp các mô hình tổng quát, chuyên biệt và nghiên cứu tiên tiến cho suy luận phức tạp, tác vụ đa ngôn ngữ và tạo mã, với khả năng gọi hàm cho tích hợp tùy chỉnh.",
35
34
  "modelscope.description": "ModelScope là nền tảng mô hình dưới dạng dịch vụ của Alibaba Cloud, cung cấp nhiều mô hình AI và dịch vụ suy luận.",
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick 是一款大型 MoE 模型,采用高效专家激活机制,具备强大的推理能力。",
74
74
  "MiniMax-M1.description": "一款全新自研推理模型,支持 80K 思维链和 100 万输入,性能媲美全球顶尖模型。",
75
75
  "MiniMax-M2-Stable.description": "专为高效编程与智能体工作流打造,具备更高并发能力,适用于商业场景。",
76
- "MiniMax-M2.description": "专为高效编程与智能体工作流打造。",
76
+ "MiniMax-M2.1-Lightning.description": "强大的多语言编程能力,全面升级编程体验。更快、更高效。",
77
+ "MiniMax-M2.1.description": "强大的多语言编程能力,全面升级编程体验",
78
+ "MiniMax-M2.description": "专为高效编码与智能体工作流打造",
77
79
  "MiniMax-Text-01.description": "MiniMax-01 引入超越传统 Transformer 的大规模线性注意力机制,拥有 4560 亿参数,每次激活 459 亿,支持最长 400 万上下文(为 GPT-4o 的 32 倍,Claude-3.5-Sonnet 的 20 倍),性能顶尖。",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 是一款开源权重的大规模混合注意力推理模型,总参数 4560 亿,每个 token 激活约 459 亿。原生支持 100 万上下文,使用 Flash Attention,在生成 10 万 token 时比 DeepSeek R1 减少 75% FLOPs。采用 MoE 架构,结合 CISPO 和混合注意力 RL 训练,在长输入推理和真实软件工程任务中表现领先。",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 重新定义了智能体效率。这是一款紧凑、快速、性价比高的 MoE 模型,总参数 2300 亿,激活参数仅 100 亿,专为顶级编程与智能体任务设计,同时保留强大的通用智能。仅用 100 亿激活参数即可媲美更大模型,适用于高效应用场景。",
@@ -268,20 +270,15 @@
268
270
  "chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
269
271
  "claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
270
272
  "claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型,在多项技能上实现了提升,并在多个基准测试中超越了上一代旗舰 Claude 3 Opus。",
272
273
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
273
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智能的模型,也是市场上首个混合推理模型,支持近乎即时响应或细致的深度思考,并提供精细化控制。",
274
274
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
275
275
  "claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
276
276
  "claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
277
277
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快且最智能的 Haiku 模型,具备闪电般的速度与深度思考能力。",
279
278
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
280
279
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
281
- "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
282
280
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
283
281
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今为止最智能的模型,支持近乎即时响应或逐步深入思考,并为 API 用户提供精细化控制。",
285
282
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
286
283
  "codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
287
284
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
@@ -373,7 +370,6 @@
373
370
  "microsoft/WizardLM-2-8x22B.description": "WizardLM 2 是微软 AI 推出的语言模型,擅长复杂对话、多语言任务、推理和助手应用。",
374
371
  "microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B 是微软 AI 最先进的 Wizard 模型,具备极具竞争力的性能。",
375
372
  "minicpm-v.description": "MiniCPM-V 是 OpenBMB 的下一代多模态模型,具备出色的 OCR 和多模态理解能力,适用于广泛场景。",
376
- "minimax-m2.description": "MiniMax M2 是一款高效的大语言模型,专为编程和智能体工作流设计。",
377
373
  "minimax/minimax-m2.description": "MiniMax-M2 是一款高性价比模型,擅长编程和智能体任务,适用于多种工程场景。",
378
374
  "minimaxai/minimax-m2.description": "MiniMax-M2 是一款紧凑、快速、成本效益高的 MoE 模型(总参数 230B,激活参数 10B),在保持强大通用智能的同时,专为顶级编程和智能体性能打造。擅长多文件编辑、代码运行修复循环、测试验证和复杂工具链。",
379
375
  "ministral-3b-latest.description": "Ministral 3B 是 Mistral 推出的顶级边缘模型。",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。",
30
30
  "jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
31
31
  "lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
32
- "lobehub.description": "LobeHub Cloud 使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。",
33
32
  "minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI,拥有多模态基础模型,包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
34
33
  "mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。",
35
34
  "modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。",
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick 是一款大型 MoE 模型,具備高效專家啟用機制,展現強大的推理效能。",
74
74
  "MiniMax-M1.description": "一款內部開發的推理模型,具備 80K 思路鏈與 100 萬輸入,效能媲美全球頂尖模型。",
75
75
  "MiniMax-M2-Stable.description": "專為高效編碼與代理流程設計,具備更高併發能力,適用於商業應用。",
76
- "MiniMax-M2.description": "專為高效編碼與代理流程設計。",
76
+ "MiniMax-M2.1-Lightning.description": "強大的多語言編程能力,全面升級編程體驗。更快、更高效。",
77
+ "MiniMax-M2.1.description": "強大的多語言編程能力,全面升級編程體驗",
78
+ "MiniMax-M2.description": "專為高效編碼與智能代理工作流程打造",
77
79
  "MiniMax-Text-01.description": "MiniMax-01 採用超越傳統 Transformer 的大規模線性注意力機制,擁有 4560 億參數,每次啟用 459 億,支援最多 400 萬字元上下文(為 GPT-4o 的 32 倍,Claude-3.5-Sonnet 的 20 倍),效能頂尖。",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 是一款開源權重的大型混合注意力推理模型,總參數 4560 億,每個 token 啟用約 459 億。原生支援 100 萬上下文,使用 Flash Attention 技術,在 10 萬 token 生成任務中比 DeepSeek R1 減少 75% FLOPs。採用 MoE 架構、CISPO 與混合注意力強化學習訓練,在長輸入推理與真實軟體工程任務中表現領先。",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 重新定義代理效率。這是一款緊湊、快速、具成本效益的 MoE 模型,總參數 2300 億,啟用參數僅 100 億,專為頂級編碼與代理任務設計,同時保有強大的通用智能。即使僅啟用 100 億參數,其效能仍可媲美更大型模型,適合高效率應用場景。",
@@ -268,20 +270,15 @@
268
270
  "chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
269
271
  "claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
270
272
  "claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的最快速次世代模型,在多項技能上全面提升,並在多項基準測試中超越前一代旗艦 Claude 3 Opus。",
272
273
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
273
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智慧的模型,也是市場上首款混合推理模型,支援即時回應或延伸思考,並提供細緻控制。",
274
274
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
275
275
  "claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
276
276
  "claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
277
277
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快速且最智慧的 Haiku 模型,具備閃電般的速度與延伸思考能力。",
279
278
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
280
279
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
281
- "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
282
280
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
283
281
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今最智慧的模型,提供即時回應或延伸的逐步思考,並為 API 使用者提供細緻控制。",
285
282
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
286
283
  "codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
287
284
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "一個專注於大型模型研究與工具的開源組織,提供高效、易用的平台,讓尖端模型與演算法更易於取得。",
30
30
  "jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。",
31
31
  "lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。",
32
- "lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型,並以與模型代幣相關的點數(Credits)來計算使用量。",
33
32
  "minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI,擁有多模態基礎模型,包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。",
34
33
  "mistral.description": "Mistral 提供先進的通用、專業與研究模型,支援複雜推理、多語言任務與程式碼生成,並支援函式呼叫以實現自訂整合。",
35
34
  "modelscope.description": "ModelScope 是阿里雲的模型即服務平台,提供多樣化的 AI 模型與推理服務。",
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/lobehub",
3
- "version": "2.0.0-next.189",
3
+ "version": "2.0.0-next.190",
4
4
  "description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",