@lobehub/lobehub 2.0.0-next.82 → 2.0.0-next.84
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/docs/usage/providers/comfyui.mdx +1 -1
- package/docs/usage/providers/comfyui.zh-CN.mdx +1 -1
- package/locales/ar/error.json +2 -2
- package/locales/ar/modelProvider.json +1 -1
- package/locales/ar/models.json +7 -1
- package/locales/bg-BG/error.json +2 -2
- package/locales/bg-BG/modelProvider.json +1 -1
- package/locales/bg-BG/models.json +7 -1
- package/locales/de-DE/error.json +2 -2
- package/locales/de-DE/modelProvider.json +1 -1
- package/locales/de-DE/models.json +7 -1
- package/locales/en-US/error.json +2 -2
- package/locales/en-US/modelProvider.json +1 -1
- package/locales/en-US/models.json +7 -1
- package/locales/es-ES/error.json +2 -2
- package/locales/es-ES/modelProvider.json +1 -1
- package/locales/es-ES/models.json +7 -1
- package/locales/fa-IR/error.json +2 -2
- package/locales/fa-IR/modelProvider.json +1 -1
- package/locales/fa-IR/models.json +7 -1
- package/locales/fr-FR/error.json +2 -2
- package/locales/fr-FR/modelProvider.json +1 -1
- package/locales/fr-FR/models.json +7 -1
- package/locales/it-IT/error.json +2 -2
- package/locales/it-IT/modelProvider.json +1 -1
- package/locales/it-IT/models.json +7 -1
- package/locales/ja-JP/error.json +2 -2
- package/locales/ja-JP/modelProvider.json +1 -1
- package/locales/ja-JP/models.json +7 -1
- package/locales/ko-KR/error.json +2 -2
- package/locales/ko-KR/modelProvider.json +1 -1
- package/locales/ko-KR/models.json +7 -1
- package/locales/nl-NL/error.json +2 -2
- package/locales/nl-NL/modelProvider.json +1 -1
- package/locales/nl-NL/models.json +7 -1
- package/locales/pl-PL/error.json +2 -2
- package/locales/pl-PL/modelProvider.json +1 -1
- package/locales/pl-PL/models.json +7 -1
- package/locales/pt-BR/error.json +2 -2
- package/locales/pt-BR/modelProvider.json +1 -1
- package/locales/pt-BR/models.json +7 -1
- package/locales/ru-RU/error.json +2 -2
- package/locales/ru-RU/modelProvider.json +1 -1
- package/locales/ru-RU/models.json +7 -1
- package/locales/tr-TR/error.json +2 -2
- package/locales/tr-TR/modelProvider.json +1 -1
- package/locales/tr-TR/models.json +7 -1
- package/locales/vi-VN/error.json +2 -2
- package/locales/vi-VN/modelProvider.json +1 -1
- package/locales/vi-VN/models.json +7 -1
- package/locales/zh-CN/error.json +2 -2
- package/locales/zh-CN/modelProvider.json +1 -1
- package/locales/zh-CN/models.json +7 -1
- package/locales/zh-TW/error.json +2 -2
- package/locales/zh-TW/modelProvider.json +1 -1
- package/locales/zh-TW/models.json +7 -1
- package/package.json +1 -1
- package/packages/model-bank/src/aiModels/google.ts +54 -0
- package/packages/model-bank/src/aiModels/novita.ts +3 -2
- package/packages/model-bank/src/aiModels/nvidia.ts +14 -0
- package/packages/model-bank/src/aiModels/ollamacloud.ts +23 -2
- package/packages/model-bank/src/aiModels/qwen.ts +88 -0
- package/packages/model-bank/src/aiModels/siliconcloud.ts +20 -0
- package/packages/model-bank/src/aiModels/vercelaigateway.ts +0 -17
- package/packages/model-bank/src/aiModels/volcengine.ts +1 -1
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.test.ts +108 -64
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +150 -125
- package/packages/model-runtime/src/providers/newapi/index.test.ts +3 -75
- package/packages/model-runtime/src/providers/newapi/index.ts +1 -14
- package/packages/model-runtime/src/providers/openrouter/index.test.ts +3 -2
- package/packages/model-runtime/src/providers/openrouter/index.ts +1 -1
- package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +19 -6
- package/src/app/[variants]/(main)/settings/provider/features/customProviderSdkOptions.ts +1 -0
- package/src/config/modelProviders/aihubmix.ts +1 -0
- package/src/config/modelProviders/newapi.ts +1 -0
- package/src/locales/default/modelProvider.ts +1 -1
|
@@ -236,6 +236,9 @@
|
|
|
236
236
|
"MiniMaxAI/MiniMax-M1-80k": {
|
|
237
237
|
"description": "MiniMax-M1 là mô hình suy luận chú ý hỗn hợp quy mô lớn với trọng số mã nguồn mở, sở hữu 456 tỷ 600 triệu tham số, mỗi Token có thể kích hoạt khoảng 45,9 tỷ tham số. Mô hình hỗ trợ ngữ cảnh siêu dài lên đến 1 triệu Token một cách nguyên bản, và thông qua cơ chế chú ý chớp nhoáng, trong các tác vụ sinh 100.000 Token tiết kiệm 75% lượng phép tính dấu chấm động so với DeepSeek R1. Đồng thời, MiniMax-M1 áp dụng kiến trúc MoE (chuyên gia hỗn hợp), kết hợp thuật toán CISPO và thiết kế chú ý hỗn hợp trong huấn luyện tăng cường hiệu quả, đạt hiệu suất hàng đầu trong ngành khi suy luận đầu vào dài và các kịch bản kỹ thuật phần mềm thực tế."
|
|
238
238
|
},
|
|
239
|
+
"MiniMaxAI/MiniMax-M2": {
|
|
240
|
+
"description": "MiniMax-M2 tái định nghĩa hiệu suất cho các tác nhân AI. Đây là một mô hình MoE nhỏ gọn, nhanh chóng và tiết kiệm chi phí, với tổng số 230 tỷ tham số và 10 tỷ tham số kích hoạt, được thiết kế để đạt hiệu năng hàng đầu trong các tác vụ mã hóa và tác nhân, đồng thời duy trì trí tuệ nhân tạo tổng quát mạnh mẽ. Chỉ với 10 tỷ tham số kích hoạt, MiniMax-M2 có thể mang lại hiệu suất tương đương với các mô hình quy mô lớn, khiến nó trở thành lựa chọn lý tưởng cho các ứng dụng hiệu suất cao."
|
|
241
|
+
},
|
|
239
242
|
"Moonshot-Kimi-K2-Instruct": {
|
|
240
243
|
"description": "Tổng tham số 1T, tham số kích hoạt 32B. Trong các mô hình không suy nghĩ, đạt trình độ hàng đầu về kiến thức tiên tiến, toán học và lập trình, đặc biệt phù hợp với các tác vụ đại lý chung. Được tối ưu kỹ lưỡng cho tác vụ đại lý, không chỉ trả lời câu hỏi mà còn có thể thực hiện hành động. Phù hợp nhất cho trò chuyện ứng biến, trải nghiệm đại lý chung, là mô hình phản xạ không cần suy nghĩ lâu."
|
|
241
244
|
},
|
|
@@ -1155,7 +1158,7 @@
|
|
|
1155
1158
|
"description": "DeepSeek-R1 đã cải thiện đáng kể khả năng suy luận của mô hình ngay cả khi có rất ít dữ liệu gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ nhằm nâng cao độ chính xác của câu trả lời cuối."
|
|
1156
1159
|
},
|
|
1157
1160
|
"deepseek/deepseek-r1-distill-llama-70b": {
|
|
1158
|
-
"description": "DeepSeek
|
|
1161
|
+
"description": "DeepSeek R1 Distill Llama 70B là một mô hình ngôn ngữ lớn dựa trên Llama3.3 70B, được tinh chỉnh bằng đầu ra từ DeepSeek R1, mang lại hiệu suất cạnh tranh tương đương với các mô hình tiên tiến quy mô lớn."
|
|
1159
1162
|
},
|
|
1160
1163
|
"deepseek/deepseek-r1-distill-llama-8b": {
|
|
1161
1164
|
"description": "DeepSeek R1 Distill Llama 8B là một mô hình ngôn ngữ lớn đã được tinh chế dựa trên Llama-3.1-8B-Instruct, được đào tạo bằng cách sử dụng đầu ra từ DeepSeek R1."
|
|
@@ -2462,6 +2465,9 @@
|
|
|
2462
2465
|
"minimax/minimax-m2": {
|
|
2463
2466
|
"description": "Được sinh ra để phục vụ mã hóa hiệu quả và quy trình làm việc của Agent."
|
|
2464
2467
|
},
|
|
2468
|
+
"minimaxai/minimax-m2": {
|
|
2469
|
+
"description": "MiniMax-M2 là một mô hình chuyên gia hỗn hợp (MoE) nhỏ gọn, nhanh chóng và tiết kiệm chi phí, với tổng số 230 tỷ tham số và 10 tỷ tham số kích hoạt, được thiết kế để đạt hiệu suất hàng đầu trong các tác vụ mã hóa và tác nhân, đồng thời duy trì trí tuệ nhân tạo tổng quát mạnh mẽ. Mô hình này thể hiện xuất sắc trong chỉnh sửa nhiều tệp, vòng lặp mã hóa-chạy-sửa lỗi, kiểm thử và sửa lỗi, cũng như các chuỗi công cụ liên kết dài phức tạp, là lựa chọn lý tưởng cho quy trình làm việc của nhà phát triển."
|
|
2470
|
+
},
|
|
2465
2471
|
"ministral-3b-latest": {
|
|
2466
2472
|
"description": "Ministral 3B là mô hình hàng đầu thế giới của Mistral về hiệu suất cạnh biên."
|
|
2467
2473
|
},
|
package/locales/zh-CN/error.json
CHANGED
|
@@ -99,10 +99,10 @@
|
|
|
99
99
|
"SubscriptionKeyMismatch": "很抱歉,由于系统偶发故障,当前订阅用量暂时失效,请点击下方按钮恢复订阅,或邮件联系我们获取支持",
|
|
100
100
|
"CreateMessageError": "很抱歉,消息未能正常发送,请复制内容后重新发送,刷新页面后此消息将不会保留",
|
|
101
101
|
"LocationNotSupportError": "很抱歉,你的所在地区不支持此模型服务,可能是由于区域限制或服务未开通。请确认当前地区是否支持使用此服务,或尝试使用切换到其他地区后重试。",
|
|
102
|
-
"InsufficientQuota": "很抱歉,该密钥的配额(quota)已达上限,请检查账户余额是否充足,或增大密钥配额后再试",
|
|
102
|
+
"InsufficientQuota": "很抱歉,该密钥的配额 (quota) 已达上限,请检查账户余额是否充足,或增大密钥配额后再试",
|
|
103
103
|
"ModelNotFound": "很抱歉,无法请求到相应的模型,可能是模型不存在或者没有访问权限导致,请更换 API Key 或调整访问权限后重试",
|
|
104
104
|
"ExceededContextWindow": "当前请求内容超出模型可处理的长度,请减少内容量后重试",
|
|
105
|
-
"QuotaLimitReached": "很抱歉,当前 Token 用量或请求次数已达该密钥的配额(quota)上限,请增加该密钥的配额或稍后再试",
|
|
105
|
+
"QuotaLimitReached": "很抱歉,当前 Token 用量或请求次数已达该密钥的配额 (quota) 上限,请增加该密钥的配额或稍后再试",
|
|
106
106
|
"PermissionDenied": "很抱歉,你没有权限访问该服务,请检查你的密钥是否有访问权限",
|
|
107
107
|
"InvalidProviderAPIKey": "{{provider}} API Key 不正确或为空,请检查 {{provider}} API Key 后重试",
|
|
108
108
|
"ProviderBizError": "请求 {{provider}} 服务出错,请根据以下信息排查或重试",
|
|
@@ -236,6 +236,9 @@
|
|
|
236
236
|
"MiniMaxAI/MiniMax-M1-80k": {
|
|
237
237
|
"description": "MiniMax-M1 是开源权重的大规模混合注意力推理模型,拥有 4560 亿参数,每个 Token 可激活约 459 亿参数。模型原生支持 100 万 Token 的超长上下文,并通过闪电注意力机制,在 10 万 Token 的生成任务中相比 DeepSeek R1 节省 75% 的浮点运算量。同时,MiniMax-M1 采用 MoE(混合专家)架构,结合 CISPO 算法与混合注意力设计的高效强化学习训练,在长输入推理与真实软件工程场景中实现了业界领先的性能。"
|
|
238
238
|
},
|
|
239
|
+
"MiniMaxAI/MiniMax-M2": {
|
|
240
|
+
"description": "MiniMax-M2 为智能体重新定义了效率。它是一款紧凑、快速且经济高效的 MoE 模型,拥有 2300 亿总参数和 100 亿激活参数,专为编码和智能体任务的顶级性能而打造,同时保持强大的通用智能。仅需 100 亿激活参数,MiniMax-M2 就能提供与大规模模型相媲美的性能,使其成为高效率应用的理想选择。"
|
|
241
|
+
},
|
|
239
242
|
"Moonshot-Kimi-K2-Instruct": {
|
|
240
243
|
"description": "总参数 1T,激活参数 32B。 非思维模型中,在前沿知识、数学和编码方面达到了顶尖水平,更擅长通用 Agent 任务。 针对代理任务进行了精心优化,不仅能回答问题,还能采取行动。 最适用于即兴、通用聊天和代理体验,是一款无需长时间思考的反射级模型。"
|
|
241
244
|
},
|
|
@@ -1155,7 +1158,7 @@
|
|
|
1155
1158
|
"description": "DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
|
|
1156
1159
|
},
|
|
1157
1160
|
"deepseek/deepseek-r1-distill-llama-70b": {
|
|
1158
|
-
"description": "DeepSeek
|
|
1161
|
+
"description": "DeepSeek R1 Distill Llama 70B是基于Llama3.3 70B的大型语言模型,该模型利用DeepSeek R1输出的微调,实现了与大型前沿模型相当的竞争性能。"
|
|
1159
1162
|
},
|
|
1160
1163
|
"deepseek/deepseek-r1-distill-llama-8b": {
|
|
1161
1164
|
"description": "DeepSeek R1 Distill Llama 8B 是一种基于 Llama-3.1-8B-Instruct 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。"
|
|
@@ -2462,6 +2465,9 @@
|
|
|
2462
2465
|
"minimax/minimax-m2": {
|
|
2463
2466
|
"description": "专为高效编码与 Agent 工作流而生"
|
|
2464
2467
|
},
|
|
2468
|
+
"minimaxai/minimax-m2": {
|
|
2469
|
+
"description": "MiniMax-M2 是一款紧凑、快速且经济高效的混合专家(MoE)模型,拥有 2300 亿总参数和 100 亿激活参数,专为编码和智能体任务的顶级性能而打造,同时保持强大的通用智能。该模型在多文件编辑、编码-运行-修复闭环、测试校验修复以及复杂的长链接工具链方面表现优异,是开发者工作流的理想选择。"
|
|
2470
|
+
},
|
|
2465
2471
|
"ministral-3b-latest": {
|
|
2466
2472
|
"description": "Ministral 3B 是Mistral的世界顶级边缘模型。"
|
|
2467
2473
|
},
|
package/locales/zh-TW/error.json
CHANGED
|
@@ -102,7 +102,7 @@
|
|
|
102
102
|
"SPII": "您的內容可能包含敏感個人身分資訊。為保護隱私,請移除相關敏感資訊後再試。",
|
|
103
103
|
"default": "內容被阻擋:{{blockReason}}。請調整您的請求內容後再試。"
|
|
104
104
|
},
|
|
105
|
-
"InsufficientQuota": "
|
|
105
|
+
"InsufficientQuota": "很抱歉,該金鑰的配額已達上限,請檢查帳戶餘額是否充足,或提升金鑰配額後再試",
|
|
106
106
|
"InvalidAccessCode": "密碼不正確或為空,請輸入正確的訪問密碼,或添加自定義 API 金鑰",
|
|
107
107
|
"InvalidBedrockCredentials": "Bedrock 驗證未通過,請檢查 AccessKeyId/SecretAccessKey 後重試",
|
|
108
108
|
"InvalidClerkUser": "很抱歉,你當前尚未登錄,請先登錄或註冊帳號後繼續操作",
|
|
@@ -131,7 +131,7 @@
|
|
|
131
131
|
"PluginServerError": "外掛伺服器請求回傳錯誤。請根據下面的錯誤資訊檢查您的外掛描述檔案、外掛設定或伺服器實作",
|
|
132
132
|
"PluginSettingsInvalid": "該外掛需要正確設定後才可以使用。請檢查您的設定是否正確",
|
|
133
133
|
"ProviderBizError": "請求 {{provider}} 服務出錯,請根據以下資訊排查或重試",
|
|
134
|
-
"QuotaLimitReached": "
|
|
134
|
+
"QuotaLimitReached": "很抱歉,目前的 Token 使用量或請求次數已達該金鑰的配額上限,請提升該金鑰的配額或稍後再試",
|
|
135
135
|
"StreamChunkError": "流式請求的消息塊解析錯誤,請檢查當前 API 介面是否符合標準規範,或聯繫你的 API 供應商諮詢",
|
|
136
136
|
"SubscriptionKeyMismatch": "很抱歉,由於系統偶發故障,當前訂閱用量暫時失效,請點擊下方按鈕恢復訂閱,或郵件聯繫我們獲取支持",
|
|
137
137
|
"SubscriptionPlanLimit": "您的訂閱積分已用盡,無法使用該功能,請升級到更高計劃,或配置自訂模型 API 後繼續使用",
|
|
@@ -236,6 +236,9 @@
|
|
|
236
236
|
"MiniMaxAI/MiniMax-M1-80k": {
|
|
237
237
|
"description": "MiniMax-M1 是開源權重的大規模混合注意力推理模型,擁有 4560 億參數,每個 Token 可激活約 459 億參數。模型原生支援 100 萬 Token 的超長上下文,並透過閃電注意力機制,在 10 萬 Token 的生成任務中相比 DeepSeek R1 節省 75% 的浮點運算量。同時,MiniMax-M1 採用 MoE(混合專家)架構,結合 CISPO 演算法與混合注意力設計的高效強化學習訓練,在長輸入推理與真實軟體工程場景中實現了業界領先的性能。"
|
|
238
238
|
},
|
|
239
|
+
"MiniMaxAI/MiniMax-M2": {
|
|
240
|
+
"description": "MiniMax-M2 為智慧體重新定義了效率。它是一款緊湊、快速且具高性價比的 MoE 模型,擁有 2300 億總參數與 100 億啟用參數,專為編碼與智慧體任務的頂級效能而打造,同時保有強大的通用智慧。僅需 100 億啟用參數,MiniMax-M2 即可提供媲美大型模型的效能,是高效率應用的理想選擇。"
|
|
241
|
+
},
|
|
239
242
|
"Moonshot-Kimi-K2-Instruct": {
|
|
240
243
|
"description": "總參數 1T,激活參數 32B。非思維模型中,在前沿知識、數學和編碼方面達到頂尖水平,更擅長通用 Agent 任務。針對代理任務進行了精心優化,不僅能回答問題,還能採取行動。最適用於即興、通用聊天和代理體驗,是一款無需長時間思考的反射級模型。"
|
|
241
244
|
},
|
|
@@ -1155,7 +1158,7 @@
|
|
|
1155
1158
|
"description": "DeepSeek-R1 在僅有極少標註資料的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
|
|
1156
1159
|
},
|
|
1157
1160
|
"deepseek/deepseek-r1-distill-llama-70b": {
|
|
1158
|
-
"description": "DeepSeek
|
|
1161
|
+
"description": "DeepSeek R1 Distill Llama 70B 是一款基於 Llama3.3 70B 的大型語言模型,透過 DeepSeek R1 的微調輸出,實現了與最先進大型模型相當的競爭效能。"
|
|
1159
1162
|
},
|
|
1160
1163
|
"deepseek/deepseek-r1-distill-llama-8b": {
|
|
1161
1164
|
"description": "DeepSeek R1 Distill Llama 8B是一種基於Llama-3.1-8B-Instruct的蒸餾大語言模型,通過使用DeepSeek R1的輸出進行訓練而得。"
|
|
@@ -2462,6 +2465,9 @@
|
|
|
2462
2465
|
"minimax/minimax-m2": {
|
|
2463
2466
|
"description": "專為高效編碼與 Agent 工作流程而設計"
|
|
2464
2467
|
},
|
|
2468
|
+
"minimaxai/minimax-m2": {
|
|
2469
|
+
"description": "MiniMax-M2 是一款緊湊、快速且具高性價比的混合專家(MoE)模型,擁有 2300 億總參數與 100 億啟用參數,專為編碼與智慧體任務的頂級效能而打造,同時保有強大的通用智慧。此模型在多檔案編輯、編碼-執行-修復閉環、測試驗證修復以及複雜的長鏈工具鏈方面表現優異,是開發者工作流程的理想選擇。"
|
|
2470
|
+
},
|
|
2465
2471
|
"ministral-3b-latest": {
|
|
2466
2472
|
"description": "Ministral 3B 是 Mistral 的全球頂尖邊緣模型。"
|
|
2467
2473
|
},
|
package/package.json
CHANGED
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
{
|
|
2
2
|
"name": "@lobehub/lobehub",
|
|
3
|
-
"version": "2.0.0-next.
|
|
3
|
+
"version": "2.0.0-next.84",
|
|
4
4
|
"description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
|
5
5
|
"keywords": [
|
|
6
6
|
"framework",
|
|
@@ -113,6 +113,60 @@ const googleChatModels: AIChatModelCard[] = [
|
|
|
113
113
|
},
|
|
114
114
|
type: 'chat',
|
|
115
115
|
},
|
|
116
|
+
{
|
|
117
|
+
abilities: {
|
|
118
|
+
functionCall: true,
|
|
119
|
+
reasoning: true,
|
|
120
|
+
search: true,
|
|
121
|
+
video: true,
|
|
122
|
+
vision: true,
|
|
123
|
+
},
|
|
124
|
+
contextWindowTokens: 1_048_576 + 65_536,
|
|
125
|
+
description:
|
|
126
|
+
'Gemini 3.0 Pro Preview 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,以及使用长上下文分析大型数据集、代码库和文档。',
|
|
127
|
+
displayName: 'Gemini 3.0 Pro Preview',
|
|
128
|
+
enabled: true,
|
|
129
|
+
id: 'gemini-3-pro-preview',
|
|
130
|
+
maxOutput: 65_536,
|
|
131
|
+
pricing: {
|
|
132
|
+
units: [
|
|
133
|
+
{
|
|
134
|
+
name: 'textInput_cacheRead',
|
|
135
|
+
strategy: 'tiered',
|
|
136
|
+
tiers: [
|
|
137
|
+
{ rate: 0.20, upTo: 200_000 },
|
|
138
|
+
{ rate: 0.40, upTo: 'infinity' },
|
|
139
|
+
],
|
|
140
|
+
unit: 'millionTokens',
|
|
141
|
+
},
|
|
142
|
+
{
|
|
143
|
+
name: 'textInput',
|
|
144
|
+
strategy: 'tiered',
|
|
145
|
+
tiers: [
|
|
146
|
+
{ rate: 2.0, upTo: 200_000 },
|
|
147
|
+
{ rate: 4.0, upTo: 'infinity' },
|
|
148
|
+
],
|
|
149
|
+
unit: 'millionTokens',
|
|
150
|
+
},
|
|
151
|
+
{
|
|
152
|
+
name: 'textOutput',
|
|
153
|
+
strategy: 'tiered',
|
|
154
|
+
tiers: [
|
|
155
|
+
{ rate: 12.0, upTo: 200_000 },
|
|
156
|
+
{ rate: 18.0, upTo: 'infinity' },
|
|
157
|
+
],
|
|
158
|
+
unit: 'millionTokens',
|
|
159
|
+
},
|
|
160
|
+
],
|
|
161
|
+
},
|
|
162
|
+
releasedAt: '2025-11-18',
|
|
163
|
+
settings: {
|
|
164
|
+
extendParams: ['thinkingBudget', 'urlContext'],
|
|
165
|
+
searchImpl: 'params',
|
|
166
|
+
searchProvider: 'google',
|
|
167
|
+
},
|
|
168
|
+
type: 'chat',
|
|
169
|
+
},
|
|
116
170
|
{
|
|
117
171
|
abilities: {
|
|
118
172
|
functionCall: true,
|
|
@@ -174,10 +174,11 @@ const novitaChatModels: AIChatModelCard[] = [
|
|
|
174
174
|
contextWindowTokens: 131_072,
|
|
175
175
|
displayName: 'OpenAI GPT OSS 120B',
|
|
176
176
|
id: 'openai/gpt-oss-120b',
|
|
177
|
+
maxOutput: 32_768,
|
|
177
178
|
pricing: {
|
|
178
179
|
units: [
|
|
179
|
-
{ name: 'textInput', rate: 0.
|
|
180
|
-
{ name: 'textOutput', rate: 0.
|
|
180
|
+
{ name: 'textInput', rate: 0.05, strategy: 'fixed', unit: 'millionTokens' },
|
|
181
|
+
{ name: 'textOutput', rate: 0.25, strategy: 'fixed', unit: 'millionTokens' },
|
|
181
182
|
],
|
|
182
183
|
},
|
|
183
184
|
type: 'chat',
|
|
@@ -1,6 +1,20 @@
|
|
|
1
1
|
import { AIChatModelCard } from '../types/aiModel';
|
|
2
2
|
|
|
3
3
|
const nvidiaChatModels: AIChatModelCard[] = [
|
|
4
|
+
{
|
|
5
|
+
abilities: {
|
|
6
|
+
functionCall: true,
|
|
7
|
+
reasoning: true,
|
|
8
|
+
},
|
|
9
|
+
contextWindowTokens: 128_000,
|
|
10
|
+
description:
|
|
11
|
+
'MiniMax-M2 是一款紧凑、快速且经济高效的混合专家(MoE)模型,拥有 2300 亿总参数和 100 亿激活参数,专为编码和智能体任务的顶级性能而打造,同时保持强大的通用智能。该模型在多文件编辑、编码-运行-修复闭环、测试校验修复以及复杂的长链接工具链方面表现优异,是开发者工作流的理想选择。',
|
|
12
|
+
displayName: 'MiniMax-M2',
|
|
13
|
+
enabled: true,
|
|
14
|
+
id: 'minimaxai/minimax-m2',
|
|
15
|
+
maxOutput: 16_384,
|
|
16
|
+
type: 'chat',
|
|
17
|
+
},
|
|
4
18
|
{
|
|
5
19
|
abilities: {
|
|
6
20
|
functionCall: true,
|
|
@@ -1,6 +1,18 @@
|
|
|
1
1
|
import { AIChatModelCard } from '../types/aiModel';
|
|
2
2
|
|
|
3
3
|
const ollamaCloudModels: AIChatModelCard[] = [
|
|
4
|
+
{
|
|
5
|
+
abilities: {
|
|
6
|
+
functionCall: true,
|
|
7
|
+
reasoning: true,
|
|
8
|
+
},
|
|
9
|
+
contextWindowTokens: 200_000,
|
|
10
|
+
description: 'MiniMax M2 是专为编码和代理工作流程构建的高效大型语言模型。',
|
|
11
|
+
displayName: 'MiniMax M2',
|
|
12
|
+
enabled: true,
|
|
13
|
+
id: 'minimax-m2',
|
|
14
|
+
type: 'chat',
|
|
15
|
+
},
|
|
4
16
|
{
|
|
5
17
|
abilities: {
|
|
6
18
|
functionCall: true,
|
|
@@ -36,7 +48,6 @@ const ollamaCloudModels: AIChatModelCard[] = [
|
|
|
36
48
|
description:
|
|
37
49
|
'DeepSeek V3.1:下一代推理模型,提升了复杂推理与链路思考能力,适合需要深入分析的任务。',
|
|
38
50
|
displayName: 'DeepSeek V3.1',
|
|
39
|
-
enabled: true,
|
|
40
51
|
id: 'deepseek-v3.1:671b',
|
|
41
52
|
type: 'chat',
|
|
42
53
|
},
|
|
@@ -88,13 +99,23 @@ const ollamaCloudModels: AIChatModelCard[] = [
|
|
|
88
99
|
id: 'qwen3-coder:480b',
|
|
89
100
|
type: 'chat',
|
|
90
101
|
},
|
|
102
|
+
{
|
|
103
|
+
abilities: {
|
|
104
|
+
functionCall: true,
|
|
105
|
+
vision: true,
|
|
106
|
+
},
|
|
107
|
+
contextWindowTokens: 262_144,
|
|
108
|
+
displayName: 'Qwen3 VL 235B Instruct',
|
|
109
|
+
id: 'qwen3-vl:235b-instruct',
|
|
110
|
+
type: 'chat',
|
|
111
|
+
},
|
|
91
112
|
{
|
|
92
113
|
abilities: {
|
|
93
114
|
functionCall: true,
|
|
94
115
|
reasoning: true,
|
|
95
116
|
vision: true,
|
|
96
117
|
},
|
|
97
|
-
contextWindowTokens:
|
|
118
|
+
contextWindowTokens: 262_144,
|
|
98
119
|
displayName: 'Qwen3 VL 235B',
|
|
99
120
|
id: 'qwen3-vl:235b',
|
|
100
121
|
type: 'chat',
|
|
@@ -175,6 +175,51 @@ const qwenChatModels: AIChatModelCard[] = [
|
|
|
175
175
|
},
|
|
176
176
|
{
|
|
177
177
|
abilities: {
|
|
178
|
+
functionCall: true,
|
|
179
|
+
reasoning: true,
|
|
180
|
+
},
|
|
181
|
+
contextWindowTokens: 202_752,
|
|
182
|
+
description: 'GLM系列模型是智谱AI专为智能体设计的混合推理模型,提供思考与非思考两种模式。',
|
|
183
|
+
displayName: 'GLM-4.6',
|
|
184
|
+
id: 'glm-4.6',
|
|
185
|
+
maxOutput: 16_384,
|
|
186
|
+
pricing: {
|
|
187
|
+
currency: 'CNY',
|
|
188
|
+
units: [
|
|
189
|
+
{
|
|
190
|
+
lookup: {
|
|
191
|
+
prices: {
|
|
192
|
+
'[0, 0.032]': 3,
|
|
193
|
+
'[0.032, infinity]': 4,
|
|
194
|
+
},
|
|
195
|
+
pricingParams: ['textInputRange'],
|
|
196
|
+
},
|
|
197
|
+
name: 'textInput',
|
|
198
|
+
strategy: 'lookup',
|
|
199
|
+
unit: 'millionTokens',
|
|
200
|
+
},
|
|
201
|
+
{
|
|
202
|
+
lookup: {
|
|
203
|
+
prices: {
|
|
204
|
+
'[0, 0.032]': 14,
|
|
205
|
+
'[0.032, infinity]': 16,
|
|
206
|
+
},
|
|
207
|
+
pricingParams: ['textInputRange'],
|
|
208
|
+
},
|
|
209
|
+
name: 'textOutput',
|
|
210
|
+
strategy: 'lookup',
|
|
211
|
+
unit: 'millionTokens',
|
|
212
|
+
},
|
|
213
|
+
],
|
|
214
|
+
},
|
|
215
|
+
settings: {
|
|
216
|
+
extendParams: ['enableReasoning', 'reasoningBudgetToken'],
|
|
217
|
+
},
|
|
218
|
+
type: 'chat',
|
|
219
|
+
},
|
|
220
|
+
{
|
|
221
|
+
abilities: {
|
|
222
|
+
functionCall: true,
|
|
178
223
|
reasoning: true,
|
|
179
224
|
},
|
|
180
225
|
contextWindowTokens: 131_072,
|
|
@@ -218,6 +263,7 @@ const qwenChatModels: AIChatModelCard[] = [
|
|
|
218
263
|
},
|
|
219
264
|
{
|
|
220
265
|
abilities: {
|
|
266
|
+
functionCall: true,
|
|
221
267
|
reasoning: true,
|
|
222
268
|
},
|
|
223
269
|
contextWindowTokens: 131_072,
|
|
@@ -1451,6 +1497,48 @@ const qwenChatModels: AIChatModelCard[] = [
|
|
|
1451
1497
|
},
|
|
1452
1498
|
type: 'chat',
|
|
1453
1499
|
},
|
|
1500
|
+
{
|
|
1501
|
+
abilities: {
|
|
1502
|
+
vision: true,
|
|
1503
|
+
reasoning: true,
|
|
1504
|
+
},
|
|
1505
|
+
contextWindowTokens: 131_072,
|
|
1506
|
+
description: 'Qwen3 VL 32B 思考模式(开源版),针对高难度强推理与长视频理解场景,提供顶尖的视觉+文本推理能力。',
|
|
1507
|
+
displayName: 'Qwen3 VL 32B Thinking',
|
|
1508
|
+
id: 'qwen3-vl-32b-thinking',
|
|
1509
|
+
maxOutput: 32_768,
|
|
1510
|
+
organization: 'Qwen',
|
|
1511
|
+
pricing: {
|
|
1512
|
+
currency: 'CNY',
|
|
1513
|
+
units: [
|
|
1514
|
+
{ name: 'textInput', rate: 2, strategy: 'fixed', unit: 'millionTokens' },
|
|
1515
|
+
{ name: 'textOutput', rate: 20, strategy: 'fixed', unit: 'millionTokens' },
|
|
1516
|
+
],
|
|
1517
|
+
},
|
|
1518
|
+
settings: {
|
|
1519
|
+
extendParams: ['enableReasoning', 'reasoningBudgetToken'],
|
|
1520
|
+
},
|
|
1521
|
+
type: 'chat',
|
|
1522
|
+
},
|
|
1523
|
+
{
|
|
1524
|
+
abilities: {
|
|
1525
|
+
vision: true,
|
|
1526
|
+
},
|
|
1527
|
+
contextWindowTokens: 131_072,
|
|
1528
|
+
description: 'Qwen3 VL 32B 非思考模式(Instruct),适用于非思考指令场景,保持强大的视觉理解能力。',
|
|
1529
|
+
displayName: 'Qwen3 VL 32B Instruct',
|
|
1530
|
+
id: 'qwen3-vl-32b-instruct',
|
|
1531
|
+
maxOutput: 32_768,
|
|
1532
|
+
organization: 'Qwen',
|
|
1533
|
+
pricing: {
|
|
1534
|
+
currency: 'CNY',
|
|
1535
|
+
units: [
|
|
1536
|
+
{ name: 'textInput', rate: 2, strategy: 'fixed', unit: 'millionTokens' },
|
|
1537
|
+
{ name: 'textOutput', rate: 8, strategy: 'fixed', unit: 'millionTokens' },
|
|
1538
|
+
],
|
|
1539
|
+
},
|
|
1540
|
+
type: 'chat',
|
|
1541
|
+
},
|
|
1454
1542
|
{
|
|
1455
1543
|
config: {
|
|
1456
1544
|
deploymentName: 'qwen-math-turbo-latest',
|
|
@@ -2,6 +2,26 @@ import { AIChatModelCard, AIImageModelCard } from '../types/aiModel';
|
|
|
2
2
|
|
|
3
3
|
// https://siliconflow.cn/zh-cn/models
|
|
4
4
|
const siliconcloudChatModels: AIChatModelCard[] = [
|
|
5
|
+
{
|
|
6
|
+
abilities: {
|
|
7
|
+
functionCall: true,
|
|
8
|
+
reasoning: true,
|
|
9
|
+
},
|
|
10
|
+
contextWindowTokens: 128_000,
|
|
11
|
+
description:
|
|
12
|
+
'MiniMax-M2 为智能体重新定义了效率。它是一款紧凑、快速且经济高效的 MoE 模型,拥有 2300 亿总参数和 100 亿激活参数,专为编码和智能体任务的顶级性能而打造,同时保持强大的通用智能。仅需 100 亿激活参数,MiniMax-M2 就能提供与大规模模型相媲美的性能,使其成为高效率应用的理想选择。',
|
|
13
|
+
displayName: 'MiniMax-M2',
|
|
14
|
+
id: 'MiniMaxAI/MiniMax-M2',
|
|
15
|
+
pricing: {
|
|
16
|
+
currency: 'CNY',
|
|
17
|
+
units: [
|
|
18
|
+
{ name: 'textInput', rate: 2.1, strategy: 'fixed', unit: 'millionTokens' },
|
|
19
|
+
{ name: 'textOutput', rate: 8.4, strategy: 'fixed', unit: 'millionTokens' },
|
|
20
|
+
],
|
|
21
|
+
},
|
|
22
|
+
releasedAt: '2025-10-28',
|
|
23
|
+
type: 'chat',
|
|
24
|
+
},
|
|
5
25
|
{
|
|
6
26
|
abilities: {
|
|
7
27
|
functionCall: true,
|
|
@@ -1565,23 +1565,6 @@ const vercelAIGatewayChatModels: AIChatModelCard[] = [
|
|
|
1565
1565
|
},
|
|
1566
1566
|
type: 'chat',
|
|
1567
1567
|
},
|
|
1568
|
-
{
|
|
1569
|
-
abilities: {
|
|
1570
|
-
functionCall: true,
|
|
1571
|
-
},
|
|
1572
|
-
contextWindowTokens: 131_072,
|
|
1573
|
-
description:
|
|
1574
|
-
'DeepSeek-R1-Distill-Llama-70B 是 70B Llama 模型的蒸馏、更高效变体。它在文本生成任务中保持强大性能,减少计算开销以便于部署和研究。由 Groq 使用其自定义语言处理单元 (LPU) 硬件提供服务,以提供快速高效的推理。',
|
|
1575
|
-
displayName: 'DeepSeek R1 Distill Llama 70B',
|
|
1576
|
-
id: 'deepseek/deepseek-r1-distill-llama-70b',
|
|
1577
|
-
pricing: {
|
|
1578
|
-
units: [
|
|
1579
|
-
{ name: 'textInput', rate: 0.75, strategy: 'fixed', unit: 'millionTokens' },
|
|
1580
|
-
{ name: 'textOutput', rate: 0.99, strategy: 'fixed', unit: 'millionTokens' },
|
|
1581
|
-
],
|
|
1582
|
-
},
|
|
1583
|
-
type: 'chat',
|
|
1584
|
-
},
|
|
1585
1568
|
{
|
|
1586
1569
|
abilities: {
|
|
1587
1570
|
functionCall: true,
|
|
@@ -37,7 +37,7 @@ const doubaoChatModels: AIChatModelCard[] = [
|
|
|
37
37
|
config: {
|
|
38
38
|
deploymentName: 'kimi-k2-250905',
|
|
39
39
|
},
|
|
40
|
-
contextWindowTokens:
|
|
40
|
+
contextWindowTokens: 262_144,
|
|
41
41
|
description:
|
|
42
42
|
'Kimi-K2 是一款Moonshot AI推出的具备超强代码和 Agent 能力的 MoE 架构基础模型,总参数 1T,激活参数 32B。在通用知识推理、编程、数学、Agent 等主要类别的基准性能测试中,K2 模型的性能超过其他主流开源模型。',
|
|
43
43
|
displayName: 'Kimi K2',
|