@lobehub/lobehub 2.1.3 → 2.1.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.env.example +0 -3
- package/.env.example.development +0 -3
- package/CHANGELOG.md +34 -0
- package/changelog/v2.json +9 -0
- package/docker-compose/deploy/.env.example +3 -1
- package/docker-compose/deploy/.env.zh-CN.example +4 -1
- package/docker-compose/local/.env.example +0 -1
- package/docker-compose/local/.env.zh-CN.example +0 -1
- package/docker-compose/local/grafana/.env.example +0 -1
- package/docker-compose/local/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/local/logto/docker-compose.yml +0 -1
- package/docker-compose/local/zitadel/.env.example +1 -2
- package/docker-compose/local/zitadel/.env.zh-CN.example +1 -2
- package/docker-compose/production/grafana/.env.example +0 -1
- package/docker-compose/production/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/production/logto/.env.example +0 -2
- package/docker-compose/production/logto/.env.zh-CN.example +0 -2
- package/docker-compose/production/zitadel/.env.example +0 -2
- package/docker-compose/production/zitadel/.env.zh-CN.example +0 -2
- package/docker-compose/setup.sh +16 -2
- package/docs/development/basic/folder-structure.mdx +23 -14
- package/docs/development/basic/folder-structure.zh-CN.mdx +23 -14
- package/docs/development/basic/work-with-server-side-database.mdx +0 -1
- package/docs/development/basic/work-with-server-side-database.zh-CN.mdx +0 -1
- package/docs/development/start.mdx +19 -12
- package/docs/development/start.zh-CN.mdx +19 -12
- package/docs/self-hosting/advanced/s3/cloudflare-r2.mdx +0 -5
- package/docs/self-hosting/advanced/s3/cloudflare-r2.zh-CN.mdx +0 -5
- package/docs/self-hosting/advanced/s3/rustfs.mdx +0 -2
- package/docs/self-hosting/advanced/s3/rustfs.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3/tencent-cloud.mdx +0 -1
- package/docs/self-hosting/advanced/s3/tencent-cloud.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3.mdx +0 -9
- package/docs/self-hosting/advanced/s3.zh-CN.mdx +0 -8
- package/docs/self-hosting/environment-variables/s3.mdx +0 -7
- package/docs/self-hosting/environment-variables/s3.zh-CN.mdx +0 -7
- package/docs/self-hosting/platform/docker-compose.mdx +0 -1
- package/docs/self-hosting/platform/docker-compose.zh-CN.mdx +0 -1
- package/docs/self-hosting/platform/docker.mdx +5 -3
- package/docs/self-hosting/platform/docker.zh-CN.mdx +5 -4
- package/docs/self-hosting/platform/dokploy.mdx +0 -2
- package/docs/self-hosting/platform/dokploy.zh-CN.mdx +0 -2
- package/docs/self-hosting/platform/vercel.mdx +0 -7
- package/docs/self-hosting/platform/vercel.zh-CN.mdx +0 -7
- package/e2e/src/steps/home/sidebarAgent.steps.ts +56 -24
- package/locales/ar/authError.json +1 -0
- package/locales/ar/models.json +25 -22
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +16 -0
- package/locales/bg-BG/authError.json +1 -0
- package/locales/bg-BG/models.json +18 -21
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +16 -0
- package/locales/de-DE/authError.json +1 -0
- package/locales/de-DE/models.json +20 -20
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +16 -0
- package/locales/en-US/models.json +22 -22
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/authError.json +1 -0
- package/locales/es-ES/models.json +84 -20
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +16 -0
- package/locales/fa-IR/authError.json +1 -0
- package/locales/fa-IR/models.json +43 -20
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +16 -0
- package/locales/fr-FR/authError.json +1 -0
- package/locales/fr-FR/models.json +19 -21
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +16 -0
- package/locales/it-IT/authError.json +1 -0
- package/locales/it-IT/models.json +17 -19
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +16 -0
- package/locales/ja-JP/authError.json +1 -0
- package/locales/ja-JP/models.json +43 -22
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +16 -0
- package/locales/ko-KR/authError.json +1 -0
- package/locales/ko-KR/models.json +41 -20
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +16 -0
- package/locales/nl-NL/authError.json +1 -0
- package/locales/nl-NL/models.json +48 -20
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +16 -0
- package/locales/pl-PL/authError.json +1 -0
- package/locales/pl-PL/models.json +19 -22
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +16 -0
- package/locales/pt-BR/authError.json +1 -0
- package/locales/pt-BR/models.json +21 -21
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +16 -0
- package/locales/ru-RU/authError.json +1 -0
- package/locales/ru-RU/models.json +23 -20
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +16 -0
- package/locales/tr-TR/authError.json +1 -0
- package/locales/tr-TR/models.json +37 -20
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +16 -0
- package/locales/vi-VN/authError.json +1 -0
- package/locales/vi-VN/models.json +15 -19
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +16 -0
- package/locales/zh-CN/models.json +20 -20
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/authError.json +1 -0
- package/locales/zh-TW/models.json +20 -20
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +16 -0
- package/package.json +1 -1
- package/packages/model-bank/src/aiModels/google.ts +0 -19
- package/packages/model-bank/src/aiModels/moonshot.ts +56 -5
- package/packages/model-bank/src/aiModels/ollamacloud.ts +14 -0
- package/packages/model-bank/src/aiModels/openrouter.ts +0 -14
- package/packages/model-bank/src/aiModels/qwen.ts +105 -4
- package/packages/model-bank/src/aiModels/siliconcloud.ts +39 -0
- package/packages/model-bank/src/aiModels/wenxin.ts +0 -99
- package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +24 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.ts +22 -5
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +10 -3
- package/packages/model-runtime/src/core/streams/google/google-ai.test.ts +54 -13
- package/packages/model-runtime/src/core/streams/google/index.ts +1 -4
- package/packages/model-runtime/src/providers/moonshot/index.ts +24 -2
- package/packages/model-runtime/src/providers/qwen/index.ts +16 -15
- package/src/server/routers/lambda/__tests__/integration/aiAgent/execAgent.integration.test.ts +3 -2
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "Mô hình 7B tham số với chất lượng cao hơn Phi-3-mini, tập trung vào dữ liệu chất lượng cao và yêu cầu suy luận.",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Phiên bản cập nhật của mô hình Phi-3-mini.",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Phiên bản cập nhật của mô hình Phi-3-vision.",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 là một mô hình ngôn ngữ lớn mã nguồn mở được tối ưu hóa cho khả năng tác nhân, vượt trội trong lập trình, sử dụng công cụ, tuân thủ hướng dẫn và lập kế hoạch dài hạn. Mô hình hỗ trợ phát triển phần mềm đa ngôn ngữ và thực thi quy trình công việc phức tạp nhiều bước, đạt điểm 74.0 trên SWE-bench Verified và vượt qua Claude Sonnet 4.5 trong các tình huống đa ngôn ngữ.",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct là mô hình LLM 7B được tinh chỉnh theo hướng dẫn trong dòng Qwen2. Sử dụng kiến trúc Transformer với SwiGLU, thiên vị QKV trong attention và attention theo nhóm, hỗ trợ đầu vào lớn. Mô hình thể hiện hiệu suất mạnh mẽ trong hiểu ngôn ngữ, sinh văn bản, đa ngôn ngữ, lập trình, toán học và suy luận, vượt trội hơn hầu hết các mô hình mã nguồn mở và cạnh tranh với các mô hình độc quyền. Nó vượt qua Qwen1.5-7B-Chat trong nhiều bài đánh giá.",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct là một phần của dòng LLM mới nhất từ Alibaba Cloud. Mô hình 7B mang lại cải tiến đáng kể trong lập trình và toán học, hỗ trợ hơn 29 ngôn ngữ, và cải thiện khả năng tuân theo hướng dẫn, hiểu dữ liệu có cấu trúc và xuất dữ liệu có cấu trúc (đặc biệt là JSON).",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct là mô hình LLM mới nhất của Alibaba Cloud tập trung vào lập trình. Được xây dựng trên Qwen2.5 và huấn luyện với 5.5T token, nó cải thiện đáng kể khả năng sinh mã, suy luận và sửa lỗi trong khi vẫn giữ được thế mạnh về toán học và khả năng tổng quát, cung cấp nền tảng vững chắc cho các đại lý lập trình.",
|
|
@@ -271,21 +272,21 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực, kết hợp khả năng hiểu và sinh văn bản mạnh mẽ cho các tình huống sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.",
|
|
272
273
|
"claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
273
274
|
"claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ tiếp theo nhanh nhất của Anthropic. So với Claude 3 Haiku, nó cải thiện toàn diện các kỹ năng và vượt qua mô hình lớn nhất trước đó là Claude 3 Opus trên nhiều tiêu chuẩn đánh giá trí tuệ.",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku cung cấp phản hồi nhanh cho các tác vụ nhẹ.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic và là mô hình lai đầu tiên về lý luận trên thị trường. Nó có thể tạo phản hồi gần như tức thì hoặc lý luận từng bước mở rộng mà người dùng có thể quan sát. Sonnet đặc biệt mạnh trong lập trình, khoa học dữ liệu, thị giác máy tính và các tác vụ tác nhân.",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn và triển khai quy mô lớn đáng tin cậy.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic,
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ cực nhanh và khả năng lý luận mở rộng.",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
|
|
283
|
-
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp,
|
|
284
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic dành cho các tác vụ cực kỳ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.",
|
|
285
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ cực kỳ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
288
|
-
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 có thể tạo phản hồi gần như tức thì hoặc lý luận từng bước mở rộng với quy trình hiển thị rõ ràng.",
|
|
289
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.",
|
|
291
292
|
"codegemma.description": "CodeGemma là mô hình nhẹ cho các tác vụ lập trình đa dạng, cho phép lặp lại nhanh và tích hợp dễ dàng.",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp là phiên bản thử nghiệm của V3.2, là cầu nối đến kiến trúc tiếp theo. Mô hình bổ sung DeepSeek Sparse Attention (DSA) trên nền tảng V3.1-Terminus để cải thiện hiệu quả huấn luyện và suy luận với ngữ cảnh dài, cùng các tối ưu hóa cho việc sử dụng công cụ, hiểu tài liệu dài và suy luận nhiều bước. Đây là lựa chọn lý tưởng để khám phá hiệu quả suy luận cao hơn với ngân sách ngữ cảnh lớn.",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 là mô hình MoE với 671 tỷ tham số, sử dụng MLA và DeepSeekMoE với cân bằng tải không tổn thất để huấn luyện và suy luận hiệu quả. Được huấn luyện trước trên 14.8T token chất lượng cao với SFT và RL, mô hình vượt trội so với các mô hình mã nguồn mở khác và tiệm cận các mô hình đóng hàng đầu.",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) là một mô hình sáng tạo cung cấp khả năng hiểu và tương tác ngôn ngữ sâu sắc.",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "Một mô hình ngôn ngữ tiên tiến, hiệu quả, mạnh về suy luận, toán học và lập trình.",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 là mô hình thị giác-ngôn ngữ MoE dựa trên DeepSeekMoE-27B với kích hoạt thưa, đạt hiệu suất cao với chỉ 4.5B tham số hoạt động. Mô hình vượt trội trong QA thị giác, OCR, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Một mô hình mã nguồn mở mới kết hợp khả năng tổng quát và lập trình. Nó giữ lại khả năng đối thoại chung của mô hình trò chuyện và khả năng lập trình mạnh mẽ của mô hình lập trình viên, với sự điều chỉnh ưu tiên tốt hơn. DeepSeek-V2.5 cũng cải thiện khả năng viết và tuân thủ hướng dẫn.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B là mô hình ngôn ngữ lập trình được huấn luyện trên 2 nghìn tỷ token (87% mã nguồn, 13% văn bản tiếng Trung/Anh). Mô hình này hỗ trợ cửa sổ ngữ cảnh 16K và nhiệm vụ điền vào giữa đoạn mã, cung cấp khả năng hoàn thành mã ở cấp độ dự án và chèn đoạn mã chính xác.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Phiên bản đầy đủ DeepSeek R1 nhanh với tìm kiếm web thời gian thực, kết hợp khả năng 671B và phản hồi nhanh hơn.",
|
|
379
379
|
"deepseek-r1-online.description": "Phiên bản đầy đủ DeepSeek R1 với 671B tham số và tìm kiếm web thời gian thực, mang lại khả năng hiểu và tạo nội dung mạnh mẽ hơn.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 sử dụng dữ liệu khởi động lạnh trước khi áp dụng học tăng cường và đạt hiệu suất tương đương OpenAI-o1 trong các tác vụ toán học, lập trình và suy luận.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "Chế độ suy luận DeepSeek V3.2 xuất ra chuỗi suy nghĩ trước khi đưa ra câu trả lời cuối cùng để nâng cao độ chính xác.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 là mô hình MoE hiệu quả cho xử lý tiết kiệm chi phí.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B là mô hình tập trung vào mã nguồn của DeepSeek với khả năng tạo mã mạnh mẽ.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật về lập trình, khả năng kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K là mô hình siêu nhẹ dành cho hỏi đáp đơn giản, phân loại và suy luận chi phí thấp.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K là mô hình tư duy nhanh với ngữ cảnh 32K dành cho lý luận phức tạp và trò chuyện nhiều lượt.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview là bản xem trước mô hình tư duy để đánh giá và thử nghiệm.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, được phát triển bởi ByteDance Seed, hỗ trợ đầu vào văn bản và hình ảnh để tạo hình ảnh chất lượng cao, có thể kiểm soát tốt từ lời nhắc.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 là mô hình tạo ảnh của ByteDance Seed, hỗ trợ đầu vào văn bản và hình ảnh với khả năng tạo ảnh chất lượng cao và dễ kiểm soát. Nó tạo ảnh từ các gợi ý văn bản.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "Mô hình FLUX.1 tập trung vào chỉnh sửa hình ảnh, hỗ trợ đầu vào văn bản và hình ảnh.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] chấp nhận đầu vào là văn bản và hình ảnh tham chiếu, cho phép chỉnh sửa cục bộ chính xác và biến đổi toàn cảnh phức tạp.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] là mô hình tạo hình ảnh với thiên hướng thẩm mỹ hướng đến hình ảnh chân thực và tự nhiên hơn.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "Mô hình tạo hình ảnh đa phương thức mạnh mẽ bản địa.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "Mô hình tạo hình ảnh chất lượng cao từ Google.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana là mô hình đa phương thức bản địa mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Mô hình chỉnh sửa hình ảnh chuyên nghiệp từ nhóm Qwen, hỗ trợ chỉnh sửa ngữ nghĩa và hình thức, chỉnh sửa văn bản tiếng Trung
|
|
485
|
-
"fal-ai/qwen-image.description": "Mô hình tạo
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Mô hình chỉnh sửa hình ảnh chuyên nghiệp từ nhóm Qwen, hỗ trợ chỉnh sửa ngữ nghĩa và hình thức, chỉnh sửa chính xác văn bản tiếng Trung và tiếng Anh, và cho phép chỉnh sửa chất lượng cao như chuyển đổi phong cách và xoay vật thể.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Mô hình tạo ảnh mạnh mẽ từ nhóm Qwen với khả năng hiển thị văn bản tiếng Trung ấn tượng và phong cách hình ảnh đa dạng.",
|
|
486
485
|
"flux-1-schnell.description": "Mô hình chuyển văn bản thành hình ảnh với 12 tỷ tham số từ Black Forest Labs, sử dụng phương pháp khuếch tán đối kháng tiềm ẩn để tạo hình ảnh chất lượng cao chỉ trong 1–4 bước. Mô hình cạnh tranh với các lựa chọn đóng và được phát hành theo giấy phép Apache-2.0 cho mục đích cá nhân, nghiên cứu và thương mại.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] là mô hình chưng cất mã nguồn mở dành cho mục đích phi thương mại. Mô hình giữ chất lượng hình ảnh gần như chuyên nghiệp và khả năng tuân thủ hướng dẫn, đồng thời hoạt động hiệu quả hơn, sử dụng tài nguyên tốt hơn so với các mô hình tiêu chuẩn cùng kích thước.",
|
|
488
487
|
"flux-kontext-max.description": "Tạo và chỉnh sửa hình ảnh theo ngữ cảnh tiên tiến, kết hợp văn bản và hình ảnh để tạo ra kết quả chính xác và mạch lạc.",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "Biến thể Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp.",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "Biến thể Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp.",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash mang đến các tính năng thế hệ mới bao gồm tốc độ vượt trội, sử dụng công cụ gốc, tạo nội dung đa phương thức và cửa sổ ngữ cảnh 1 triệu token.",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview là mô hình nhỏ nhất và có giá trị tốt nhất của Google, được thiết kế cho các trường hợp sử dụng quy mô lớn.",
|
|
@@ -530,7 +527,7 @@
|
|
|
530
527
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro là mô hình suy luận tiên tiến nhất của Google, có khả năng suy luận trên mã, toán học và các vấn đề STEM, cũng như phân tích tập dữ liệu lớn, mã nguồn và tài liệu với ngữ cảnh dài.",
|
|
531
528
|
"gemini-3-flash-preview.description": "Gemini 3 Flash là mô hình thông minh nhất được xây dựng để tối ưu tốc độ, kết hợp trí tuệ tiên tiến với khả năng tìm kiếm chính xác.",
|
|
532
529
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)là mô hình tạo hình ảnh của Google, đồng thời hỗ trợ hội thoại đa phương thức.",
|
|
533
|
-
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo
|
|
530
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo ảnh của Google và cũng hỗ trợ trò chuyện đa phương thức.",
|
|
534
531
|
"gemini-3-pro-preview.description": "Gemini 3 Pro là mô hình mạnh mẽ nhất của Google, kết hợp khả năng mã hóa cảm xúc và suy luận tiên tiến, mang đến hình ảnh phong phú và tương tác sâu sắc.",
|
|
535
532
|
"gemini-flash-latest.description": "Phiên bản mới nhất của Gemini Flash",
|
|
536
533
|
"gemini-flash-lite-latest.description": "Phiên bản mới nhất của Gemini Flash-Lite",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max là phiên bản đầy đủ tính năng nhất, hỗ trợ tìm kiếm web và nhiều plugin tích hợp. Các khả năng cốt lõi được tối ưu hóa hoàn toàn, vai trò hệ thống và gọi hàm mang lại hiệu suất vượt trội trong các tình huống ứng dụng phức tạp.",
|
|
544
541
|
"generalv3.description": "Spark Pro là mô hình LLM hiệu suất cao được tối ưu cho các lĩnh vực chuyên môn, tập trung vào toán học, lập trình, y tế và giáo dục, với tìm kiếm web và các plugin tích hợp như thời tiết và ngày tháng. Nó mang lại hiệu suất mạnh mẽ và hiệu quả trong hỏi đáp kiến thức phức tạp, hiểu ngôn ngữ và sáng tạo văn bản nâng cao, là lựa chọn lý tưởng cho các trường hợp sử dụng chuyên nghiệp.",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520 là phiên bản mô hình mới nhất, được thiết kế cho các tác vụ phức tạp và đa dạng với hiệu suất vượt trội.",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7 là mô hình hàng đầu mới nhất từ Zhipu AI. GLM-4.7 nâng cao khả năng lập trình, lập kế hoạch tác vụ dài hạn và hợp tác công cụ cho các tình huống Lập trình Tác nhân, đạt hiệu suất hàng đầu trong số các mô hình mã nguồn mở trên nhiều bảng xếp hạng công khai. Khả năng tổng quát được cải thiện, phản hồi ngắn gọn và tự nhiên hơn, và trải nghiệm viết sâu sắc hơn. Trong các tác vụ tác nhân phức tạp, khả năng tuân thủ hướng dẫn khi gọi công cụ mạnh hơn, thẩm mỹ giao diện và hiệu quả hoàn thành tác vụ dài hạn cũng được nâng cao. • Khả năng lập trình mạnh hơn: Cải thiện đáng kể lập trình đa ngôn ngữ và hiệu suất tác nhân dòng lệnh; GLM-4.7 có thể triển khai cơ chế \"nghĩ trước, hành động sau\" trong các khung lập trình như Claude Code, Kilo Code, TRAE, Cline và Roo Code, với hiệu suất ổn định hơn trong các tác vụ phức tạp. • Cải thiện thẩm mỹ giao diện: GLM-4.7 thể hiện tiến bộ rõ rệt trong chất lượng tạo giao diện, có thể tạo trang web, bản trình chiếu và áp phích với tính thẩm mỹ cao hơn. • Khả năng gọi công cụ mạnh hơn: GLM-4.7 nâng cao khả năng gọi công cụ, đạt 67 điểm trong đánh giá tác vụ web BrowseComp; đạt 84.7 điểm trong đánh giá gọi công cụ tương tác τ²-Bench, vượt qua Claude Sonnet 4.5 và trở thành SOTA mã nguồn mở. • Cải thiện khả năng suy luận: Tăng cường đáng kể khả năng toán học và suy luận, đạt 42.8% trong tiêu chuẩn HLE (\"Kỳ thi cuối cùng của nhân loại\"), tăng 41% so với GLM-4.6, vượt qua GPT-5.1. • Tăng cường khả năng tổng quát: Đối thoại của GLM-4.7 ngắn gọn, thông minh và gần gũi hơn; viết và nhập vai có tính văn học và nhập vai hơn.",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat thể hiện hiệu suất mạnh mẽ trong ngữ nghĩa, toán học, suy luận, mã hóa và kiến thức. Nó cũng hỗ trợ duyệt web, thực thi mã, gọi công cụ tùy chỉnh và suy luận văn bản dài, hỗ trợ 26 ngôn ngữ bao gồm tiếng Nhật, Hàn và Đức.",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air là lựa chọn có giá trị cao với hiệu suất gần GLM-4, tốc độ nhanh và chi phí thấp hơn.",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air là lựa chọn có giá trị cao với hiệu suất gần GLM-4, tốc độ nhanh và chi phí thấp hơn.",
|
|
@@ -558,7 +555,6 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking là mô hình VLM ~10B mạnh nhất hiện nay, bao phủ các tác vụ SOTA như hiểu video, hỏi đáp hình ảnh, giải đề, OCR, đọc tài liệu và biểu đồ, tác tử GUI, lập trình giao diện và liên kết ngữ nghĩa. Với học tăng cường tiên tiến, nó sử dụng suy luận chuỗi tư duy để cải thiện độ chính xác và độ phong phú, vượt trội hơn các mô hình không suy nghĩ truyền thống cả về kết quả và khả năng giải thích.",
|
|
559
556
|
"glm-4.5-air.description": "Phiên bản nhẹ của GLM-4.5 cân bằng giữa hiệu suất và chi phí, với chế độ suy nghĩ kết hợp linh hoạt.",
|
|
560
557
|
"glm-4.5-airx.description": "Phiên bản nhanh của GLM-4.5-Air với phản hồi nhanh hơn cho các trường hợp sử dụng quy mô lớn, tốc độ cao.",
|
|
561
|
-
"glm-4.5-flash.description": "Phiên bản miễn phí của GLM-4.5 với hiệu suất mạnh mẽ trong suy luận, mã hóa và tác vụ tác tử.",
|
|
562
558
|
"glm-4.5-x.description": "Phiên bản nhanh của GLM-4.5, mang lại hiệu suất mạnh mẽ với tốc độ tạo lên đến 100 token/giây.",
|
|
563
559
|
"glm-4.5.description": "Mô hình hàng đầu của Zhipu với chế độ suy nghĩ có thể chuyển đổi, cung cấp SOTA mã nguồn mở tổng thể và hỗ trợ ngữ cảnh lên đến 128K.",
|
|
564
560
|
"glm-4.5v.description": "Mô hình suy luận thị giác thế hệ tiếp theo của Zhipu với tổng 106B tham số, 12B hoạt động, đạt SOTA trong các mô hình đa phương thức mã nguồn mở cùng kích thước về hình ảnh, video, hiểu tài liệu và tác vụ GUI.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Tổ chức mã nguồn mở tập trung vào nghiên cứu mô hình lớn và công cụ, cung cấp nền tảng hiệu quả, dễ sử dụng để tiếp cận các mô hình và thuật toán tiên tiến.",
|
|
30
30
|
"jina.description": "Thành lập năm 2020, Jina AI là công ty hàng đầu về AI tìm kiếm. Bộ công cụ tìm kiếm của họ bao gồm mô hình vector, bộ xếp hạng lại và mô hình ngôn ngữ nhỏ để xây dựng ứng dụng tìm kiếm sinh và đa phương thức chất lượng cao.",
|
|
31
31
|
"lmstudio.description": "LM Studio là ứng dụng máy tính để phát triển và thử nghiệm LLM ngay trên máy của bạn.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud sử dụng API chính thức để truy cập các mô hình AI và tính mức sử dụng bằng Tín dụng dựa trên số lượng token của mô hình.",
|
|
33
32
|
"minimax.description": "Thành lập năm 2021, MiniMax xây dựng AI đa năng với các mô hình nền tảng đa phương thức, bao gồm mô hình văn bản MoE hàng nghìn tỷ tham số, mô hình giọng nói và thị giác, cùng các ứng dụng như Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral cung cấp các mô hình tổng quát, chuyên biệt và nghiên cứu tiên tiến cho suy luận phức tạp, tác vụ đa ngôn ngữ và tạo mã, với khả năng gọi hàm cho tích hợp tùy chỉnh.",
|
|
35
34
|
"modelscope.description": "ModelScope là nền tảng mô hình dưới dạng dịch vụ của Alibaba Cloud, cung cấp nhiều mô hình AI và dịch vụ suy luận.",
|
|
@@ -34,11 +34,20 @@
|
|
|
34
34
|
"agentCronJobs.empty.description": "Tạo tác vụ định kỳ đầu tiên để tự động hóa tác nhân của bạn",
|
|
35
35
|
"agentCronJobs.empty.title": "Chưa có tác vụ định kỳ",
|
|
36
36
|
"agentCronJobs.enable": "Kích Hoạt",
|
|
37
|
+
"agentCronJobs.form.at": "lúc",
|
|
37
38
|
"agentCronJobs.form.content.placeholder": "Nhập lời nhắc hoặc hướng dẫn cho tác nhân",
|
|
39
|
+
"agentCronJobs.form.every": "Mỗi",
|
|
40
|
+
"agentCronJobs.form.frequency": "Tần suất",
|
|
41
|
+
"agentCronJobs.form.hours": "giờ",
|
|
42
|
+
"agentCronJobs.form.maxExecutions": "Dừng sau",
|
|
38
43
|
"agentCronJobs.form.maxExecutions.placeholder": "Để trống nếu không giới hạn",
|
|
39
44
|
"agentCronJobs.form.name.placeholder": "Nhập tên tác vụ",
|
|
45
|
+
"agentCronJobs.form.time": "Thời gian",
|
|
40
46
|
"agentCronJobs.form.timeRange.end": "Thời Gian Kết Thúc",
|
|
41
47
|
"agentCronJobs.form.timeRange.start": "Thời Gian Bắt Đầu",
|
|
48
|
+
"agentCronJobs.form.times": "lần",
|
|
49
|
+
"agentCronJobs.form.timezone": "Múi giờ",
|
|
50
|
+
"agentCronJobs.form.unlimited": "Chạy liên tục",
|
|
42
51
|
"agentCronJobs.form.validation.contentRequired": "Nội dung tác vụ là bắt buộc",
|
|
43
52
|
"agentCronJobs.form.validation.invalidTimeRange": "Thời gian bắt đầu phải trước thời gian kết thúc",
|
|
44
53
|
"agentCronJobs.form.validation.nameRequired": "Tên tác vụ là bắt buộc",
|
|
@@ -83,6 +92,13 @@
|
|
|
83
92
|
"agentCronJobs.weekday.tuesday": "Thứ Ba",
|
|
84
93
|
"agentCronJobs.weekday.wednesday": "Thứ Tư",
|
|
85
94
|
"agentCronJobs.weekdays": "Các Ngày Trong Tuần",
|
|
95
|
+
"agentCronJobs.weekdays.fri": "Thứ Sáu",
|
|
96
|
+
"agentCronJobs.weekdays.mon": "Thứ Hai",
|
|
97
|
+
"agentCronJobs.weekdays.sat": "Thứ Bảy",
|
|
98
|
+
"agentCronJobs.weekdays.sun": "Chủ Nhật",
|
|
99
|
+
"agentCronJobs.weekdays.thu": "Thứ Năm",
|
|
100
|
+
"agentCronJobs.weekdays.tue": "Thứ Ba",
|
|
101
|
+
"agentCronJobs.weekdays.wed": "Thứ Tư",
|
|
86
102
|
"agentInfoDescription.basic.avatar": "Ảnh đại diện",
|
|
87
103
|
"agentInfoDescription.basic.description": "Mô tả",
|
|
88
104
|
"agentInfoDescription.basic.name": "Tên",
|
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "一款拥有 70 亿参数的模型,质量优于 Phi-3-mini,专注于高质量、推理密集型数据。",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Phi-3-mini 模型的更新版本。",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Phi-3-vision 模型的更新版本。",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 是一个开源的大型语言模型,专为智能体能力优化,擅长编程、工具使用、指令执行和长期规划。该模型支持多语言软件开发和复杂的多步骤工作流执行,在 SWE-bench Verified 中获得 74.0 分,在多语言场景中超越了 Claude Sonnet 4.5。",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct 是 Qwen2 系列中的一款 70 亿参数指令微调大模型。采用 Transformer 架构,结合 SwiGLU、注意力 QKV 偏置和分组查询注意力,支持大输入,语言理解、生成、多语言、编程、数学和推理能力强,超越大多数开源模型,媲美闭源模型。在多个基准测试中优于 Qwen1.5-7B-Chat。",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct 是阿里云最新大模型系列的一部分。该 70 亿参数模型在编程和数学方面有显著提升,支持 29+ 种语言,增强了指令理解、结构化数据处理和结构化输出(特别是 JSON)。",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct 是阿里云最新面向编程的大模型。基于 Qwen2.5 构建,训练数据达 5.5 万亿 token,显著提升代码生成、推理与修复能力,同时保留数学与通用能力,为编程智能体提供坚实基础。",
|
|
@@ -271,21 +272,21 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
|
|
272
273
|
"claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
273
274
|
"claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型。相比 Claude 3 Haiku,它在多项能力上有所提升,并在多个智能基准测试中超越了此前最大的模型 Claude 3 Opus。",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智能的模型,也是市场上首个混合推理模型。它既能快速响应,也能进行可视化的逐步推理,特别擅长编程、数据科学、视觉处理和智能体任务。",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快、最智能的 Haiku 模型,具备闪电般的速度和增强的推理能力。",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
|
|
283
284
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
284
285
|
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专注于处理高度复杂的任务,在性能、智能、流畅性和理解力方面表现出色。",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
288
|
-
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 能够快速响应或进行可视化的逐步思考。",
|
|
289
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
|
|
291
292
|
"codegemma.description": "CodeGemma 是一款轻量级模型,适用于多种编程任务,支持快速迭代与集成。",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp 是 V3.2 的实验版本,连接下一代架构。在 V3.1-Terminus 基础上引入 DeepSeek 稀疏注意力(DSA),提升长上下文训练与推理效率,优化工具使用、长文档理解和多步推理。适合探索大上下文预算下的高效推理。",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 是一个拥有 671B 参数的 MoE 模型,采用 MLA 和 DeepSeekMoE 架构,具备无损负载均衡,实现高效训练与推理。在 14.8T 高质量数据上预训练,并结合 SFT 与 RL,性能超越其他开源模型,接近领先闭源模型。",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat(67B)是一款创新模型,具备深度语言理解与交互能力。",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "一款高效的最先进大模型,在推理、数学和编程方面表现强劲。",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位。",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek
|
|
358
|
+
"deepseek-chat.description": "一个结合通用能力与编程能力的新开源模型。它保留了聊天模型的对话能力和编程模型的强大编程能力,并在偏好对齐方面表现更佳。DeepSeek-V2.5 还提升了写作和指令执行能力。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练于 2T 数据(87% 代码,13% 中英文文本)。支持 16K 上下文窗口与中间填充任务,提供项目级代码补全与片段填充。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版本,支持实时网页搜索,结合 671B 规模能力与更快响应。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版本,具备 671B 参数与实时网页搜索,提供更强理解与生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,在数学、编程和推理任务中表现可与 OpenAI-o1 相媲美。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 推理模式在给出最终答案前输出思维链,以提升准确性。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超轻量模型,适用于简单问答、分类与低成本推理。",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文能力,适合复杂推理与多轮对话。",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款用于评估与测试的思考模型预览版。",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字节跳动 Seed 团队开发,支持文本与图像输入,可根据提示词生成高度可控、高质量的图像。",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字节跳动 Seed 团队推出的图像生成模型,支持文本和图像输入,具备高度可控和高质量的图像生成能力,可根据文本提示生成图像。",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型专注于图像编辑,支持文本与图像输入。",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文本与参考图像输入,支持局部精准编辑与复杂全局场景变换。",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款图像生成模型,偏好更真实自然的美学风格。",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "一款强大的原生多模态图像生成模型。",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "来自 Google 的高质量图像生成模型。",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持通过对话生成与编辑图像。",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Qwen
|
|
485
|
-
"fal-ai/qwen-image.description": "Qwen
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Qwen 团队推出的专业图像编辑模型,支持语义和外观编辑,能够精准编辑中英文文本,并实现风格迁移、物体旋转等高质量编辑效果。",
|
|
484
|
+
"fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具备出色的中文文本渲染能力和多样化的视觉风格。",
|
|
486
485
|
"flux-1-schnell.description": "来自 Black Forest Labs 的 120 亿参数文本转图像模型,采用潜在对抗扩散蒸馏技术,可在 1-4 步内生成高质量图像。性能媲美闭源模型,采用 Apache-2.0 许可,适用于个人、研究与商业用途。",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] 是一款开源权重蒸馏模型,仅限非商业用途。保持接近专业图像质量与指令遵循能力,同时运行更高效,资源利用优于同等规模标准模型。",
|
|
488
487
|
"flux-kontext-max.description": "最先进的上下文图像生成与编辑模型,结合文本与图像输入,实现精准一致的结果。",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash 的一个轻量变体,优化了成本效率与低延迟表现。",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "Gemini 2.0 Flash 的一个轻量变体,优化了成本效率与低延迟表现。",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash 提供下一代功能,包括卓越速度、原生工具使用、多模态生成以及 100 万 token 上下文窗口。",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview 是 Google 最小、性价比最高的模型,适用于大规模使用场景。",
|
|
@@ -530,7 +527,7 @@
|
|
|
530
527
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗舰推理模型,支持长上下文,适用于复杂任务。",
|
|
531
528
|
"gemini-3-flash-preview.description": "Gemini 3 Flash 是一款以速度为核心的智能模型,融合前沿智能与卓越的搜索能力。",
|
|
532
529
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话。",
|
|
533
|
-
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google
|
|
530
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 推出的图像生成模型,同时支持多模态对话。",
|
|
534
531
|
"gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最强大的智能体与编程模型,在最先进推理基础上提供更丰富的视觉效果与更深入的交互体验。",
|
|
535
532
|
"gemini-flash-latest.description": "Latest release of Gemini Flash",
|
|
536
533
|
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "讯飞星火 Max 是功能最全面的版本,支持网页搜索与多种内置插件。其核心能力、系统角色与函数调用均经过全面优化,适用于复杂应用场景,表现卓越。",
|
|
544
541
|
"generalv3.description": "讯飞星火 Pro 是一款面向专业领域优化的大模型,专注于数学、编程、医疗与教育,支持网页搜索与天气、日期等内置插件。在复杂知识问答、语言理解与高级文本创作方面表现出色,是专业场景的理想选择。",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520 是最新版本模型,专为处理高度复杂与多样化任务而设计,性能卓越。",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7 是智谱 AI 最新的旗舰模型。GLM-4.7 在编程能力、长期任务规划和工具协作方面实现了提升,适用于 Agentic Coding 场景,在多个公开基准测试中表现领先于其他开源模型。其通用能力也得到增强,回复更简洁自然,写作更具沉浸感。在复杂智能体任务中,工具调用时的指令遵循性更强,Artifacts 和 Agentic Coding 前端的美学表现及长期任务完成效率进一步提升。• 更强的编程能力:多语言编程和终端智能体性能显著提升;GLM-4.7 可在 Claude Code、Kilo Code、TRAE、Cline 和 Roo Code 等编程框架中实现“先思考,后行动”的机制,在复杂任务中表现更稳定。• 前端美学提升:GLM-4.7 在前端生成质量上取得显著进展,能够生成更具视觉吸引力的网站、PPT 和海报。• 更强的工具调用能力:GLM-4.7 工具调用能力增强,在 BrowseComp 网页任务评估中得分 67;在 τ²-Bench 交互式工具调用评估中得分 84.7,超越 Claude Sonnet 4.5,成为开源 SOTA。• 推理能力提升:数学与推理能力显著增强,在 HLE(“人类终极考试”)基准测试中得分 42.8%,比 GLM-4.6 提升 41%,超越 GPT-5.1。• 通用能力增强:GLM-4.7 对话更简洁、智能且具人性化;写作与角色扮演更具文学性和沉浸感。",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat 在语义、数学、推理、编程与知识方面表现强劲,支持网页浏览、代码执行、自定义工具调用与长文本推理,支持包括日语、韩语、德语在内的 26 种语言。",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air 是一款高性价比模型,性能接近 GLM-4,速度快、成本低。",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air 是一款高性价比模型,性能接近 GLM-4,速度快、成本低。",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking 是目前已知最强的约 100 亿参数视觉语言模型,覆盖视频理解、图像问答、学科解题、OCR、文档与图表阅读、GUI 智能体、前端编程与视觉定位等 SOTA 任务。通过先进的强化学习,采用思维链推理提升准确性与丰富性,在结果与可解释性方面均优于传统非思考模型。",
|
|
559
556
|
"glm-4.5-air.description": "GLM-4.5 轻量版,兼顾性能与成本,支持灵活的混合思维模式。",
|
|
560
557
|
"glm-4.5-airx.description": "GLM-4.5-Air 快速版,响应更快,适用于大规模高速使用场景。",
|
|
561
|
-
"glm-4.5-flash.description": "GLM-4.5 免费版,在推理、编程与智能体任务中表现强劲。",
|
|
562
558
|
"glm-4.5-x.description": "GLM-4.5 快速版,生成速度高达每秒 100 个 token,性能强劲。",
|
|
563
559
|
"glm-4.5.description": "智谱旗舰模型,支持可切换思维模式,整体性能达开源 SOTA,支持最长 128K 上下文。",
|
|
564
560
|
"glm-4.5v.description": "智谱下一代 MoE 视觉推理模型,总参数 106B,激活参数 12B,在图像、视频、文档理解与 GUI 任务中,在同规模开源多模态模型中表现领先。",
|
|
565
561
|
"glm-4.6.description": "智谱最新旗舰模型 GLM-4.6(3550 亿参数)在高级编程、长文本处理、推理和智能体能力方面全面超越前代,尤其在编程能力上对标 Claude Sonnet 4,成为中国顶尖的编程模型。",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flash 是一款 30B 级别的 SOTA 模型,在性能与效率之间实现平衡。它提升了编程能力、长期任务规划和工具协作能力,适用于 Agentic Coding 场景,在多个当前基准排行榜中,在同体量开源模型中表现领先。在执行复杂智能体任务时,工具调用的指令遵循性更强,进一步提升了 Artifacts 和 Agentic Coding 的前端美学和长期任务完成效率。",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flash 是一款 30B 级别的 SOTA 模型,在性能与效率之间实现平衡。它提升了编程能力、长期任务规划和工具协作能力,适用于 Agentic Coding 场景,在多个当前基准排行榜中,在同体量开源模型中表现领先。在执行复杂智能体任务时,工具调用的指令遵循性更强,进一步提升了 Artifacts 和 Agentic Coding 的前端美学和长期任务完成效率。",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7 是智谱最新旗舰模型,专为智能体编程场景优化,具备更强的编程能力、长期任务规划与工具协作能力。在多个公开基准测试中,在开源模型中表现领先。通用能力方面,回复更简洁自然,写作更具沉浸感。在复杂智能体任务中,工具调用时的指令遵循能力更强,Artifacts 与智能体编程的前端美学与长期任务完成效率也进一步提升。",
|
|
567
565
|
"glm-4.description": "GLM-4 是 2024 年 1 月发布的旧版旗舰模型,现已由更强的 GLM-4-0520 替代。",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash 专注于高效的单图像理解,适用于实时或批量图像处理等快速分析场景。",
|
|
@@ -654,8 +652,8 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini:更小、更低成本的 Codex 变体,专为智能编程任务优化。",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex:GPT-5.1 的一个变体,专为复杂代码/智能体工作流优化,适用于 Responses API。",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 — 一款旗舰模型,专为编程与智能体任务优化,支持可配置的推理深度与更长上下文。",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat 是
|
|
658
|
-
"gpt-5.2-pro.description": "GPT-5.2 Pro
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat 是 ChatGPT 的最新对话版本,带来最新的对话体验改进。",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro:更智能、更精准的 GPT-5.2 变体(仅限 Responses API),适用于复杂问题和多轮推理。",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2 是一款旗舰模型,适用于编程与智能体工作流,具备更强推理能力与长上下文处理能力。",
|
|
660
658
|
"gpt-5.description": "跨领域编程与智能体任务的最佳模型。GPT-5 在准确性、速度、推理、上下文感知、结构化思维与问题解决方面实现飞跃。",
|
|
661
659
|
"gpt-audio.description": "GPT Audio 是支持音频输入/输出的通用对话模型,可通过 Chat Completions API 使用。",
|
|
@@ -966,6 +964,9 @@
|
|
|
966
964
|
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini 是 GPT-5.1-Codex 的小型快速版本,适用于对延迟和成本敏感的编程场景。",
|
|
967
965
|
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex 是 GPT-5.1 的编程优化版本,适用于大型重构、复杂调试和长时间自主编程任务。",
|
|
968
966
|
"openai/gpt-5.1.description": "GPT-5.1 是 GPT-5 系列的最新旗舰,在通用推理、指令执行和对话自然性方面相较 GPT-5 有显著提升,适用于广泛任务。",
|
|
967
|
+
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat 是 ChatGPT 的变体,用于体验最新的对话改进。",
|
|
968
|
+
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro:更智能、更精准的 GPT-5.2 变体(仅限 Responses API),适用于更复杂的问题和更长的多轮推理。",
|
|
969
|
+
"openai/gpt-5.2.description": "GPT-5.2 是一款旗舰模型,专为编程和智能体工作流设计,具备更强的推理能力和长上下文处理能力。",
|
|
969
970
|
"openai/gpt-5.description": "GPT-5 是 OpenAI 的高性能模型,适用于各种生产和研究任务。",
|
|
970
971
|
"openai/gpt-oss-120b.description": "一款功能强大的通用大语言模型,具备强大且可控的推理能力。",
|
|
971
972
|
"openai/gpt-oss-20b.description": "一款紧凑的开源权重语言模型,优化用于低延迟和资源受限环境,包括本地和边缘部署。",
|
|
@@ -1223,7 +1224,6 @@
|
|
|
1223
1224
|
"z-ai/glm-4.5.description": "GLM 4.5 是 Z.AI 的旗舰模型,采用混合推理,优化用于工程和长上下文任务。",
|
|
1224
1225
|
"z-ai/glm-4.6.description": "GLM 4.6 是 Z.AI 的旗舰模型,具备更长上下文和更强编程能力。",
|
|
1225
1226
|
"z-ai/glm-4.7.description": "GLM-4.7 是智谱最新旗舰模型,具备更强通用能力、自然简洁的回复风格与沉浸式写作体验。",
|
|
1226
|
-
"zai-glm-4.6.description": "在编程和推理任务中表现出色,支持流式输出和工具调用,适用于智能体编程和复杂推理。",
|
|
1227
1227
|
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air 是一款面向智能体应用的基础模型,采用专家混合架构,优化用于工具使用、网页浏览、软件工程和前端编程,并可与 Claude Code 和 Roo Code 等代码智能体集成。采用混合推理,兼顾复杂推理与日常任务。",
|
|
1228
1228
|
"zai-org/GLM-4.5.description": "GLM-4.5 是一款面向智能体应用的基础模型,采用专家混合架构,深度优化用于工具使用、网页浏览、软件工程和前端编程,并可与 Claude Code 和 Roo Code 等代码智能体集成。采用混合推理,兼顾复杂推理与日常任务。",
|
|
1229
1229
|
"zai-org/GLM-4.5V.description": "GLM-4.5V 是智谱 AI 最新的多模态语言模型,基于 GLM-4.5-Air 旗舰文本模型(总参数 106B,激活参数 12B),采用 MoE 架构,在成本更低的同时保持强大性能。继承 GLM-4.1V-Thinking 路线,加入 3D-RoPE 提升三维空间推理能力。通过预训练、SFT 和 RL 优化,支持图像、视频和长文档,在 41 个公开多模态基准中排名领先。提供“思考模式”切换,平衡速度与深度。",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。",
|
|
30
30
|
"jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
|
|
31
31
|
"lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
|
|
32
|
-
"lobehub.description": "LobeHub 云端使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。",
|
|
33
32
|
"minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI,拥有多模态基础模型,包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
|
|
34
33
|
"mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。",
|
|
35
34
|
"modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。",
|
|
@@ -8,6 +8,7 @@
|
|
|
8
8
|
"codes.DELETED_ACCOUNT_EMAIL": "此電子郵件已與已刪除的帳戶相關聯,無法用於註冊",
|
|
9
9
|
"codes.EMAIL_CAN_NOT_BE_UPDATED": "目前帳號的電子郵件無法修改",
|
|
10
10
|
"codes.EMAIL_NOT_ALLOWED": "此電子郵件不允許用於註冊",
|
|
11
|
+
"codes.EMAIL_NOT_FOUND": "此帳戶未綁定電子郵件。請確認您的帳戶是否已綁定電子郵件。",
|
|
11
12
|
"codes.EMAIL_NOT_VERIFIED": "請先完成電子郵件驗證",
|
|
12
13
|
"codes.FAILED_TO_CREATE_SESSION": "建立會話失敗",
|
|
13
14
|
"codes.FAILED_TO_CREATE_USER": "建立使用者失敗",
|
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "一個擁有 70 億參數的模型,品質優於 Phi-3-mini,專注於高品質、需推理的資料。",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Phi-3-mini 模型的更新版本。",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Phi-3-vision 模型的更新版本。",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 是一款開源的大型語言模型,專為代理能力進行優化,擅長程式設計、工具使用、指令遵循與長期規劃。該模型支援多語言軟體開發與複雜的多步驟工作流程執行,在 SWE-bench Verified 測試中獲得 74.0 分,並在多語言場景中超越 Claude Sonnet 4.5。",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct 是 Qwen2 系列中的一款 70 億參數指令微調大型語言模型。它採用 Transformer 架構,結合 SwiGLU、注意力 QKV 偏置與分組查詢注意力機制,能處理大規模輸入內容。該模型在語言理解、生成、多語言任務、程式碼、數學與推理等方面表現優異,超越多數開源模型,並可與商業模型競爭。在多項基準測試中表現優於 Qwen1.5-7B-Chat。",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct 是阿里雲最新大型語言模型系列的一部分。此 70 億參數模型在程式碼與數學方面有顯著提升,支援超過 29 種語言,並加強了指令遵循、結構化資料理解與結構化輸出(特別是 JSON)能力。",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct 是阿里雲最新專注於程式碼的語言模型。基於 Qwen2.5 架構並訓練於 5.5 兆詞元上,顯著提升了程式碼生成、推理與修復能力,同時保有數學與通用能力,為開發智能程式代理提供堅實基礎。",
|
|
@@ -271,20 +272,20 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
|
|
272
273
|
"claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
273
274
|
"claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的次世代最快模型。相較於 Claude 3 Haiku,其在多項技能上皆有提升,並在多項智能基準測試中超越先前最大模型 Claude 3 Opus。",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智慧的模型,也是市場上首款混合推理模型。它能夠即時回應,或進行可視化的逐步推理。Sonnet 尤其擅長程式設計、資料科學、視覺處理與代理任務。",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 目前最快且最智慧的 Haiku 模型,具備閃電般的速度與延伸推理能力。",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
|
|
283
|
-
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic
|
|
284
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,專為處理高度複雜任務而設計,表現出色,具備卓越的智能、流暢度與理解力。",
|
|
285
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜任務而設計,表現卓越,具備優異的智能、流暢度與理解能力。",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 能夠即時回應,或進行可視化的逐步思考過程。",
|
|
288
289
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp 是 V3.2 的實驗版本,銜接下一代架構。在 V3.1-Terminus 基礎上加入 DeepSeek Sparse Attention(DSA),提升長上下文訓練與推理效率,並針對工具使用、長文理解與多步推理進行優化,適合探索高效推理與大上下文應用。",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 是一款擁有 671B 參數的 MoE 模型,採用 MLA 與 DeepSeekMoE 架構,具備無損負載平衡,訓練與推理效率高。預訓練資料達 14.8T 高品質 token,並經過 SFT 與 RL 微調,表現超越其他開源模型,接近封閉模型領先水準。",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat(67B)是一款創新模型,具備深層語言理解與互動能力。",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "一款高效能的先進大模型,擅長推理、數學與程式設計。",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek
|
|
358
|
+
"deepseek-chat.description": "一款結合通用與程式能力的新型開源模型。它保留了聊天模型的對話能力與程式模型的強大編碼能力,並具備更佳的偏好對齊。DeepSeek-V2.5 同時提升了寫作與指令遵循能力。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 推理模式在給出最終答案前會輸出思考鏈,以提升準確性。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超輕量模型,適合簡單問答、分類與低成本推理。",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具備 32K 上下文,適合複雜推理與多輪對話。",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 預覽版是一款思考模型預覽,用於評估與測試。",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字節跳動 Seed 團隊打造,支援文字與圖像輸入,實現高度可控且高品質的圖像生成。",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是來自字節跳動 Seed 團隊的圖像生成模型,支援文字與圖像輸入,能夠高品質且高度可控地生成圖像,並可根據文字提示生成圖像。",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型專注於圖像編輯,支援文字與圖像輸入。",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文字與參考圖像輸入,實現目標區域編輯與複雜場景轉換。",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款圖像生成模型,偏好更真實自然的美學風格。",
|
|
@@ -481,7 +480,7 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "一款強大的原生多模態圖像生成模型。",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "來自 Google 的高品質圖像生成模型。",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模態模型,支援透過對話進行圖像生成與編輯。",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "來自 Qwen
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "來自 Qwen 團隊的專業圖像編輯模型,支援語義與外觀編輯,能精確編輯中英文文字,並實現風格轉換、物體旋轉等高品質編輯效果。",
|
|
485
484
|
"fal-ai/qwen-image.description": "來自 Qwen 團隊的強大圖像生成模型,具備優異的中文文字渲染能力與多樣化的視覺風格。",
|
|
486
485
|
"flux-1-schnell.description": "來自黑森林實驗室的 12B 參數文字轉圖像模型,透過潛在對抗擴散蒸餾技術,在 1 至 4 步內生成高品質圖像。其表現媲美封閉式替代方案,並以 Apache-2.0 授權釋出,供個人、研究與商業用途。",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] 是一款開放權重的蒸餾模型,僅限非商業用途。它保有接近專業水準的圖像品質與指令遵循能力,同時運行更高效,資源使用優於同等大小的標準模型。",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash 的一個變體,針對成本效益與低延遲進行最佳化。",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "Gemini 2.0 Flash 的一個變體,針對成本效益與低延遲進行最佳化。",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash 提供次世代功能,包括極速處理、原生工具使用、多模態生成,以及 100 萬 token 的上下文視窗。",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana 是 Google 最新、最快且最有效率的原生多模態模型,支援對話式圖像生成與編輯。",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana 是 Google 最新、最快且最有效率的原生多模態模型,支援對話式圖像生成與編輯。",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana 是 Google 最新、最快且最有效率的原生多模態模型,支援對話式圖像生成與編輯。",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana 是 Google 最新、最快且最有效率的原生多模態模型,支援對話式圖像生成與編輯。",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview 是 Google 體積最小、性價比最高的模型,專為大規模應用而設計。",
|
|
@@ -530,7 +527,7 @@
|
|
|
530
527
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗艦推理模型,支援長上下文,適用於處理複雜任務。",
|
|
531
528
|
"gemini-3-flash-preview.description": "Gemini 3 Flash 是一款以速度為核心的智慧模型,結合尖端智能與卓越的搜尋基礎能力。",
|
|
532
529
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,支援多模態對話。",
|
|
533
|
-
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google
|
|
530
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,同時支援多模態聊天功能。",
|
|
534
531
|
"gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最強大的智能代理與情境編碼模型,具備頂尖推理能力、豐富視覺表現與深度互動。",
|
|
535
532
|
"gemini-flash-latest.description": "Gemini Flash 最新版本",
|
|
536
533
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 最新版本",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max 是功能最完整的版本,支援網頁搜尋與多種內建插件。其核心能力、系統角色與函數調用皆經過全面優化,能在複雜應用場景中展現卓越表現。",
|
|
544
541
|
"generalv3.description": "Spark Pro 是一款針對專業領域優化的高效能大型語言模型,專注於數學、程式設計、醫療與教育,支援網頁搜尋與天氣、日期等內建插件。其在複雜知識問答、語言理解與高階文本創作方面表現出色,是專業應用的理想選擇。",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520 是最新版本模型,專為高度複雜與多樣化任務設計,具備卓越效能。",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7 是智譜 AI 最新的旗艦模型。GLM-4.7 強化了程式能力、長期任務規劃與工具協作,適用於 Agentic Coding 場景,在多項公開基準測試中於開源模型中表現領先。其通用能力亦有所提升,回應更簡潔自然,寫作更具沉浸感。在複雜代理任務中,工具調用時的指令遵循能力更強,並進一步提升 Artifacts 與 Agentic Coding 前端的美學與長期任務完成效率。• 更強的程式能力:多語言編碼與終端代理表現顯著提升;GLM-4.7 現可在 Claude Code、Kilo Code、TRAE、Cline、Roo Code 等框架中實現「先思考,後行動」機制,處理複雜任務更穩定。• 前端美學提升:GLM-4.7 在前端生成品質上有顯著進展,能生成更具視覺吸引力的網站、簡報與海報。• 更強的工具調用能力:GLM-4.7 在 BrowseComp 網頁任務評估中得分 67,在 τ²-Bench 互動工具調用評估中得分 84.7,超越 Claude Sonnet 4.5,成為開源 SOTA。• 推理能力提升:數學與推理能力大幅增強,在 HLE(「人類最後考試」)基準測試中得分 42.8%,較 GLM-4.6 提升 41%,超越 GPT-5.1。• 通用能力增強:GLM-4.7 對話更簡潔、智慧且具人性;寫作與角色扮演更具文學性與沉浸感。",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat 在語義、數學、推理、程式與知識方面表現優異,並支援網頁瀏覽、程式執行、自訂工具調用與長文本推理,支援包括日語、韓語、德語在內的 26 種語言。",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air 是一款高性價比選擇,效能接近 GLM-4,速度快且成本低。",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air 是一款高性價比選擇,效能接近 GLM-4,速度快且成本低。",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking 是目前已知最強的約 10B 視覺語言模型,涵蓋影片理解、圖像問答、學科解題、OCR、文件與圖表閱讀、GUI 智能體、前端編碼與語義對齊等 SOTA 任務。透過先進強化學習與思考鏈推理,提升準確性與豐富度,超越傳統非思考模型的結果與可解釋性。",
|
|
559
556
|
"glm-4.5-air.description": "GLM-4.5 輕量版,兼顧效能與成本,支援靈活的混合思考模式。",
|
|
560
557
|
"glm-4.5-airx.description": "GLM-4.5-Air 快速版,回應更迅速,適用於大規模高速應用。",
|
|
561
|
-
"glm-4.5-flash.description": "免費的 GLM-4.5 版本,在推理、程式與智能體任務中表現強勁。",
|
|
562
558
|
"glm-4.5-x.description": "GLM-4.5 快速版,生成速度高達每秒 100 個 token,效能出色。",
|
|
563
559
|
"glm-4.5.description": "智譜旗艦模型,支援可切換思考模式,整體表現達開源 SOTA,支援最多 128K 上下文。",
|
|
564
560
|
"glm-4.5v.description": "智譜新一代 MoE 視覺推理模型,總參數 106B,啟用 12B,於圖像、影片、文件理解與 GUI 任務中,在同級開源多模態模型中達到 SOTA 水準。",
|
|
565
561
|
"glm-4.6.description": "智譜最新旗艦模型 GLM-4.6(3550 億參數)在高階編碼、長文本處理、推理與智能體能力上全面超越前代,程式能力與 Claude Sonnet 4 相當,成為中國頂尖的編碼模型。",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flash 作為 30B 級別的 SOTA 模型,提供在效能與效率間取得平衡的新選擇。它強化了程式能力、長期任務規劃與工具協作,適用於 Agentic Coding 場景,在多項當前基準排行榜中於同級開源模型中表現領先。在執行複雜智慧代理任務時,其工具調用的指令遵循能力更強,並進一步提升 Artifacts 與 Agentic Coding 前端的美學與長期任務完成效率。",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flash 作為 30B 級別的 SOTA 模型,提供在效能與效率間取得平衡的新選擇。它強化了程式能力、長期任務規劃與工具協作,適用於 Agentic Coding 場景,在多項當前基準排行榜中於同級開源模型中表現領先。在執行複雜智慧代理任務時,其工具調用的指令遵循能力更強,並進一步提升 Artifacts 與 Agentic Coding 前端的美學與長期任務完成效率。",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7 是智譜最新旗艦模型,針對智能體編碼場景進行強化,提升了編碼能力、長期任務規劃與工具協作能力。在多個公開基準測試中於開源模型中表現領先。通用能力方面,回應更簡潔自然,寫作更具沉浸感。對於複雜智能體任務,工具調用時的指令遵循能力更強,並進一步提升了 Artifacts 與智能體編碼的前端美學與長期任務完成效率。",
|
|
567
565
|
"glm-4.description": "GLM-4 是 2024 年 1 月推出的舊版旗艦模型,現已由更強的 GLM-4-0520 取代。",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash 專注於單張圖像的高效理解,適用於即時或批次圖像處理等快速分析場景。",
|
|
@@ -654,8 +652,8 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini:較小且成本更低的 Codex 變體,針對智能編碼任務進行最佳化。",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex:GPT-5.1 的變體,針對複雜程式碼與智能體工作流程進行最佳化,適用於 Responses API。",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 — 旗艦模型,針對編碼與智能體任務進行最佳化,具備可調整的推理深度與更長的上下文支援。",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat 是
|
|
658
|
-
"gpt-5.2-pro.description": "GPT-5.2 Pro
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat 是 ChatGPT 的最新對話版本,帶來最新的對話體驗改進。",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro:更智慧、更精確的 GPT-5.2 變體(僅限 Responses API),適用於高難度問題與多輪長推理。",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2 是針對編碼與智能體工作流程的旗艦模型,具備更強推理能力與長上下文表現。",
|
|
660
658
|
"gpt-5.description": "跨領域編碼與智能體任務的最佳模型。GPT-5 在準確性、速度、推理、上下文理解、結構化思維與問題解決方面實現飛躍。",
|
|
661
659
|
"gpt-audio.description": "GPT Audio 是一款通用聊天模型,支援音訊輸入/輸出,並整合於 Chat Completions API 中。",
|
|
@@ -966,6 +964,9 @@
|
|
|
966
964
|
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini 是 GPT-5.1-Codex 的小型快速版本,適合對延遲與成本敏感的程式設計場景。",
|
|
967
965
|
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex 是針對軟體工程與程式工作流程優化的 GPT-5.1 變體,適用於大型重構、複雜除錯與長時間自動程式任務。",
|
|
968
966
|
"openai/gpt-5.1.description": "GPT-5.1 是 GPT-5 系列的最新旗艦版本,在通用推理、指令遵循與對話自然度方面相較 GPT-5 有顯著提升,適用於廣泛任務。",
|
|
967
|
+
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat 是 ChatGPT 的變體,用於體驗最新的對話改進。",
|
|
968
|
+
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro:更智慧、更精確的 GPT-5.2 變體(僅限 Responses API),適用於更困難的問題與更長的多輪推理。",
|
|
969
|
+
"openai/gpt-5.2.description": "GPT-5.2 是一款旗艦模型,專為程式設計與代理工作流程打造,具備更強的推理與長上下文處理能力。",
|
|
969
970
|
"openai/gpt-5.description": "GPT-5 是 OpenAI 的高效能模型,適用於各類生產與研究任務。",
|
|
970
971
|
"openai/gpt-oss-120b.description": "一款具備強大可控推理能力的通用大型語言模型。",
|
|
971
972
|
"openai/gpt-oss-20b.description": "一款緊湊型開源權重語言模型,針對低延遲與資源受限環境(如本地與邊緣部署)進行優化。",
|
|
@@ -1223,7 +1224,6 @@
|
|
|
1223
1224
|
"z-ai/glm-4.5.description": "GLM 4.5 是 Z.AI 的旗艦模型,採用混合推理設計,針對工程與長上下文任務進行優化。",
|
|
1224
1225
|
"z-ai/glm-4.6.description": "GLM 4.6 是 Z.AI 的旗艦模型,擴展上下文長度並增強編碼能力。",
|
|
1225
1226
|
"z-ai/glm-4.7.description": "GLM-4.7 是智譜最新旗艦模型,具備更強通用能力、回應更自然簡潔,並提供更具沉浸感的寫作體驗。",
|
|
1226
|
-
"zai-glm-4.6.description": "在編碼與推理任務中表現優異,支援串流與工具調用,適合代理式編碼與複雜推理。",
|
|
1227
1227
|
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air 是一款基於專家混合架構的代理應用基礎模型,針對工具使用、網頁瀏覽、軟體工程與前端編碼進行優化,並可與 Claude Code、Roo Code 等程式代理整合。採用混合推理處理複雜與日常任務。",
|
|
1228
1228
|
"zai-org/GLM-4.5.description": "GLM-4.5 是一款基於專家混合架構的代理應用基礎模型,深度優化工具使用、網頁瀏覽、軟體工程與前端編碼,並可與 Claude Code、Roo Code 等程式代理整合。採用混合推理處理複雜與日常任務。",
|
|
1229
1229
|
"zai-org/GLM-4.5V.description": "GLM-4.5V 是智譜 AI 最新 VLM,基於 GLM-4.5-Air 旗艦文本模型(總參數 106B,啟用 12B),採用 MoE 架構,在成本較低的情況下提供強大效能。延續 GLM-4.1V-Thinking 路線,加入 3D-RoPE 提升三維空間推理能力。透過預訓練、SFT 與強化學習優化,支援圖像、影片與長文檔,在 41 項公開多模態基準中名列前茅。提供「思考模式」切換,讓用戶在速度與深度間取得平衡。",
|