@lobehub/lobehub 2.0.0-next.202 → 2.0.0-next.203
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/models.json +48 -7
- package/locales/ar/providers.json +0 -1
- package/locales/bg-BG/models.json +5 -7
- package/locales/bg-BG/providers.json +0 -1
- package/locales/de-DE/models.json +47 -6
- package/locales/de-DE/providers.json +0 -1
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/models.json +36 -10
- package/locales/es-ES/providers.json +0 -1
- package/locales/fa-IR/models.json +5 -7
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fr-FR/models.json +36 -7
- package/locales/fr-FR/providers.json +0 -1
- package/locales/it-IT/models.json +5 -7
- package/locales/it-IT/providers.json +0 -1
- package/locales/ja-JP/models.json +49 -10
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ko-KR/models.json +48 -7
- package/locales/ko-KR/providers.json +0 -1
- package/locales/nl-NL/models.json +4 -4
- package/locales/nl-NL/providers.json +0 -1
- package/locales/pl-PL/models.json +30 -5
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pt-BR/models.json +51 -6
- package/locales/pt-BR/providers.json +0 -1
- package/locales/ru-RU/models.json +5 -7
- package/locales/ru-RU/providers.json +0 -1
- package/locales/tr-TR/models.json +5 -7
- package/locales/tr-TR/providers.json +0 -1
- package/locales/vi-VN/models.json +5 -7
- package/locales/vi-VN/providers.json +0 -1
- package/locales/zh-CN/models.json +61 -6
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/models.json +32 -7
- package/locales/zh-TW/providers.json +0 -1
- package/package.json +1 -1
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực, kết hợp khả năng hiểu và sinh văn bản mạnh mẽ cho các tình huống sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic, cải thiện toàn diện
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic. So với Claude 3 Haiku, nó cải thiện toàn diện về kỹ năng và vượt qua mô hình lớn nhất trước đó là Claude 3 Opus trong nhiều bài kiểm tra trí tuệ.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku cung cấp phản hồi nhanh cho các tác vụ nhẹ.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic và là mô hình lai đầu tiên về suy luận trên thị trường. Nó có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng mà người dùng có thể quan sát. Sonnet đặc biệt mạnh về lập trình, khoa học dữ liệu, thị giác máy tính và các tác vụ đại lý.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn và triển khai quy mô lớn đáng tin cậy.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic,
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ cực nhanh và khả năng suy luận mở rộng.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp cao, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 có thể tạo phản hồi gần như tức thì hoặc suy nghĩ từng bước với quy trình hiển thị rõ ràng.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.",
|
|
@@ -355,7 +355,6 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 là mô hình lập luận thế hệ mới với khả năng suy luận phức tạp và chuỗi tư duy mạnh mẽ, phù hợp cho các tác vụ phân tích chuyên sâu.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 là mô hình lập luận thế hệ mới với khả năng suy luận phức tạp và chuỗi tư duy mạnh mẽ, phù hợp cho các tác vụ phân tích chuyên sâu.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 là mô hình thị giác-ngôn ngữ MoE dựa trên DeepSeekMoE-27B với kích hoạt thưa, đạt hiệu suất cao chỉ với 4.5B tham số hoạt động. Mô hình vượt trội trong các tác vụ hỏi đáp hình ảnh, OCR, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh.",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek V3.2 cân bằng giữa khả năng lập luận và độ dài đầu ra, phù hợp cho hỏi đáp hàng ngày và tác vụ tác nhân. Trên các chuẩn đánh giá công khai, mô hình đạt mức tương đương GPT-5 và là mô hình mã nguồn mở đầu tiên tích hợp tư duy vào việc sử dụng công cụ, dẫn đầu trong các đánh giá tác nhân mã nguồn mở.",
|
|
359
358
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B là mô hình ngôn ngữ lập trình được huấn luyện trên 2 nghìn tỷ token (87% mã nguồn, 13% văn bản tiếng Trung/Anh). Mô hình hỗ trợ cửa sổ ngữ cảnh 16K và nhiệm vụ điền vào giữa, cung cấp khả năng hoàn thành mã ở cấp độ dự án và chèn đoạn mã.",
|
|
360
359
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 là mô hình mã nguồn mở MoE chuyên về lập trình, đạt hiệu suất tương đương GPT-4 Turbo.",
|
|
361
360
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 là mô hình mã nguồn mở MoE chuyên về lập trình, đạt hiệu suất tương đương GPT-4 Turbo.",
|
|
@@ -378,7 +377,6 @@
|
|
|
378
377
|
"deepseek-r1-fast-online.description": "Phiên bản đầy đủ DeepSeek R1 nhanh với tìm kiếm web thời gian thực, kết hợp khả năng 671B và phản hồi nhanh hơn.",
|
|
379
378
|
"deepseek-r1-online.description": "Phiên bản đầy đủ DeepSeek R1 với 671B tham số và tìm kiếm web thời gian thực, mang lại khả năng hiểu và tạo nội dung mạnh mẽ hơn.",
|
|
380
379
|
"deepseek-r1.description": "DeepSeek-R1 sử dụng dữ liệu khởi động lạnh trước học tăng cường và đạt hiệu suất tương đương OpenAI-o1 trong toán học, lập trình và lập luận.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking là mô hình lập luận sâu tạo chuỗi tư duy trước khi đưa ra kết quả nhằm tăng độ chính xác, đạt kết quả hàng đầu trong các cuộc thi và khả năng lập luận tương đương Gemini-3.0-Pro.",
|
|
382
380
|
"deepseek-v2.description": "DeepSeek V2 là mô hình MoE hiệu quả cho xử lý tiết kiệm chi phí.",
|
|
383
381
|
"deepseek-v2:236b.description": "DeepSeek V2 236B là mô hình tập trung vào mã nguồn của DeepSeek với khả năng tạo mã mạnh mẽ.",
|
|
384
382
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật về lập trình, khả năng kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Tổ chức mã nguồn mở tập trung vào nghiên cứu mô hình lớn và công cụ, cung cấp nền tảng hiệu quả, dễ sử dụng để tiếp cận các mô hình và thuật toán tiên tiến.",
|
|
30
30
|
"jina.description": "Thành lập năm 2020, Jina AI là công ty hàng đầu về AI tìm kiếm. Bộ công cụ tìm kiếm của họ bao gồm mô hình vector, bộ xếp hạng lại và mô hình ngôn ngữ nhỏ để xây dựng ứng dụng tìm kiếm sinh và đa phương thức chất lượng cao.",
|
|
31
31
|
"lmstudio.description": "LM Studio là ứng dụng máy tính để phát triển và thử nghiệm LLM ngay trên máy của bạn.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud sử dụng API chính thức để truy cập các mô hình AI và tính mức sử dụng bằng Tín dụng dựa trên số lượng token của mô hình.",
|
|
33
32
|
"minimax.description": "Thành lập năm 2021, MiniMax xây dựng AI đa năng với các mô hình nền tảng đa phương thức, bao gồm mô hình văn bản MoE hàng nghìn tỷ tham số, mô hình giọng nói và thị giác, cùng các ứng dụng như Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral cung cấp các mô hình tổng quát, chuyên biệt và nghiên cứu tiên tiến cho suy luận phức tạp, tác vụ đa ngôn ngữ và tạo mã, với khả năng gọi hàm cho tích hợp tùy chỉnh.",
|
|
35
34
|
"modelscope.description": "ModelScope là nền tảng mô hình dưới dạng dịch vụ của Alibaba Cloud, cung cấp nhiều mô hình AI và dịch vụ suy luận.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
|
|
272
272
|
"claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
273
273
|
"claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型。相较于 Claude 3 Haiku,其在多项能力上均有提升,并在众多智能基准测试中超越了此前的最大模型 Claude 3 Opus。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智能的模型,也是市场上首个混合推理模型。它既可实现近乎即时的响应,也支持用户可见的逐步推理过程。Sonnet 在编程、数据科学、视觉处理和智能体任务方面表现尤为出色。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快、最智能的 Haiku 模型,具备闪电般的响应速度和增强的推理能力。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 可实现近乎即时的响应,或通过可视化过程进行逐步推理。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活机制,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位任务。",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek
|
|
358
|
+
"deepseek-chat.description": "一款结合通用能力与编程能力的开源模型。它保留了聊天模型的对话能力和编程模型的强大编程能力,并在偏好对齐方面表现更佳。DeepSeek-V2.5 还提升了写作和指令遵循能力。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练数据达 2T(87% 代码,13% 中英文文本)。引入 16K 上下文窗口与中间填充任务,支持项目级代码补全与片段填充。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编码模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编码模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支持实时网页搜索,结合 671B 规模能力与更快响应。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版,具备 671B 参数与实时网页搜索能力,提供更强理解与生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,数学、编程与推理任务表现可与 OpenAI-o1 相媲美。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 推理模式在给出最终答案前输出思维链,以提升准确性。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。",
|
|
@@ -471,6 +471,61 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超轻量模型,适用于简单问答、分类与低成本推理。",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文,适用于复杂推理与多轮对话。",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款思考模型预览版,用于评估与测试。",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字节跳动 Seed 团队推出的图像生成模型,支持文本和图像输入,具备高度可控的高质量图像生成能力,可根据文本提示生成图像。",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型专注于图像编辑,支持文本和图像输入。",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [专业版] 支持文本和参考图像输入,实现目标区域编辑和复杂场景的整体变换。",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [开发版] 是一款图像生成模型,偏好生成更真实自然的图像风格。",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] 是一款拥有 120 亿参数的图像生成模型,专为快速高质量输出而设计。",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "一款强大的原生多模态图像生成模型。",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "来自 Google 的高质量图像生成模型。",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持通过对话生成和编辑图像。",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "来自 Qwen 团队的专业图像编辑模型,支持语义和外观编辑,精确处理中英文文本,并实现风格迁移、物体旋转等高质量编辑。",
|
|
483
|
+
"fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具备出色的中文文本渲染能力和多样化视觉风格。",
|
|
484
|
+
"flux-1-schnell.description": "来自 Black Forest Labs 的 120 亿参数文本转图像模型,采用潜在对抗扩散蒸馏技术,在 1-4 步内生成高质量图像。性能媲美闭源模型,采用 Apache-2.0 许可,适用于个人、研究和商业用途。",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [开发版] 是一款开源权重蒸馏模型,仅限非商业用途。在保持接近专业图像质量和指令遵循能力的同时,运行效率更高,资源利用优于同等规模标准模型。",
|
|
486
|
+
"flux-kontext-max.description": "最先进的上下文图像生成与编辑模型,结合文本与图像输入,实现精确且连贯的结果。",
|
|
487
|
+
"flux-kontext-pro.description": "最先进的上下文图像生成与编辑模型,结合文本与图像输入,实现精确且连贯的结果。",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged 融合了“开发版”中的深度特征与“Schnell”版本的高速优势,拓展性能边界,拓宽应用场景。",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "超高分辨率图像生成,输出达 400 万像素,10 秒内生成清晰图像。",
|
|
490
|
+
"flux-pro-1.1.description": "升级版专业图像生成模型,图像质量卓越,提示词响应精准。",
|
|
491
|
+
"flux-pro.description": "顶级商业图像生成模型,图像质量无与伦比,输出多样丰富。",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] 是最先进的开源少步图像生成模型,超越同类竞品,甚至优于 Midjourney v6.0 和 DALL-E 3(高清版)等强大非蒸馏模型。其精调保留了预训练多样性,显著提升视觉质量、指令遵循、尺寸/比例变化、字体处理和输出多样性。",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell 是一款高性能图像生成模型,支持快速多风格输出。",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001(调优版)为复杂任务提供稳定、可调的性能。",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002(调优版)为复杂任务提供强大的多模态支持。",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro 是 Google 的高性能 AI 模型,适用于大规模任务。",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 是一款高效的多模态模型,适用于广泛应用场景。",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 是一款高效的多模态模型,适用于大规模部署。",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 是最新实验模型,在文本和多模态应用中表现显著提升。",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B 是一款高效的多模态模型,适用于大规模部署。",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B 是一款高效的多模态模型,适用于广泛应用场景。",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 优化了多模态处理能力,适用于复杂任务。",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash 是 Google 最新的多模态 AI 模型,处理速度快,支持文本、图像和视频输入,适用于高效任务扩展。",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 是一款可扩展的多模态 AI 解决方案,适用于复杂任务。",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 是最新的生产就绪模型,输出质量更高,尤其适用于数学、长上下文和视觉任务。",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 提供强大的多模态处理能力,为应用开发提供更大灵活性。",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 应用了最新优化,提升多模态处理效率。",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro 支持最多 200 万个 token,是一款适用于复杂任务的中型多模态模型。",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash 提供下一代功能,包括卓越速度、原生工具使用、多模态生成和 100 万 token 上下文窗口。",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Gemini 2.0 Flash 实验模型,支持图像生成。",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Gemini 2.0 Flash 变体,优化成本效率和低延迟。",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash 变体,优化成本效率和低延迟。",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Gemini 2.0 Flash 变体,优化成本效率和低延迟。",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash 提供下一代功能,包括卓越速度、原生工具使用、多模态生成和 100 万 token 上下文窗口。",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview 是 Google 最小、性价比最高的模型,适用于大规模使用。",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite 2025 年 9 月 25 日预览版发布。",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite 是 Google 最小、性价比最高的模型,适用于大规模使用。",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview 是 Google 性价比最高的模型,具备完整能力。",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash 2025 年 9 月 25 日预览版发布。",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash 是 Google 性价比最高的模型,具备完整能力。",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview 是 Google 最先进的推理模型,擅长代码、数学和 STEM 问题推理,能分析大规模数据集、代码库和长文档。",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview 是 Google 最先进的推理模型,擅长代码、数学和 STEM 问题推理,能分析大规模数据集、代码库和长文档。",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview 是 Google 最先进的推理模型,擅长代码、数学和 STEM 问题推理,能分析大规模数据集、代码库和长文档。",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗舰推理模型,支持长上下文,适用于复杂任务。",
|
|
474
529
|
"gemini-flash-latest.description": "Latest release of Gemini Flash",
|
|
475
530
|
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
|
|
476
531
|
"gemini-pro-latest.description": "Latest release of Gemini Pro",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。",
|
|
30
30
|
"jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
|
|
31
31
|
"lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud 使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。",
|
|
33
32
|
"minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI,拥有多模态基础模型,包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
|
|
34
33
|
"mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。",
|
|
35
34
|
"modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
|
|
272
272
|
"claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
273
273
|
"claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 最新一代中速度最快的模型。相較於 Claude 3 Haiku,其在多項技能上皆有提升,並在多項智能基準測試中超越先前最大模型 Claude 3 Opus。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最具智慧的模型,也是市場上首個混合推理模型。它能夠即時回應,或進行可視化的逐步推理。Sonnet 尤其擅長程式設計、資料科學、視覺處理與智能代理任務。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 最快且最聰明的 Haiku 模型,具備閃電般的速度與延伸推理能力。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜任務而設計,表現出色,具備卓越的智能、流暢度與理解力。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 能夠即時回應,或進行可視化的逐步思考過程。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek
|
|
358
|
+
"deepseek-chat.description": "一款結合通用與程式能力的開源模型。保留聊天模型的對話能力與程式模型的強大編碼能力,並提升偏好對齊。DeepSeek-V2.5 也在寫作與指令遵循方面有所進步。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 推理模式會在最終答案前輸出思考鏈,以提升準確性。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。",
|
|
@@ -456,6 +456,31 @@
|
|
|
456
456
|
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL 預覽版是一款多模態模型,適用於圖文理解與生成,支援視覺問答與內容理解。",
|
|
457
457
|
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL 是一款成熟的多模態模型,適用於生產級圖文理解與識別。",
|
|
458
458
|
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B 是一款開源多模態模型,支援圖文理解與推理。",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "文心 5.0 思考版是一款原生全模態旗艦模型,整合文字、圖像、音訊與影片建模,全面升級複雜問答、創作與智能體場景的能力。",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "文心 5.0 思考預覽版是一款原生全模態旗艦模型,整合文字、圖像、音訊與影片建模,全面升級複雜問答、創作與智能體場景的能力。",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE 角色 8K 是一款面向 IP 角色塑造與長期陪伴對話的角色對話模型。",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "ERNIE 角色小說 8K 預覽版是一款面向角色與情節創作的模型預覽,用於功能評估與測試。",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE 角色小說 8K 是一款面向小說與情節創作的角色模型,適合長篇故事生成。",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit 是一款支援擦除、重繪與變體生成的圖像編輯模型。",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K 是一款輕量級通用模型,適用於成本敏感的日常問答與內容生成。",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K 是一款輕量高效能模型,適用於延遲與成本敏感場景。",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE 小說 8K 專為長篇小說與 IP 情節創作打造,支援多角色敘事。",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K 是一款免 I/O 費用模型,適用於長文本理解與大規模試用。",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K 是一款免費、快速的模型,適合日常聊天與輕量文本任務。",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K 是一款高併發、高價值模型,適用於大規模線上服務與企業應用。",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超輕量模型,適合簡單問答、分類與低成本推理。",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具備 32K 上下文,適合複雜推理與多輪對話。",
|
|
473
|
+
"ernie-x1.1-preview.description": "ERNIE X1.1 預覽版是一款思考模型預覽,用於評估與測試。",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字節跳動 Seed 團隊推出的圖像生成模型,支援文字與圖像輸入,實現高度可控與高品質的圖像生成,能根據文字提示生成圖像。",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型專注於圖像編輯,支援文字與圖像輸入。",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文字與參考圖像輸入,實現目標區域編輯與複雜場景轉換。",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款圖像生成模型,偏好更真實自然的美學風格。",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] 是一款具備 120 億參數的圖像生成模型,專為快速高品質輸出打造。",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "一款強大的原生多模態圖像生成模型。",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "來自 Google 的高品質圖像生成模型。",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模態模型,支援透過對話進行圖像生成與編輯。",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "來自 Qwen 團隊的專業圖像編輯模型,支援語義與外觀編輯,能精準處理中英文文字,並實現風格轉換、物體旋轉等高品質編輯。",
|
|
483
|
+
"fal-ai/qwen-image.description": "來自 Qwen 團隊的強大圖像生成模型,具備優秀的中文文字渲染與多樣化視覺風格。",
|
|
459
484
|
"gemini-flash-latest.description": "Gemini Flash 最新版本",
|
|
460
485
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 最新版本",
|
|
461
486
|
"gemini-pro-latest.description": "Gemini Pro 最新版本",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "一個專注於大型模型研究與工具的開源組織,提供高效、易用的平台,讓尖端模型與演算法更易於取得。",
|
|
30
30
|
"jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。",
|
|
31
31
|
"lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型,並以與模型代幣相關的點數(Credits)來計算使用量。",
|
|
33
32
|
"minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI,擁有多模態基礎模型,包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。",
|
|
34
33
|
"mistral.description": "Mistral 提供先進的通用、專業與研究模型,支援複雜推理、多語言任務與程式碼生成,並支援函式呼叫以實現自訂整合。",
|
|
35
34
|
"modelscope.description": "ModelScope 是阿里雲的模型即服務平台,提供多樣化的 AI 模型與推理服務。",
|
package/package.json
CHANGED
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
{
|
|
2
2
|
"name": "@lobehub/lobehub",
|
|
3
|
-
"version": "2.0.0-next.
|
|
3
|
+
"version": "2.0.0-next.203",
|
|
4
4
|
"description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
|
5
5
|
"keywords": [
|
|
6
6
|
"framework",
|