@lobehub/lobehub 2.0.0-next.272 → 2.0.0-next.273
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/common.json +1 -1
- package/locales/ar/discover.json +2 -2
- package/locales/ar/models.json +38 -9
- package/locales/ar/onboarding.json +1 -1
- package/locales/ar/providers.json +0 -1
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/discover.json +2 -2
- package/locales/bg-BG/models.json +45 -10
- package/locales/bg-BG/onboarding.json +1 -1
- package/locales/bg-BG/providers.json +0 -1
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/discover.json +2 -2
- package/locales/de-DE/models.json +34 -9
- package/locales/de-DE/onboarding.json +3 -0
- package/locales/de-DE/providers.json +0 -1
- package/locales/en-US/discover.json +2 -2
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/discover.json +2 -2
- package/locales/es-ES/models.json +29 -10
- package/locales/es-ES/onboarding.json +3 -0
- package/locales/es-ES/providers.json +0 -1
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/discover.json +2 -2
- package/locales/fa-IR/models.json +33 -10
- package/locales/fa-IR/onboarding.json +3 -0
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/discover.json +2 -2
- package/locales/fr-FR/models.json +45 -10
- package/locales/fr-FR/onboarding.json +3 -0
- package/locales/fr-FR/providers.json +0 -1
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/discover.json +2 -2
- package/locales/it-IT/models.json +5 -10
- package/locales/it-IT/onboarding.json +3 -0
- package/locales/it-IT/providers.json +0 -1
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/discover.json +2 -2
- package/locales/ja-JP/models.json +34 -5
- package/locales/ja-JP/onboarding.json +3 -0
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/discover.json +2 -2
- package/locales/ko-KR/models.json +5 -11
- package/locales/ko-KR/onboarding.json +3 -0
- package/locales/ko-KR/providers.json +0 -1
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/discover.json +2 -2
- package/locales/nl-NL/models.json +47 -6
- package/locales/nl-NL/onboarding.json +3 -0
- package/locales/nl-NL/providers.json +0 -1
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/discover.json +2 -2
- package/locales/pl-PL/models.json +35 -10
- package/locales/pl-PL/onboarding.json +3 -0
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/discover.json +2 -2
- package/locales/pt-BR/models.json +47 -9
- package/locales/pt-BR/onboarding.json +3 -0
- package/locales/pt-BR/providers.json +0 -1
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/discover.json +2 -2
- package/locales/ru-RU/models.json +52 -10
- package/locales/ru-RU/onboarding.json +3 -0
- package/locales/ru-RU/providers.json +0 -1
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/discover.json +2 -2
- package/locales/tr-TR/models.json +38 -10
- package/locales/tr-TR/onboarding.json +3 -0
- package/locales/tr-TR/providers.json +0 -1
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/discover.json +2 -2
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/onboarding.json +3 -0
- package/locales/vi-VN/providers.json +0 -1
- package/locales/zh-CN/discover.json +2 -2
- package/locales/zh-CN/models.json +41 -9
- package/locales/zh-CN/onboarding.json +3 -0
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/discover.json +2 -2
- package/locales/zh-TW/models.json +43 -9
- package/locales/zh-TW/onboarding.json +3 -0
- package/locales/zh-TW/providers.json +0 -1
- package/package.json +1 -1
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
|
|
272
272
|
"claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
273
273
|
"claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的次世代最快模型。相較於 Claude 3 Haiku,其在多項技能上皆有提升,並在多項智能基準測試中超越先前最大模型 Claude 3 Opus。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最具智慧的模型,也是市場上首款混合推理模型。它能夠即時回應,或進行可視化的逐步推理。Sonnet 尤其擅長程式設計、資料科學、視覺處理與智能代理任務。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 最快且最聰明的 Haiku 模型,具備閃電般的速度與延伸推理能力。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為高度複雜任務設計,表現出色,具備卓越的智能、流暢度與理解力。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 能夠即時回應,或進行可視化的逐步思考過程。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek
|
|
358
|
+
"deepseek-chat.description": "一款結合通用與程式能力的開源模型。保留對話模型的通用對話能力與程式模型的強大編碼能力,並提升偏好對齊。DeepSeek-V2.5 也改善了寫作與指令遵循能力。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 推理模式會在最終答案前輸出思考鏈,以提升準確性。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超輕量模型,適合簡單問答、分類與低成本推理。",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具備 32K 上下文,適合複雜推理與多輪對話。",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 預覽版是一款思考模型預覽,用於評估與測試。",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字節跳動 Seed 團隊推出的圖像生成模型,支援文字與圖像輸入,具備高度可控性與高品質圖像生成能力,可根據文字提示生成圖像。",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型專注於圖像編輯,支援文字與圖像輸入。",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文字與參考圖像輸入,實現目標區域編輯與複雜場景轉換。",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款圖像生成模型,偏好更真實自然的美學風格。",
|
|
@@ -479,7 +479,7 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "一款強大的原生多模態圖像生成模型。",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "來自 Google 的高品質圖像生成模型。",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模態模型,支援透過對話進行圖像生成與編輯。",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Qwen 團隊推出的專業圖像編輯模型,支援語義與外觀編輯,能精確處理中英文文字,並實現風格轉換、物體旋轉等高品質編輯。",
|
|
483
483
|
"fal-ai/qwen-image.description": "Qwen 團隊推出的強大圖像生成模型,具備優異的中文文字渲染能力與多樣化視覺風格。",
|
|
484
484
|
"flux-1-schnell.description": "來自黑森林實驗室的 12B 參數文字轉圖像模型,透過潛在對抗擴散蒸餾技術,在 1 至 4 步內生成高品質圖像。其表現媲美封閉式替代方案,並以 Apache-2.0 授權釋出,供個人、研究與商業用途。",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] 是一款開放權重的蒸餾模型,僅限非商業用途。它保有接近專業水準的圖像品質與指令遵循能力,同時運行更高效,資源使用優於同等大小的標準模型。",
|
|
@@ -592,6 +592,40 @@
|
|
|
592
592
|
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,支援多模態對話。",
|
|
593
593
|
"google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview 免費版具備與標準版相同的多模態理解與推理能力,但有配額與速率限制,適合試用與低頻使用。",
|
|
594
594
|
"google/gemini-3-pro-preview.description": "Gemini 3 Pro 是 Gemini 家族的次世代多模態推理模型,能理解文字、音訊、圖像與影片,處理複雜任務與大型程式碼庫。",
|
|
595
|
+
"google/gemini-embedding-001.description": "一款最先進的嵌入模型,在英文、多語言與程式任務中表現優異。",
|
|
596
|
+
"google/gemini-flash-1.5.description": "Gemini 1.5 Flash 提供針對複雜任務的多模態處理最佳化。",
|
|
597
|
+
"google/gemini-pro-1.5.description": "Gemini 1.5 Pro 結合最新優化技術,提升多模態資料處理效率。",
|
|
598
|
+
"google/gemma-2-27b-it.description": "Gemma 2 27B 是一款通用大型語言模型,在多種場景中表現出色。",
|
|
599
|
+
"google/gemma-2-27b.description": "Gemma 2 是 Google 推出的高效模型家族,適用於從小型應用到複雜資料處理的各種場景。",
|
|
600
|
+
"google/gemma-2-2b-it.description": "一款專為邊緣應用設計的先進小型語言模型。",
|
|
601
|
+
"google/gemma-2-9b-it.description": "由 Google 開發的 Gemma 2 9B,具備高效的指令遵循能力與穩健的整體表現。",
|
|
602
|
+
"google/gemma-2-9b-it:free.description": "Gemma 2 是 Google 推出的輕量級開源文字模型家族。",
|
|
603
|
+
"google/gemma-2-9b.description": "Gemma 2 是 Google 推出的高效模型家族,適用於從小型應用到複雜資料處理的各種場景。",
|
|
604
|
+
"google/gemma-2b-it.description": "Gemma Instruct (2B) 提供基礎指令處理能力,適用於輕量應用。",
|
|
605
|
+
"google/gemma-3-12b-it.description": "Gemma 3 12B 是 Google 推出的開源語言模型,在效率與效能上樹立新標竿。",
|
|
606
|
+
"google/gemma-3-27b-it.description": "Gemma 3 27B 是 Google 推出的開源語言模型,在效率與效能上樹立新標竿。",
|
|
607
|
+
"google/text-embedding-005.description": "一款專注於英文的文字嵌入模型,針對程式與英文任務進行最佳化。",
|
|
608
|
+
"google/text-multilingual-embedding-002.description": "一款多語言文字嵌入模型,針對跨語言任務進行最佳化,支援多種語言。",
|
|
609
|
+
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo 用於文字生成與理解,目前指向 gpt-3.5-turbo-0125。",
|
|
610
|
+
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo 用於文字生成與理解,目前指向 gpt-3.5-turbo-0125。",
|
|
611
|
+
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo 用於文字生成與理解任務,針對指令遵循進行最佳化。",
|
|
612
|
+
"gpt-3.5-turbo.description": "GPT 3.5 Turbo 用於文字生成與理解,目前指向 gpt-3.5-turbo-0125。",
|
|
613
|
+
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k 是一款高容量文字生成模型,適用於複雜任務。",
|
|
614
|
+
"gpt-35-turbo.description": "GPT-3.5 Turbo 是 OpenAI 推出的高效模型,支援聊天與文字生成,具備平行函數呼叫能力。",
|
|
615
|
+
"gpt-4-0125-preview.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
|
|
616
|
+
"gpt-4-0613.description": "GPT-4 提供更大的上下文視窗,能處理更長的輸入,適合廣泛資訊整合與資料分析。",
|
|
617
|
+
"gpt-4-1106-preview.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
|
|
618
|
+
"gpt-4-32k-0613.description": "GPT-4 提供更大的上下文視窗,能處理更長的輸入,適合需要廣泛資訊整合與資料分析的場景。",
|
|
619
|
+
"gpt-4-32k.description": "GPT-4 提供更大的上下文視窗,能處理更長的輸入,適合需要廣泛資訊整合與資料分析的場景。",
|
|
620
|
+
"gpt-4-turbo-2024-04-09.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
|
|
621
|
+
"gpt-4-turbo-preview.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
|
|
622
|
+
"gpt-4-turbo.description": "最新 GPT-4 Turbo 加入視覺功能。視覺請求支援 JSON 模式與函數呼叫。這是一款具成本效益的多模態模型,兼顧準確性與效率,適用於即時應用。",
|
|
623
|
+
"gpt-4-vision-preview.description": "GPT-4 Vision 預覽版,專為圖像分析與處理任務設計。",
|
|
624
|
+
"gpt-4.1-mini.description": "GPT-4.1 mini 在智慧、速度與成本之間取得平衡,適用於多種應用場景。",
|
|
625
|
+
"gpt-4.1-nano.description": "GPT-4.1 nano 是 GPT-4.1 系列中最快且最具成本效益的模型。",
|
|
626
|
+
"gpt-4.1.description": "GPT-4.1 是我們的旗艦模型,適用於複雜任務與跨領域問題解決。",
|
|
627
|
+
"gpt-4.5-preview.description": "GPT-4.5-preview 是最新的通用模型,具備深厚的世界知識與更佳的意圖理解能力,擅長創意任務與智能代理規劃。知識截止時間為 2023 年 10 月。",
|
|
628
|
+
"gpt-4.description": "GPT-4 提供更大的上下文視窗,能處理更長的輸入,適合廣泛資訊整合與資料分析。",
|
|
595
629
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "先進的圖像推理能力,適用於視覺理解代理應用。",
|
|
596
630
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先進的多語言開源 Llama 模型,以極低成本提供接近 405B 的效能。該模型基於 Transformer 架構,並透過 SFT 與 RLHF 提升實用性與安全性。經指令微調版本針對多語言對話進行最佳化,在業界基準測試中超越多數開放與封閉模型。知識截止時間:2023 年 12 月。",
|
|
597
631
|
"meta/Meta-Llama-3-70B-Instruct.description": "一款功能強大的 70B 參數模型,擅長推理、程式編寫與廣泛語言任務。",
|
|
@@ -12,6 +12,9 @@
|
|
|
12
12
|
"interests.area.writing": "內容創作",
|
|
13
13
|
"interests.hint": "你可以隨時在設定中修改",
|
|
14
14
|
"interests.placeholder": "請輸入你感興趣的領域...",
|
|
15
|
+
"interests.title": "你對哪些領域感興趣?",
|
|
16
|
+
"interests.title2": "這將幫助我更了解你",
|
|
17
|
+
"interests.title3": "慢慢來,我會更了解你的",
|
|
15
18
|
"modeSelection.desc": "選擇適合你的使用模式",
|
|
16
19
|
"modeSelection.hint": "你可以隨時在設定中修改",
|
|
17
20
|
"modeSelection.lite.desc": "適合日常對話與問答、輕度工作輔助與模型體驗",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "一個專注於大型模型研究與工具的開源組織,提供高效、易用的平台,讓尖端模型與演算法更易於取得。",
|
|
30
30
|
"jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。",
|
|
31
31
|
"lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型,並以與模型代幣相關的點數來計算使用量。",
|
|
33
32
|
"minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI,擁有多模態基礎模型,包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。",
|
|
34
33
|
"mistral.description": "Mistral 提供先進的通用、專業與研究模型,支援複雜推理、多語言任務與程式碼生成,並支援函式呼叫以實現自訂整合。",
|
|
35
34
|
"modelscope.description": "ModelScope 是阿里雲的模型即服務平台,提供多樣化的 AI 模型與推理服務。",
|
package/package.json
CHANGED
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
{
|
|
2
2
|
"name": "@lobehub/lobehub",
|
|
3
|
-
"version": "2.0.0-next.
|
|
3
|
+
"version": "2.0.0-next.273",
|
|
4
4
|
"description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
|
5
5
|
"keywords": [
|
|
6
6
|
"framework",
|