@lobehub/chat 1.36.33 → 1.36.34

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (55) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/README.ja-JP.md +150 -115
  3. package/README.md +63 -28
  4. package/README.zh-CN.md +65 -30
  5. package/changelog/v1.json +9 -0
  6. package/locales/ar/models.json +0 -24
  7. package/locales/ar/providers.json +10 -4
  8. package/locales/bg-BG/models.json +0 -24
  9. package/locales/bg-BG/providers.json +10 -4
  10. package/locales/de-DE/models.json +0 -24
  11. package/locales/de-DE/providers.json +10 -4
  12. package/locales/en-US/models.json +0 -24
  13. package/locales/en-US/providers.json +10 -4
  14. package/locales/es-ES/models.json +0 -24
  15. package/locales/es-ES/providers.json +10 -4
  16. package/locales/fa-IR/models.json +0 -24
  17. package/locales/fa-IR/providers.json +10 -4
  18. package/locales/fr-FR/models.json +0 -24
  19. package/locales/fr-FR/providers.json +10 -4
  20. package/locales/it-IT/models.json +0 -24
  21. package/locales/it-IT/providers.json +10 -4
  22. package/locales/ja-JP/models.json +0 -24
  23. package/locales/ja-JP/providers.json +10 -4
  24. package/locales/ko-KR/models.json +0 -24
  25. package/locales/ko-KR/providers.json +10 -4
  26. package/locales/nl-NL/models.json +0 -24
  27. package/locales/nl-NL/providers.json +10 -4
  28. package/locales/pl-PL/models.json +0 -24
  29. package/locales/pl-PL/providers.json +10 -4
  30. package/locales/pt-BR/models.json +0 -24
  31. package/locales/pt-BR/providers.json +10 -4
  32. package/locales/ru-RU/models.json +0 -24
  33. package/locales/ru-RU/providers.json +10 -4
  34. package/locales/tr-TR/models.json +0 -24
  35. package/locales/tr-TR/providers.json +10 -4
  36. package/locales/vi-VN/models.json +0 -24
  37. package/locales/vi-VN/providers.json +10 -4
  38. package/locales/zh-CN/models.json +4 -28
  39. package/locales/zh-CN/providers.json +10 -4
  40. package/locales/zh-TW/models.json +0 -24
  41. package/locales/zh-TW/providers.json +10 -4
  42. package/package.json +1 -1
  43. package/scripts/readmeWorkflow/const.ts +22 -8
  44. package/scripts/readmeWorkflow/index.ts +2 -0
  45. package/scripts/readmeWorkflow/syncAgentIndex.ts +36 -28
  46. package/scripts/readmeWorkflow/syncPluginIndex.ts +28 -15
  47. package/scripts/readmeWorkflow/syncProviderIndex.ts +51 -0
  48. package/scripts/readmeWorkflow/utlis.ts +23 -12
  49. package/src/config/modelProviders/ai21.ts +1 -0
  50. package/src/config/modelProviders/cloudflare.ts +1 -2
  51. package/src/config/modelProviders/higress.ts +2 -1
  52. package/src/config/modelProviders/sensenova.ts +6 -3
  53. package/src/features/FileViewer/index.tsx +1 -1
  54. package/src/locales/default/models.ts +1 -0
  55. package/src/locales/default/providers.ts +1 -0
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra — это самая мощная версия в серии больших моделей Xinghuo, которая, обновив сетевые поисковые связи, улучшает понимание и обобщение текстового контента. Это всестороннее решение для повышения производительности в офисе и точного реагирования на запросы, являющееся ведущим интеллектуальным продуктом в отрасли."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Поколение за поколением, Meta Llama 3 демонстрирует передовые результаты по широкому спектру отраслевых стандартов и предлагает новые возможности, включая улучшенное логическое мышление."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Использует технологии улучшенного поиска для полной связи между большой моделью и отраслевыми знаниями, а также знаниями из сети. Поддерживает загрузку различных документов, таких как PDF и Word, а также ввод URL, обеспечивая своевременное и полное получение информации с точными и профессиональными результатами."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) — это высокоточная модель команд, подходящая для сложных вычислений."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+ — это модель, оптимизированная для RAG, предназначенная для решения задач корпоративного уровня."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R — это LLM, оптимизированная для диалогов и задач с длинным контекстом, особенно подходит для динамического взаимодействия и управления знаниями."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "Последняя модель Hunyuan с архитектурой MOE FunctionCall, обученная на высококачественных данных FunctionCall, с контекстным окном до 32K, занимает лидирующие позиции по множеству оценочных показателей."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "Обновленная версия с MOE-структурой, контекстное окно составляет 256k, она опережает множество открытых моделей в оценках по NLP, коду, математике и другим областям."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "Наша последняя серия моделей с выдающимися показателями вывода, поддерживающая длину контекста до 1M и обладающая улучшенными возможностями следования инструкциям и вызова инструментов."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, которая может следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для устройств с ограниченными вычислительными мощностями и ресурсами, а также для более быстрого времени обучения."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 — это языковая модель от Microsoft AI, которая особенно хорошо справляется с сложными диалогами, многоязычностью, выводами и интеллектуальными помощниками."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs создает базовые модели и системы искусственного интеллекта для бизнеса, ускоряя внедрение генеративного ИИ в производстве."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI — это платформа AI-моделей и услуг, запущенная компанией 360, предлагающая множество передовых моделей обработки естественного языка, включая 360GPT2 Pro, 360GPT Pro, 360GPT Turbo и 360GPT Turbo Responsibility 8K. Эти модели сочетают в себе масштабные параметры и мультимодальные возможности, широко применяются в генерации текста, семантическом понимании, диалоговых системах и генерации кода. Благодаря гибкой ценовой политике 360 AI удовлетворяет разнообразные потребности пользователей, поддерживает интеграцию разработчиков и способствует инновациям и развитию интеллектуальных приложений."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock — это сервис, предоставляемый Amazon AWS, сосредоточенный на предоставлении предприятиям передовых AI-языковых и визуальных моделей. Его семейство моделей включает серию Claude от Anthropic, серию Llama 3.1 от Meta и другие, охватывающие широкий спектр от легковесных до высокопроизводительных решений, поддерживающих текстовую генерацию, диалоги, обработку изображений и другие задачи, подходящие для предприятий различного масштаба и потребностей."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Запуск моделей машинного обучения на базе серверов GPU в глобальной сети Cloudflare."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek — это компания, сосредоточенная на исследованиях и применении технологий искусственного интеллекта, ее последняя модель DeepSeek-V2.5 объединяет возможности общего диалога и обработки кода, достигнув значительных улучшений в области согласования с человеческими предпочтениями, написания текстов и выполнения инструкций."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Инженерный движок LPU от Groq показал выдающиеся результаты в последних независимых бенчмарках больших языковых моделей (LLM), переопределяя стандарты AI-решений благодаря своей удивительной скорости и эффективности. Groq представляет собой образец мгновенной скорости вывода, демонстрируя хорошие результаты в облачных развертываниях."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress — это облачный API шлюз, который был разработан внутри Alibaba для решения проблем, связанных с перезагрузкой Tengine, негативно влияющей на долгосрочные соединения, а также недостаточной способностью балансировки нагрузки для gRPC/Dubbo."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "API для инференса HuggingFace предоставляет быстрый и бесплатный способ исследовать тысячи моделей для различных задач. Независимо от того, разрабатываете ли вы прототип для нового приложения или пробуете возможности машинного обучения, этот API обеспечивает мгновенный доступ к высокопроизводительным моделям в различных областях."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Qwen — это сверхбольшая языковая модель, разработанная Alibaba Cloud, обладающая мощными возможностями понимания и генерации естественного языка. Она может отвечать на различные вопросы, создавать текстовый контент, выражать мнения и писать код, играя важную роль в различных областях."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "SenseNova, опираясь на мощную инфраструктуру SenseTime, предлагает эффективные и удобные услуги полного стека больших моделей."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow стремится ускорить AGI, чтобы принести пользу человечеству, повышая эффективность масштабного AI с помощью простого и экономичного стека GenAI."
79
85
  },
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra, Xinghuo büyük model serisinin en güçlü versiyonudur, çevrimiçi arama bağlantısını yükseltirken, metin içeriğini anlama ve özetleme yeteneğini artırır. Ofis verimliliğini artırmak ve taleplere doğru yanıt vermek için kapsamlı bir çözüm sunar, sektördeki akıllı ürünlerin öncüsüdür."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Nesil nesil, Meta Llama 3, geniş bir endüstri ölçütleri yelpazesinde en son performansı sergilemekte ve geliştirilmiş akıl yürütme gibi yeni yetenekler sunmaktadır."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Arama artırma teknolojisi kullanarak büyük model ile alan bilgisi ve tüm ağ bilgisi arasında kapsamlı bir bağlantı sağlar. PDF, Word gibi çeşitli belge yüklemelerini ve URL girişini destekler, bilgi edinimi zamanında ve kapsamlıdır, çıktı sonuçları doğru ve profesyoneldir."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO, olağanüstü yaratıcı deneyimler sunmak için tasarlanmış son derece esnek bir çoklu model birleşimidir."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B), karmaşık hesaplamalar için yüksek hassasiyetli bir talimat modelidir."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+, kurumsal düzeyde iş yüklerini ele almak için tasarlanmış en son RAG optimize edilmiş bir modeldir."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R, diyalog ve uzun bağlam görevleri için optimize edilmiş bir LLM'dir, dinamik etkileşim ve bilgi yönetimi için özellikle uygundur."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "Hunyuan'ın en son MOE mimarisi FunctionCall modeli, yüksek kaliteli FunctionCall verisi ile eğitilmiş olup, bağlam penceresi 32K'ya ulaşmıştır ve birçok boyutta değerlendirme göstergelerinde lider konumdadır."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "MOE yapısına yükseltilmiş, bağlam penceresi 256k, NLP, kod, matematik, endüstri gibi birçok değerlendirme setinde birçok açık kaynak modelden önde."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir, 1M bağlam uzunluğunu destekler ve daha güçlü talimat takibi ve araç çağırma yetenekleri sunar."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modelidir (LLM) ve onların üretken AI fikirlerini inşa etmelerine, denemelerine ve sorumlu bir şekilde genişletmelerine yardımcı olmak için tasarlanmıştır. Küresel topluluk yeniliğinin temel sistemlerinden biri olarak, sınırlı hesaplama gücü ve kaynaklara sahip, kenar cihazları ve daha hızlı eğitim süreleri için son derece uygundur."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2, Microsoft AI tarafından sağlanan bir dil modelidir ve karmaşık diyaloglar, çok dilli destek, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs, işletmeler için temel modeller ve yapay zeka sistemleri geliştirerek, üretimde jeneratif yapay zekanın uygulanmasını hızlandırır."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI, 360 şirketi tarafından sunulan yapay zeka modeli ve hizmet platformudur. 360GPT2 Pro, 360GPT Pro, 360GPT Turbo ve 360GPT Turbo Responsibility 8K gibi çeşitli gelişmiş doğal dil işleme modelleri sunmaktadır. Bu modeller, büyük ölçekli parametreler ve çok modlu yetenekleri birleştirerek metin üretimi, anlamsal anlama, diyalog sistemleri ve kod üretimi gibi alanlarda geniş bir uygulama yelpazesine sahiptir. Esnek fiyatlandırma stratejileri ile 360 AI, çeşitli kullanıcı ihtiyaçlarını karşılamakta ve geliştiricilerin entegrasyonunu destekleyerek akıllı uygulamaların yenilik ve gelişimini teşvik etmektedir."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock, Amazon AWS tarafından sunulan bir hizmettir ve işletmelere gelişmiş yapay zeka dil modelleri ve görsel modeller sağlamaya odaklanmaktadır. Model ailesi, Anthropic'in Claude serisi, Meta'nın Llama 3.1 serisi gibi seçenekleri içermekte olup, metin üretimi, diyalog, görüntü işleme gibi çeşitli görevleri desteklemektedir. Farklı ölçek ve ihtiyaçlara uygun kurumsal uygulamalar için geniş bir yelpaze sunmaktadır."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Cloudflare'ın küresel ağı üzerinde sunucusuz GPU destekli makine öğrenimi modelleri çalıştırın."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek, yapay zeka teknolojisi araştırma ve uygulamalarına odaklanan bir şirkettir. En son modeli DeepSeek-V2.5, genel diyalog ve kod işleme yeteneklerini birleştirerek, insan tercihleriyle uyum, yazma görevleri ve talimat takibi gibi alanlarda önemli iyileştirmeler sağlamaktadır."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Groq'un LPU çıkarım motoru, en son bağımsız büyük dil modeli (LLM) benchmark testlerinde mükemmel performans sergilemekte ve olağanüstü hız ve verimliliği ile yapay zeka çözümlerinin standartlarını yeniden tanımlamaktadır. Groq, bulut tabanlı dağıtımlarda iyi bir performans sergileyen anlık çıkarım hızının temsilcisidir."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress, uzun süreli bağlantı işlerine zarar veren Tengine yeniden yükleme sorununu ve gRPC/Dubbo yük dengeleme yeteneklerinin yetersizliğini çözmek için Alibaba içinde geliştirilmiş bir bulut yerel API geçididir."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "HuggingFace Inference API, binlerce modeli keşfetmenin hızlı ve ücretsiz bir yolunu sunar, çeşitli görevler için uygundur. Yeni uygulamalar için prototip oluşturuyor ya da makine öğreniminin yeteneklerini deniyorsanız, bu API size birçok alanda yüksek performanslı modellere anında erişim sağlar."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Tongyi Qianwen, Alibaba Cloud tarafından geliştirilen büyük ölçekli bir dil modelidir ve güçlü doğal dil anlama ve üretme yeteneklerine sahiptir. Çeşitli soruları yanıtlayabilir, metin içeriği oluşturabilir, görüşlerini ifade edebilir ve kod yazabilir. Birçok alanda etkili bir şekilde kullanılmaktadır."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "SenseTime, güçlü altyapısına dayanarak, verimli ve kullanımı kolay tam yığın büyük model hizmetleri sunar."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow, insanlığa fayda sağlamak amacıyla AGI'yi hızlandırmaya odaklanmakta ve kullanıcı dostu ve maliyet etkin GenAI yığınları ile büyük ölçekli yapay zeka verimliliğini artırmayı hedeflemektedir."
79
85
  },
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra là phiên bản mạnh mẽ nhất trong dòng mô hình lớn Xinghuo, nâng cao khả năng hiểu và tóm tắt nội dung văn bản trong khi nâng cấp liên kết tìm kiếm trực tuyến. Đây là giải pháp toàn diện nhằm nâng cao năng suất văn phòng và đáp ứng chính xác nhu cầu, là sản phẩm thông minh dẫn đầu ngành."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Sử dụng công nghệ tăng cường tìm kiếm để kết nối toàn diện giữa mô hình lớn và kiến thức lĩnh vực, kiến thức toàn cầu. Hỗ trợ tải lên nhiều loại tài liệu như PDF, Word và nhập URL, thông tin được thu thập kịp thời và toàn diện, kết quả đầu ra chính xác và chuyên nghiệp."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO là một mô hình kết hợp đa dạng, nhằm cung cấp trải nghiệm sáng tạo xuất sắc."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) là mô hình chỉ dẫn chính xác cao, phù hợp cho tính toán phức tạp."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+ là mô hình tối ưu hóa RAG hiện đại, được thiết kế để xử lý khối lượng công việc cấp doanh nghiệp."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R là LLM được tối ưu hóa cho các nhiệm vụ đối thoại và ngữ cảnh dài, đặc biệt phù hợp cho tương tác động và quản lý kiến thức."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "Mô hình FunctionCall với cấu trúc MOE mới nhất của Hunyuan, được huấn luyện trên dữ liệu FunctionCall chất lượng cao, với cửa sổ ngữ cảnh đạt 32K, dẫn đầu trong nhiều chỉ số đánh giá."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "Nâng cấp lên cấu trúc MOE, với cửa sổ ngữ cảnh 256k, dẫn đầu nhiều mô hình mã nguồn mở trong các bộ đánh giá NLP, mã, toán học, ngành nghề, v.v."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, hỗ trợ độ dài ngữ cảnh 1M và khả năng theo dõi chỉ dẫn và gọi công cụ mạnh mẽ hơn."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM là một mô hình ngôn ngữ thử nghiệm, chuyên biệt cho các nhiệm vụ, được đào tạo để tuân theo các nguyên tắc khoa học học tập, có thể tuân theo các chỉ dẫn hệ thống trong các tình huống giảng dạy và học tập, đóng vai trò như một người hướng dẫn chuyên gia."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 là một mô hình ngôn ngữ lớn (LLM) mở dành cho các nhà phát triển, nhà nghiên cứu và doanh nghiệp, nhằm giúp họ xây dựng, thử nghiệm và mở rộng ý tưởng AI sinh một cách có trách nhiệm. Là một phần của hệ thống cơ sở hạ tầng đổi mới toàn cầu, nó rất phù hợp cho các thiết bị biên và thời gian huấn luyện nhanh hơn với khả năng tính toán và tài nguyên hạn chế."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 là mô hình ngôn ngữ do AI của Microsoft cung cấp, thể hiện xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs xây dựng các mô hình cơ bản và hệ thống trí tuệ nhân tạo cho doanh nghiệp, tăng tốc ứng dụng trí tuệ nhân tạo sinh sinh trong sản xuất."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI là nền tảng mô hình và dịch vụ AI do công ty 360 phát hành, cung cấp nhiều mô hình xử lý ngôn ngữ tự nhiên tiên tiến, bao gồm 360GPT2 Pro, 360GPT Pro, 360GPT Turbo và 360GPT Turbo Responsibility 8K. Những mô hình này kết hợp giữa tham số quy mô lớn và khả năng đa phương thức, được ứng dụng rộng rãi trong tạo văn bản, hiểu ngữ nghĩa, hệ thống đối thoại và tạo mã. Thông qua chiến lược giá linh hoạt, 360 AI đáp ứng nhu cầu đa dạng của người dùng, hỗ trợ nhà phát triển tích hợp, thúc đẩy sự đổi mới và phát triển ứng dụng thông minh."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock là dịch vụ do Amazon AWS cung cấp, tập trung vào việc cung cấp các mô hình ngôn ngữ AI và mô hình hình ảnh tiên tiến cho doanh nghiệp. Gia đình mô hình của nó bao gồm dòng Claude của Anthropic, dòng Llama 3.1 của Meta, v.v., bao quát nhiều lựa chọn từ nhẹ đến hiệu suất cao, hỗ trợ nhiều nhiệm vụ như tạo văn bản, đối thoại, xử lý hình ảnh, phù hợp cho các ứng dụng doanh nghiệp với quy mô và nhu cầu khác nhau."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Chạy các mô hình học máy được hỗ trợ bởi GPU không máy chủ trên mạng lưới toàn cầu của Cloudflare."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek là một công ty tập trung vào nghiên cứu và ứng dụng công nghệ trí tuệ nhân tạo, mô hình mới nhất của họ, DeepSeek-V2.5, kết hợp khả năng đối thoại chung và xử lý mã, đồng thời đạt được sự cải thiện đáng kể trong việc căn chỉnh sở thích của con người, nhiệm vụ viết và tuân theo chỉ dẫn."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Bộ máy suy diễn LPU của Groq thể hiện xuất sắc trong các bài kiểm tra chuẩn mô hình ngôn ngữ lớn (LLM) độc lập mới nhất, định nghĩa lại tiêu chuẩn cho các giải pháp AI với tốc độ và hiệu quả đáng kinh ngạc. Groq là đại diện cho tốc độ suy diễn tức thì, thể hiện hiệu suất tốt trong triển khai dựa trên đám mây."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress là một cổng API gốc đám mây, được phát triển trong nội bộ của Alibaba để giải quyết vấn đề Tengine reload ảnh hưởng đến các dịch vụ kết nối dài hạn, cũng như khả năng cân bằng tải gRPC/Dubbo chưa đủ."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "HuggingFace Inference API cung cấp một cách nhanh chóng và miễn phí để bạn khám phá hàng ngàn mô hình cho nhiều nhiệm vụ khác nhau. Dù bạn đang thiết kế nguyên mẫu cho một ứng dụng mới hay đang thử nghiệm khả năng của học máy, API này cho phép bạn truy cập ngay lập tức vào các mô hình hiệu suất cao trong nhiều lĩnh vực."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Qwen là mô hình ngôn ngữ quy mô lớn tự phát triển của Alibaba Cloud, có khả năng hiểu và tạo ngôn ngữ tự nhiên mạnh mẽ. Nó có thể trả lời nhiều câu hỏi, sáng tác nội dung văn bản, bày tỏ quan điểm, viết mã, v.v., hoạt động trong nhiều lĩnh vực."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "SenseTime luôn đổi mới, dựa vào nền tảng mạnh mẽ của SenseTime để cung cấp dịch vụ mô hình lớn toàn diện, hiệu quả và dễ sử dụng."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow cam kết tăng tốc AGI để mang lại lợi ích cho nhân loại, nâng cao hiệu quả AI quy mô lớn thông qua một ngăn xếp GenAI dễ sử dụng và chi phí thấp."
79
85
  },
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。"
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning.\t"
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。支持PDF、Word等多种文档上传及网址输入,信息获取及时、全面,输出结果准确、专业。"
42
28
  },
@@ -50,10 +36,10 @@
50
36
  "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
51
37
  },
52
38
  "Baichuan4-Air": {
53
- "description": ""
39
+ "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
54
40
  },
55
41
  "Baichuan4-Turbo": {
56
- "description": ""
42
+ "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
57
43
  },
58
44
  "Doubao-lite-128k": {
59
45
  "description": "Doubao-lite 拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持128k上下文窗口的推理和精调。"
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度灵活的多模型合并,旨在提供卓越的创造性体验。"
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,适用于复杂计算。"
133
118
  },
@@ -530,14 +515,11 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+是一个最先进的RAG优化模型,旨在应对企业级工作负载。"
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
- "description": ""
519
+ "description": "Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。"
538
520
  },
539
521
  "command-r-plus": {
540
- "description": ""
522
+ "description": "Command R+ 是一款高性能的大型语言模型,专为真实企业场景和复杂应用而设计。"
541
523
  },
542
524
  "databricks/dbrx-instruct": {
543
525
  "description": "DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。"
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "混元最新 MOE 架构 FunctionCall 模型,经过高质量的 FunctionCall 数据训练,上下文窗口达 32K,在多个维度的评测指标上处于领先。"
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "升级为 MOE 结构,上下文窗口为 256k ,在 NLP,代码,数学,行业等多项评测集上领先众多开源模型。"
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "我们最新的模型系列,有着卓越的推理性能,支持 1M 的上下文长度以及更强的指令跟随和工具调用能力。"
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM 是一个实验性的、特定于任务的语言模型,经过训练以符合学习科学原则,可在教学和学习场景中遵循系统指令,充当专家导师等。"
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 是一款面向开发者、研究人员和企业的开放大型语言模型 (LLM),旨在帮助他们构建、实验并负责任地扩展他们的生成 AI 想法。作为全球社区创新的基础系统的一部分,它非常适合计算能力和资源有限、边缘设备和更快的训练时间。"
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。"
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs 为企业构建基础模型和人工智能系统,加速生成性人工智能在生产中的应用。"
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI 是 360 公司推出的 AI 模型和服务平台,提供多种先进的自然语言处理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。这些模型结合了大规模参数和多模态能力,广泛应用于文本生成、语义理解、对话系统与代码生成等领域。通过灵活的定价策略,360 AI 满足多样化用户需求,支持开发者集成,推动智能化应用的革新和发展。"
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock 是亚马逊 AWS 提供的一项服务,专注于为企业提供先进的 AI 语言模型和视觉模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵盖从轻量级到高性能的多种选择,支持文本生成、对话、图像处理等多种任务,适用于不同规模和需求的企业应用。"
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "在 Cloudflare 的全球网络上运行由无服务器 GPU 驱动的机器学习模型。"
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek 是一家专注于人工智能技术研究和应用的公司,其最新模型 DeepSeek-V2.5 融合了通用对话和代码处理能力,并在人类偏好对齐、写作任务和指令跟随等方面实现了显著提升。"
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Groq 的 LPU 推理引擎在最新的独立大语言模型(LLM)基准测试中表现卓越,以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。"
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress 是一款云原生 API 网关,在阿里内部为解决 Tengine reload 对长连接业务有损,以及 gRPC/Dubbo 负载均衡能力不足而诞生。"
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "HuggingFace Inference API 提供了一种快速且免费的方式,让您可以探索成千上万种模型,适用于各种任务。无论您是在为新应用程序进行原型设计,还是在尝试机器学习的功能,这个 API 都能让您即时访问多个领域的高性能模型。"
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "通义千问是阿里云自主研发的超大规模语言模型,具有强大的自然语言理解和生成能力。它可以回答各种问题、创作文字内容、表达观点看法、撰写代码等,在多个领域发挥作用。"
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "商汤日日新,依托商汤大装置的强大的基础支撑,提供高效易用的全栈大模型服务。"
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconCloud,基于优秀开源基础模型的高性价比 GenAI 云服务"
79
85
  },
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra 是星火大模型系列中最為強大的版本,在升級聯網搜索鏈路同時,提升對文本內容的理解和總結能力。它是用於提升辦公生產力和準確響應需求的全方位解決方案,是引領行業的智能產品。"
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "採用搜索增強技術實現大模型與領域知識、全網知識的全面連結。支持PDF、Word等多種文檔上傳及網址輸入,信息獲取及時、全面,輸出結果準確、專業。"
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度靈活的多模型合併,旨在提供卓越的創造性體驗。"
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,適用於複雜計算。"
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+是一個最先進的RAG優化模型,旨在應對企業級工作負載。"
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R 是優化用於對話和長上下文任務的 LLM,特別適合動態交互與知識管理。"
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "混元最新 MOE 架構 FunctionCall 模型,經過高質量的 FunctionCall 數據訓練,上下文窗口達 32K,在多個維度的評測指標上處於領先。"
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "升級為 MOE 結構,上下文窗口為 256k,在 NLP、代碼、數學、行業等多項評測集上領先眾多開源模型。"
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "我們最新的模型系列,有著卓越的推理性能,支持 1M 的上下文長度以及更強的指令跟隨和工具調用能力。"
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM 是一個實驗性的、特定於任務的語言模型,經過訓練以符合學習科學原則,可在教學和學習場景中遵循系統指令,充當專家導師等。"
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 是一款面向開發者、研究人員和企業的開放大型語言模型 (LLM),旨在幫助他們構建、實驗並負責任地擴展他們的生成 AI 想法。作為全球社區創新的基礎系統的一部分,它非常適合計算能力和資源有限、邊緣設備和更快的訓練時間。"
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 是微軟AI提供的語言模型,在複雜對話、多語言、推理和智能助手領域表現尤為出色。"
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs 為企業構建基礎模型和人工智慧系統,加速生成性人工智慧在生產中的應用。"
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI 是 360 公司推出的 AI 模型和服務平台,提供多種先進的自然語言處理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。這些模型結合了大規模參數和多模態能力,廣泛應用於文本生成、語義理解、對話系統與代碼生成等領域。通過靈活的定價策略,360 AI 滿足多樣化用戶需求,支持開發者集成,推動智能化應用的革新和發展。"
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock 是亞馬遜 AWS 提供的一項服務,專注於為企業提供先進的 AI 語言模型和視覺模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵蓋從輕量級到高性能的多種選擇,支持文本生成、對話、圖像處理等多種任務,適用於不同規模和需求的企業應用。"
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "在 Cloudflare 的全球網絡上運行由無伺服器 GPU 驅動的機器學習模型。"
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek 是一家專注於人工智慧技術研究和應用的公司,其最新模型 DeepSeek-V2.5 融合了通用對話和代碼處理能力,並在人類偏好對齊、寫作任務和指令跟隨等方面實現了顯著提升。"
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Groq 的 LPU 推理引擎在最新的獨立大語言模型(LLM)基準測試中表現卓越,以其驚人的速度和效率重新定義了 AI 解決方案的標準。Groq 是一種即時推理速度的代表,在基於雲的部署中展現了良好的性能。"
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress 是一款雲原生 API 網關,為了解決 Tengine reload 對長連接業務的影響,以及 gRPC/Dubbo 負載均衡能力不足而在阿里內部誕生。"
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "HuggingFace Inference API 提供了一種快速且免費的方式,讓您可以探索成千上萬種模型,適用於各種任務。無論您是在為新應用程式進行原型設計,還是在嘗試機器學習的功能,這個 API 都能讓您即時訪問多個領域的高性能模型。"
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "通義千問是阿里雲自主研發的超大規模語言模型,具有強大的自然語言理解和生成能力。它可以回答各種問題、創作文字內容、表達觀點看法、撰寫代碼等,在多個領域發揮作用。"
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "商湯日日新,依托商湯大裝置的強大基礎支撐,提供高效易用的全棧大模型服務。"
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow 致力於加速 AGI,以惠及人類,通過易用與成本低的 GenAI 堆疊提升大規模 AI 效率。"
79
85
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.36.33",
3
+ "version": "1.36.34",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -1,3 +1,9 @@
1
+ import { resolve } from 'node:path';
2
+
3
+ import { DEFAULT_MODEL_PROVIDER_LIST } from '@/config/modelProviders';
4
+
5
+ export const root = resolve(__dirname, '../..');
6
+
1
7
  export interface DataItem {
2
8
  author: string;
3
9
  createdAt: string;
@@ -6,14 +12,22 @@ export interface DataItem {
6
12
  meta: { avatar: string; description: string; tags: string[]; title: string };
7
13
  }
8
14
 
9
- export const MARKET_URL = 'https://chat-preview.lobehub.com/market';
10
- export const PLGUIN_URL = 'https://chat-preview.lobehub.com/settings/agent';
11
- export const AGENT_EN_URL = 'https://chat-agents.lobehub.com/index.json';
12
- export const AGENT_CN_URL = 'https://chat-agents.lobehub.com/index.zh-CN.json';
13
- export const AGENT_REPO = 'https://github.com/lobehub/lobe-chat-agents';
14
- export const PLUGIN_EN_URL = 'https://chat-plugins.lobehub.com/index.json';
15
- export const PLUGIN_CN_URL = 'https://chat-plugins.lobehub.com/index.zh-CN.json';
16
- export const PLUGIN_REPO = 'https://github.com/lobehub/lobe-chat-plugins';
15
+ export const AGENT_URL = 'https://chat-agents.lobehub.com/index.json';
16
+ export const AGENT_I18N_URL = (lang: string) =>
17
+ `https://chat-agents.lobehub.com/index.${lang}.json`;
18
+ export const PLUGIN_URL = 'https://chat-plugins.lobehub.com/index.json';
19
+ export const PLUGIN_I18N_URL = (lang: string) =>
20
+ `https://chat-plugins.lobehub.com/index.${lang}.json`;
17
21
 
18
22
  export const AGENT_SPLIT = '<!-- AGENT LIST -->';
19
23
  export const PLUGIN_SPLIT = '<!-- PLUGIN LIST -->';
24
+ export const PROVIDER_SPLIT = '<!-- PROVIDER LIST -->';
25
+
26
+ export const PROVIDER_LIST = DEFAULT_MODEL_PROVIDER_LIST.filter(
27
+ (item) => item.chatModels.length > 0 && item.id !== 'lobehub',
28
+ ).map((item) => {
29
+ return {
30
+ id: item.id,
31
+ name: item.name,
32
+ };
33
+ });
@@ -2,9 +2,11 @@ import { consola } from 'consola';
2
2
 
3
3
  import syncAgentIndex from './syncAgentIndex';
4
4
  import syncPluginIndex from './syncPluginIndex';
5
+ import syncProviderIndex from './syncProviderIndex';
5
6
 
6
7
  const runSync = async () => {
7
8
  consola.start('Start sync readme workflow...');
9
+ await syncProviderIndex();
8
10
  await syncAgentIndex();
9
11
  await syncPluginIndex();
10
12
  };