@lobehub/chat 1.36.33 → 1.36.34

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (55) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/README.ja-JP.md +150 -115
  3. package/README.md +63 -28
  4. package/README.zh-CN.md +65 -30
  5. package/changelog/v1.json +9 -0
  6. package/locales/ar/models.json +0 -24
  7. package/locales/ar/providers.json +10 -4
  8. package/locales/bg-BG/models.json +0 -24
  9. package/locales/bg-BG/providers.json +10 -4
  10. package/locales/de-DE/models.json +0 -24
  11. package/locales/de-DE/providers.json +10 -4
  12. package/locales/en-US/models.json +0 -24
  13. package/locales/en-US/providers.json +10 -4
  14. package/locales/es-ES/models.json +0 -24
  15. package/locales/es-ES/providers.json +10 -4
  16. package/locales/fa-IR/models.json +0 -24
  17. package/locales/fa-IR/providers.json +10 -4
  18. package/locales/fr-FR/models.json +0 -24
  19. package/locales/fr-FR/providers.json +10 -4
  20. package/locales/it-IT/models.json +0 -24
  21. package/locales/it-IT/providers.json +10 -4
  22. package/locales/ja-JP/models.json +0 -24
  23. package/locales/ja-JP/providers.json +10 -4
  24. package/locales/ko-KR/models.json +0 -24
  25. package/locales/ko-KR/providers.json +10 -4
  26. package/locales/nl-NL/models.json +0 -24
  27. package/locales/nl-NL/providers.json +10 -4
  28. package/locales/pl-PL/models.json +0 -24
  29. package/locales/pl-PL/providers.json +10 -4
  30. package/locales/pt-BR/models.json +0 -24
  31. package/locales/pt-BR/providers.json +10 -4
  32. package/locales/ru-RU/models.json +0 -24
  33. package/locales/ru-RU/providers.json +10 -4
  34. package/locales/tr-TR/models.json +0 -24
  35. package/locales/tr-TR/providers.json +10 -4
  36. package/locales/vi-VN/models.json +0 -24
  37. package/locales/vi-VN/providers.json +10 -4
  38. package/locales/zh-CN/models.json +4 -28
  39. package/locales/zh-CN/providers.json +10 -4
  40. package/locales/zh-TW/models.json +0 -24
  41. package/locales/zh-TW/providers.json +10 -4
  42. package/package.json +1 -1
  43. package/scripts/readmeWorkflow/const.ts +22 -8
  44. package/scripts/readmeWorkflow/index.ts +2 -0
  45. package/scripts/readmeWorkflow/syncAgentIndex.ts +36 -28
  46. package/scripts/readmeWorkflow/syncPluginIndex.ts +28 -15
  47. package/scripts/readmeWorkflow/syncProviderIndex.ts +51 -0
  48. package/scripts/readmeWorkflow/utlis.ts +23 -12
  49. package/src/config/modelProviders/ai21.ts +1 -0
  50. package/src/config/modelProviders/cloudflare.ts +1 -2
  51. package/src/config/modelProviders/higress.ts +2 -1
  52. package/src/config/modelProviders/sensenova.ts +6 -3
  53. package/src/features/FileViewer/index.tsx +1 -1
  54. package/src/locales/default/models.ts +1 -0
  55. package/src/locales/default/providers.ts +1 -0
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs costruisce modelli di base e sistemi di intelligenza artificiale per le imprese, accelerando l'adozione dell'intelligenza artificiale generativa in produzione."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI è una piattaforma di modelli e servizi AI lanciata da 360 Company, che offre vari modelli avanzati di elaborazione del linguaggio naturale, tra cui 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Questi modelli combinano parametri su larga scala e capacità multimodali, trovando ampio utilizzo in generazione di testo, comprensione semantica, sistemi di dialogo e generazione di codice. Con strategie di prezzo flessibili, 360 AI soddisfa le esigenze diversificate degli utenti, supportando l'integrazione degli sviluppatori e promuovendo l'innovazione e lo sviluppo delle applicazioni intelligenti."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock è un servizio offerto da Amazon AWS, focalizzato sulla fornitura di modelli linguistici e visivi AI avanzati per le aziende. La sua famiglia di modelli include la serie Claude di Anthropic, la serie Llama 3.1 di Meta e altro, coprendo una varietà di opzioni da leggere a ad alte prestazioni, supportando generazione di testo, dialogo, elaborazione di immagini e altro, adatta a diverse applicazioni aziendali di varie dimensioni e necessità."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Esegui modelli di machine learning alimentati da GPU serverless sulla rete globale di Cloudflare."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek è un'azienda focalizzata sulla ricerca e applicazione della tecnologia AI, il cui ultimo modello DeepSeek-V2.5 combina capacità di dialogo generico e elaborazione del codice, realizzando miglioramenti significativi nell'allineamento delle preferenze umane, nei compiti di scrittura e nel rispetto delle istruzioni."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Il motore di inferenza LPU di Groq ha mostrato prestazioni eccezionali nei recenti benchmark indipendenti sui modelli di linguaggio di grandi dimensioni (LLM), ridefinendo gli standard delle soluzioni AI con la sua incredibile velocità ed efficienza. Groq rappresenta una velocità di inferenza istantanea, mostrando buone prestazioni nelle implementazioni basate su cloud."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress è un gateway API cloud-native, nato all'interno di Alibaba per risolvere i problemi causati dal ricaricamento di Tengine sulle connessioni persistenti e per migliorare le capacità di bilanciamento del carico di gRPC/Dubbo."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "L'API di Inferenza di HuggingFace offre un modo rapido e gratuito per esplorare migliaia di modelli per una varietà di compiti. Che tu stia prototipando una nuova applicazione o cercando di sperimentare le funzionalità del machine learning, questa API ti consente di accedere immediatamente a modelli ad alte prestazioni in diversi ambiti."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Qwen è un modello di linguaggio di grande scala sviluppato autonomamente da Alibaba Cloud, con potenti capacità di comprensione e generazione del linguaggio naturale. Può rispondere a varie domande, creare contenuti testuali, esprimere opinioni e scrivere codice, svolgendo un ruolo in vari settori."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "SenseTime offre servizi di modelli di grandi dimensioni full-stack, supportati dalla potente infrastruttura di SenseTime."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow si impegna ad accelerare l'AGI per il bene dell'umanità, migliorando l'efficienza dell'AI su larga scala attraverso stack GenAI facili da usare e a basso costo."
79
85
  },
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultraは星火大モデルシリーズの中で最も強力なバージョンで、ネットワーク検索のリンクをアップグレードし、テキストコンテンツの理解と要約能力を向上させています。これは、オフィスの生産性を向上させ、要求に正確に応えるための全方位のソリューションであり、業界をリードするインテリジェントな製品です。"
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Generation over generation, Meta Llama 3は幅広い業界ベンチマークで最先端のパフォーマンスを示し、改善された推論を含む新しい機能を提供します。"
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "検索強化技術を採用し、大モデルと分野知識、全網知識の全面的なリンクを実現しています。PDF、Wordなどのさまざまな文書のアップロードやURL入力をサポートし、情報取得が迅速かつ包括的で、出力結果は正確かつ専門的です。"
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPOは非常に柔軟なマルチモデル統合で、卓越した創造的体験を提供することを目的としています。"
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)は、高精度の指示モデルであり、複雑な計算に適しています。"
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+は、企業グレードのワークロードに対応するために設計された最先端のRAG最適化モデルです。"
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command Rは、対話と長いコンテキストタスクに最適化されたLLMであり、特に動的なインタラクションと知識管理に適しています。"
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "混元の最新のMOEアーキテクチャFunctionCallモデルで、高品質のFunctionCallデータトレーニングを経て、コンテキストウィンドウは32Kに達し、複数の次元の評価指標でリーダーシップを発揮しています。"
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "MOE構造にアップグレードされ、コンテキストウィンドウは256kで、NLP、コード、数学、業界などの多くの評価セットで多くのオープンソースモデルをリードしています。"
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "私たちの最新のモデルシリーズで、卓越した推論性能を持ち、1Mのコンテキスト長をサポートし、より強力な指示追従とツール呼び出し能力を備えています。"
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLMは、学習科学の原則に従って訓練された実験的なタスク特化型言語モデルで、教育や学習のシーンでシステムの指示に従い、専門的なメンターとして機能します。"
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3は、開発者、研究者、企業向けのオープンな大規模言語モデル(LLM)であり、生成AIのアイデアを構築、実験、責任を持って拡張するのを支援することを目的としています。世界的なコミュニティの革新の基盤システムの一部として、計算能力とリソースが限られたエッジデバイスや、より迅速なトレーニング時間に非常に適しています。"
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2はMicrosoft AIが提供する言語モデルで、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。"
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labsは企業向けに基盤モデルと人工知能システムを構築し、生成的人工知能の生産への応用を加速します。"
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AIは、360社が提供するAIモデルとサービスプラットフォームであり、360GPT2 Pro、360GPT Pro、360GPT Turbo、360GPT Turbo Responsibility 8Kなど、さまざまな先進的な自然言語処理モデルを提供しています。これらのモデルは、大規模なパラメータと多モーダル能力を組み合わせており、テキスト生成、意味理解、対話システム、コード生成などの分野で広く使用されています。柔軟な価格戦略を通じて、360 AIは多様なユーザーのニーズに応え、開発者の統合をサポートし、スマートアプリケーションの革新と発展を促進します。"
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrockは、Amazon AWSが提供するサービスで、企業に先進的なAI言語モデルと視覚モデルを提供することに特化しています。そのモデルファミリーには、AnthropicのClaudeシリーズやMetaのLlama 3.1シリーズなどが含まれ、軽量から高性能までのさまざまな選択肢を提供し、テキスト生成、対話、画像処理などの多様なタスクをサポートし、異なる規模とニーズの企業アプリケーションに適しています。"
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Cloudflareのグローバルネットワーク上で、サーバーレスGPUによって駆動される機械学習モデルを実行します。"
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeekは、人工知能技術の研究と応用に特化した企業であり、最新のモデルDeepSeek-V2.5は、汎用対話とコード処理能力を融合させ、人間の好みの整合、ライティングタスク、指示の遵守などの面で顕著な向上を実現しています。"
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "GroqのLPU推論エンジンは、最新の独立した大規模言語モデル(LLM)ベンチマークテストで卓越したパフォーマンスを示し、その驚異的な速度と効率でAIソリューションの基準を再定義しています。Groqは、即時推論速度の代表であり、クラウドベースの展開で良好なパフォーマンスを発揮しています。"
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higressは、阿里内部でTengineのリロードが長期接続のビジネスに悪影響を及ぼすことや、gRPC/Dubboの負荷分散能力が不足している問題を解決するために生まれた、クラウドネイティブなAPIゲートウェイです。"
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "HuggingFace Inference APIは、数千のモデルをさまざまなタスクに対して探索するための迅速かつ無料の方法を提供します。新しいアプリケーションのプロトタイプを作成している場合でも、機械学習の機能を試している場合でも、このAPIは複数の分野の高性能モデルに即座にアクセスできるようにします。"
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "通義千問は、アリババクラウドが独自に開発した超大規模言語モデルであり、強力な自然言語理解と生成能力を持っています。さまざまな質問に答えたり、文章を創作したり、意見を表現したり、コードを執筆したりすることができ、さまざまな分野で活躍しています。"
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "商湯日日新は、商湯の強力な基盤支援に基づき、高効率で使いやすい全スタックの大規模モデルサービスを提供します。"
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlowは、AGIを加速させ、人類に利益をもたらすことを目指し、使いやすくコスト効率の高いGenAIスタックを通じて大規模AIの効率を向上させることに取り組んでいます。"
79
85
  },
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra는 스타크 대형 모델 시리즈 중 가장 강력한 버전으로, 업그레이드된 네트워크 검색 링크와 함께 텍스트 내용의 이해 및 요약 능력을 향상시킵니다. 사무 생산성을 높이고 정확한 요구에 응답하기 위한 종합 솔루션으로, 업계를 선도하는 스마트 제품입니다."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "세대에서 세대로, Meta Llama 3는 다양한 산업 벤치마크에서 최첨단 성능을 보여주며, 개선된 추론을 포함한 새로운 기능을 제공합니다."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "검색 강화 기술을 통해 대형 모델과 분야 지식, 전 세계 지식의 완전한 연결을 실현합니다. PDF, Word 등 다양한 문서 업로드 및 웹사이트 입력을 지원하며, 정보 획득이 신속하고 포괄적이며, 출력 결과가 정확하고 전문적입니다."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO는 뛰어난 창의적 경험을 제공하기 위해 설계된 고도로 유연한 다중 모델 통합입니다."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)는 고정밀 지시 모델로, 복잡한 계산에 적합합니다."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+는 기업급 작업을 처리하기 위해 설계된 최첨단 RAG 최적화 모델입니다."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R은 대화 및 긴 컨텍스트 작업에 최적화된 LLM으로, 동적 상호작용 및 지식 관리에 특히 적합합니다."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "혼원 최신 MOE 구조의 FunctionCall 모델로, 고품질 FunctionCall 데이터 훈련을 거쳤으며, 컨텍스트 윈도우는 32K에 도달하고 여러 차원의 평가 지표에서 선두에 있습니다."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "MOE 구조로 업그레이드되었으며, 컨텍스트 윈도우는 256k로 설정되어 NLP, 코드, 수학, 산업 등 여러 평가 집합에서 많은 오픈 소스 모델을 선도하고 있습니다."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "우리가 최신으로 선보이는 모델 시리즈로, 뛰어난 추론 성능을 자랑하며 1M의 컨텍스트 길이와 더 강력한 지시 따르기 및 도구 호출 기능을 지원합니다."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM은 학습 과학 원칙에 맞춰 훈련된 실험적이고 특정 작업에 특화된 언어 모델로, 교육 및 학습 환경에서 시스템 지침을 따르며 전문가 멘토 역할을 수행합니다."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3은 개발자, 연구자 및 기업을 위한 오픈 대형 언어 모델(LLM)로, 생성 AI 아이디어를 구축하고 실험하며 책임감 있게 확장하는 데 도움을 주기 위해 설계되었습니다. 전 세계 커뮤니티 혁신의 기초 시스템의 일환으로, 계산 능력과 자원이 제한된 환경, 엣지 장치 및 더 빠른 훈련 시간에 매우 적합합니다."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2는 Microsoft AI가 제공하는 언어 모델로, 복잡한 대화, 다국어, 추론 및 스마트 어시스턴트 분야에서 특히 뛰어난 성능을 보입니다."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs는 기업을 위해 기본 모델과 인공지능 시스템을 구축하여 생성적 인공지능의 생산적 활용을 가속화합니다."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI는 360 회사가 출시한 AI 모델 및 서비스 플랫폼으로, 360GPT2 Pro, 360GPT Pro, 360GPT Turbo 및 360GPT Turbo Responsibility 8K를 포함한 다양한 고급 자연어 처리 모델을 제공합니다. 이러한 모델은 대규모 매개변수와 다중 모드 능력을 결합하여 텍스트 생성, 의미 이해, 대화 시스템 및 코드 생성 등 다양한 분야에 널리 사용됩니다. 유연한 가격 전략을 통해 360 AI는 다양한 사용자 요구를 충족하고 개발자가 통합할 수 있도록 지원하여 스마트화 응용 프로그램의 혁신과 발전을 촉진합니다."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock은 아마존 AWS가 제공하는 서비스로, 기업에 고급 AI 언어 모델과 비주얼 모델을 제공합니다. 그 모델 가족에는 Anthropic의 Claude 시리즈, Meta의 Llama 3.1 시리즈 등이 포함되어 있으며, 경량형부터 고성능까지 다양한 선택지를 제공하고 텍스트 생성, 대화, 이미지 처리 등 여러 작업을 지원하여 다양한 규모와 요구의 기업 응용 프로그램에 적합합니다."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Cloudflare의 글로벌 네트워크에서 서버리스 GPU로 구동되는 머신러닝 모델을 실행합니다."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek는 인공지능 기술 연구 및 응용에 집중하는 회사로, 최신 모델인 DeepSeek-V2.5는 일반 대화 및 코드 처리 능력을 통합하고 인간의 선호 정렬, 작문 작업 및 지시 따르기 등에서 상당한 향상을 이루었습니다."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Groq의 LPU 추론 엔진은 최신 독립 대형 언어 모델(LLM) 벤치마크 테스트에서 뛰어난 성능을 보이며, 놀라운 속도와 효율성으로 AI 솔루션의 기준을 재정의하고 있습니다. Groq는 즉각적인 추론 속도의 대표주자로, 클라우드 기반 배포에서 우수한 성능을 보여줍니다."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress는 클라우드 네이티브 API 게이트웨이로, 알리 내부에서 Tengine reload가 장기 연결 비즈니스에 미치는 영향을 해결하고 gRPC/Dubbo의 로드 밸런싱 능력이 부족한 문제를 해결하기 위해 탄생했습니다."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "HuggingFace Inference API는 수천 개의 모델을 탐색할 수 있는 빠르고 무료의 방법을 제공합니다. 새로운 애플리케이션을 프로토타입 하거나 머신러닝의 기능을 시도하는 경우, 이 API는 여러 분야의 고성능 모델에 즉시 접근할 수 있게 해줍니다."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "통의천문은 알리바바 클라우드가 자주 개발한 초대형 언어 모델로, 강력한 자연어 이해 및 생성 능력을 갖추고 있습니다. 다양한 질문에 답변하고, 텍스트 콘텐츠를 창작하며, 의견을 표현하고, 코드를 작성하는 등 여러 분야에서 활용됩니다."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "상탕의 일일 혁신은 상탕의 강력한 기반 지원을 바탕으로 효율적이고 사용하기 쉬운 전체 스택 대모델 서비스를 제공합니다."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow는 AGI를 가속화하여 인류에 혜택을 주기 위해 사용하기 쉽고 비용이 저렴한 GenAI 스택을 통해 대규모 AI 효율성을 향상시키는 데 전념하고 있습니다."
79
85
  },
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra is de krachtigste versie in de Spark-grootmodelserie, die de netwerkintegratie heeft geüpgraded en de tekstbegrip- en samenvattingscapaciteiten heeft verbeterd. Het is een allesomvattende oplossing voor het verbeteren van de kantoorproductiviteit en het nauwkeurig reageren op behoeften, en is een toonaangevend intelligent product in de industrie."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Generatie na generatie toont Meta Llama 3 state-of-the-art prestaties op een breed scala aan industriële benchmarks en biedt nieuwe mogelijkheden, waaronder verbeterd redeneren."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Maakt gebruik van zoekversterkingstechnologie om een uitgebreide koppeling tussen het grote model en domeinspecifieke kennis en wereldwijde kennis te realiseren. Ondersteunt het uploaden van verschillende documenten zoals PDF en Word, evenals URL-invoer, met tijdige en uitgebreide informatieverzameling en nauwkeurige, professionele output."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO is een zeer flexibele multi-model combinatie, ontworpen om een uitstekende creatieve ervaring te bieden."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) is een hoogprecisie instructiemodel, geschikt voor complexe berekeningen."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+ is een state-of-the-art RAG-geoptimaliseerd model ontworpen om enterprise-grade workloads aan te pakken."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R is geoptimaliseerd voor conversatie- en lange contexttaken, bijzonder geschikt voor dynamische interactie en kennisbeheer."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "Het nieuwste MOE-architectuur FunctionCall-model van Hunyuan, getraind op hoogwaardige FunctionCall-gegevens, met een contextvenster van 32K, en staat voorop in meerdere dimensies van evaluatie-indicatoren."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "Geüpgraded naar een MOE-structuur, met een contextvenster van 256k, en leidt in verschillende evaluatiesets op het gebied van NLP, code, wiskunde en industrie ten opzichte van vele open-source modellen."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "Onze nieuwste modelreeks met uitstekende redeneervaardigheden, ondersteunt een contextlengte van 1M en heeft verbeterde instructievolging en toolaanroepmogelijkheden."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM is een experimenteel, taak-specifiek taalmodel dat is getraind volgens de principes van de leerwetenschap, en kan systeeminstructies volgen in onderwijs- en leeromgevingen, en fungeert als een expertmentor."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 is een open groot taalmodel (LLM) gericht op ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoordelijk opschalen van hun generatieve AI-ideeën. Als onderdeel van het basis systeem voor wereldwijde gemeenschapsinnovatie is het zeer geschikt voor apparaten met beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, redenering en intelligente assistenttoepassingen."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs bouwt basismodellen en AI-systemen voor bedrijven, en versnelt de toepassing van generatieve AI in de productie."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI is een AI-model- en serviceplatform gelanceerd door het bedrijf 360, dat verschillende geavanceerde modellen voor natuurlijke taalverwerking biedt, waaronder 360GPT2 Pro, 360GPT Pro, 360GPT Turbo en 360GPT Turbo Responsibility 8K. Deze modellen combineren grootschalige parameters en multimodale capaciteiten, en worden breed toegepast in tekstgeneratie, semantisch begrip, dialoogsystemen en codegeneratie. Met flexibele prijsstrategieën voldoet 360 AI aan diverse gebruikersbehoeften, ondersteunt het ontwikkelaars bij integratie en bevordert het de innovatie en ontwikkeling van intelligente toepassingen."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock is een dienst van Amazon AWS die zich richt op het bieden van geavanceerde AI-taalmodellen en visuele modellen voor bedrijven. De modellenfamilie omvat de Claude-serie van Anthropic, de Llama 3.1-serie van Meta, en meer, met opties variërend van lichtgewicht tot hoge prestaties, en ondersteunt tekstgeneratie, dialogen, beeldverwerking en meer, geschikt voor bedrijfsapplicaties van verschillende schalen en behoeften."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Voer machine learning-modellen aan, aangedreven door serverloze GPU's, uit op het wereldwijde netwerk van Cloudflare."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek is een bedrijf dat zich richt op onderzoek en toepassing van kunstmatige intelligentietechnologie, en hun nieuwste model DeepSeek-V2.5 combineert algemene dialoog- en codeverwerkingscapaciteiten, met significante verbeteringen in het afstemmen op menselijke voorkeuren, schrijfopdrachten en het volgen van instructies."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "De LPU-inferentie-engine van Groq presteert uitstekend in de nieuwste onafhankelijke benchmarktests voor grote taalmodellen (LLM), en herdefinieert de normen voor AI-oplossingen met zijn verbazingwekkende snelheid en efficiëntie. Groq is een vertegenwoordiger van onmiddellijke inferentiesnelheid en toont goede prestaties in cloudgebaseerde implementaties."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress is een cloud-native API-gateway, ontwikkeld binnen Alibaba om de nadelige effecten van Tengine reload op langdurige verbindingen en de onvoldoende load balancing capaciteiten van gRPC/Dubbo aan te pakken."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "HuggingFace Inference API biedt een snelle en gratis manier om duizenden modellen te verkennen voor verschillende taken. Of u nu prototypes voor nieuwe applicaties ontwerpt of de mogelijkheden van machine learning uitprobeert, deze API geeft u directe toegang tot hoogpresterende modellen in meerdere domeinen."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Tongyi Qianwen is een door Alibaba Cloud zelf ontwikkeld grootschalig taalmodel met krachtige mogelijkheden voor natuurlijke taalbegrip en -generatie. Het kan verschillende vragen beantwoorden, tekstinhoud creëren, meningen uiten, code schrijven, en speelt een rol in verschillende domeinen."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "SenseNova, ondersteund door de krachtige infrastructuur van SenseTime, biedt efficiënte en gebruiksvriendelijke full-stack modelservices."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow streeft ernaar AGI te versnellen ten behoeve van de mensheid, door de efficiëntie van grootschalige AI te verbeteren met een gebruiksvriendelijke en kosteneffectieve GenAI-stack."
79
85
  },
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra to najsilniejsza wersja w serii modeli Spark, która, oprócz ulepszonego łącza wyszukiwania w sieci, zwiększa zdolność rozumienia i podsumowywania treści tekstowych. Jest to kompleksowe rozwiązanie mające na celu zwiększenie wydajności biurowej i dokładne odpowiadanie na potrzeby, stanowiące inteligentny produkt wiodący w branży."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Generacja po generacji, Meta Llama 3 wykazuje najlepsze osiągi w szerokim zakresie benchmarków branżowych i oferuje nowe możliwości, w tym ulepszone rozumowanie."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Wykorzystuje technologię wzmacniania wyszukiwania, aby połączyć duży model z wiedzą branżową i wiedzą z całej sieci. Obsługuje przesyłanie różnych dokumentów, takich jak PDF, Word, oraz wprowadzanie adresów URL, zapewniając szybki i kompleksowy dostęp do informacji oraz dokładne i profesjonalne wyniki."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO to wysoce elastyczna fuzja wielu modeli, mająca na celu zapewnienie doskonałego doświadczenia twórczego."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) to model poleceń o wysokiej precyzji, idealny do złożonych obliczeń."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+ to model zoptymalizowany pod kątem RAG, zaprojektowany do obsługi obciążeń roboczych na poziomie przedsiębiorstwa."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R to LLM zoptymalizowany do dialogów i zadań z długim kontekstem, szczególnie odpowiedni do dynamicznej interakcji i zarządzania wiedzą."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "Najnowocześniejszy model FunctionCall w architekturze MOE Hunyuan, przeszkolony na wysokiej jakości danych FunctionCall, z oknem kontekstowym o długości 32K, osiągający wiodące wyniki w wielu wymiarach oceny."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "Zaktualizowana do struktury MOE, z oknem kontekstowym o długości 256k, prowadzi w wielu zestawach testowych w NLP, kodowaniu, matematyce i innych dziedzinach w porównaniu do wielu modeli open source."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "Nasza najnowsza seria modeli, charakteryzująca się doskonałymi osiągami wnioskowania, obsługująca długość kontekstu do 1M oraz lepsze możliwości śledzenia instrukcji i wywoływania narzędzi."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM to eksperymentalny model językowy, specyficzny dla zadań, przeszkolony zgodnie z zasadami nauki o uczeniu się, który może przestrzegać systemowych instrukcji w scenariuszach nauczania i uczenia się, pełniąc rolę eksperta mentora."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 to otwarty duży model językowy (LLM) skierowany do deweloperów, badaczy i przedsiębiorstw, mający na celu pomoc w budowaniu, eksperymentowaniu i odpowiedzialnym rozwijaniu ich pomysłów na generatywną sztuczną inteligencję. Jako część podstawowego systemu innowacji globalnej społeczności, jest idealny dla urządzeń o ograniczonej mocy obliczeniowej i zasobach, a także dla szybszego czasu szkolenia."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 to model językowy oferowany przez Microsoft AI, który wyróżnia się w złożonych rozmowach, wielojęzyczności, wnioskowaniu i jako inteligentny asystent."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs buduje podstawowe modele i systemy sztucznej inteligencji dla przedsiębiorstw, przyspieszając zastosowanie generatywnej sztucznej inteligencji w produkcji."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI to platforma modeli i usług AI wprowadzona przez firmę 360, oferująca różnorodne zaawansowane modele przetwarzania języka naturalnego, w tym 360GPT2 Pro, 360GPT Pro, 360GPT Turbo i 360GPT Turbo Responsibility 8K. Modele te łączą dużą liczbę parametrów z multimodalnymi zdolnościami, szeroko stosowanymi w generowaniu tekstu, rozumieniu semantycznym, systemach dialogowych i generowaniu kodu. Dzięki elastycznej strategii cenowej, 360 AI zaspokaja zróżnicowane potrzeby użytkowników, wspierając integrację przez deweloperów, co przyczynia się do innowacji i rozwoju aplikacji inteligentnych."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock to usługa oferowana przez Amazon AWS, skoncentrowana na dostarczaniu zaawansowanych modeli językowych i wizualnych dla przedsiębiorstw. Jej rodzina modeli obejmuje serię Claude od Anthropic, serię Llama 3.1 od Meta i inne, oferując różnorodne opcje od lekkich do wysokowydajnych, wspierając generowanie tekstu, dialogi, przetwarzanie obrazów i inne zadania, odpowiednie dla różnych skal i potrzeb aplikacji biznesowych."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Uruchamiaj modele uczenia maszynowego napędzane przez GPU w globalnej sieci Cloudflare."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek to firma skoncentrowana na badaniach i zastosowaniach technologii sztucznej inteligencji, której najnowszy model DeepSeek-V2.5 łączy zdolności do prowadzenia ogólnych rozmów i przetwarzania kodu, osiągając znaczące postępy w zakresie dostosowywania do preferencji ludzkich, zadań pisarskich i przestrzegania instrukcji."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Silnik inferencyjny LPU firmy Groq wyróżnia się w najnowszych niezależnych testach benchmarkowych dużych modeli językowych (LLM), redefiniując standardy rozwiązań AI dzięki niesamowitej szybkości i wydajności. Groq jest reprezentantem natychmiastowej szybkości inferencji, wykazując dobrą wydajność w wdrożeniach opartych na chmurze."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress to chmurowa brama API, która powstała w firmie Alibaba, aby rozwiązać problemy związane z ponownym ładowaniem Tengine, które negatywnie wpływa na długoterminowe połączenia, oraz niewystarczającą zdolnością do równoważenia obciążenia gRPC/Dubbo."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "HuggingFace Inference API oferuje szybki i bezpłatny sposób na eksplorację tysięcy modeli, które nadają się do różnych zadań. Niezależnie od tego, czy prototypujesz nową aplikację, czy próbujesz funkcji uczenia maszynowego, to API zapewnia natychmiastowy dostęp do wysokowydajnych modeli z wielu dziedzin."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Tongyi Qianwen to samodzielnie opracowany przez Alibaba Cloud model językowy o dużej skali, charakteryzujący się silnymi zdolnościami rozumienia i generowania języka naturalnego. Może odpowiadać na różnorodne pytania, tworzyć treści pisemne, wyrażać opinie, pisać kod i działać w wielu dziedzinach."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "SenseTime codziennie się rozwija, opierając się na potężnym wsparciu infrastrukturalnym SenseTime, oferując wydajne i łatwe w użyciu usługi dużych modeli w pełnym zakresie."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow dąży do przyspieszenia AGI, aby przynieść korzyści ludzkości, poprawiając wydajność dużych modeli AI dzięki łatwemu w użyciu i niskokosztowemu stosowi GenAI."
79
85
  },
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra é a versão mais poderosa da série de grandes modelos Xinghuo, que, ao atualizar a conexão de busca online, melhora a capacidade de compreensão e resumo de conteúdo textual. É uma solução abrangente para aumentar a produtividade no trabalho e responder com precisão às demandas, sendo um produto inteligente líder na indústria."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Geração após geração, o Meta Llama 3 demonstra desempenho de ponta em uma ampla gama de benchmarks da indústria e oferece novas capacidades, incluindo raciocínio aprimorado."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Utiliza tecnologia de busca aprimorada para conectar completamente o grande modelo com conhecimento de domínio e conhecimento da web. Suporta upload de vários documentos, como PDF e Word, e entrada de URLs, garantindo acesso a informações de forma rápida e abrangente, com resultados precisos e profissionais."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO é uma fusão de múltiplos modelos altamente flexível, projetada para oferecer uma experiência criativa excepcional."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) é um modelo de instrução de alta precisão, adequado para cálculos complexos."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+ é um modelo otimizado para RAG de última geração, projetado para lidar com cargas de trabalho de nível empresarial."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R é um LLM otimizado para tarefas de diálogo e longos contextos, especialmente adequado para interações dinâmicas e gerenciamento de conhecimento."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "O mais recente modelo FunctionCall da arquitetura MOE Hunyuan, treinado com dados de alta qualidade de FunctionCall, com uma janela de contexto de 32K, liderando em várias métricas de avaliação."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "Atualizado para uma estrutura MOE, com uma janela de contexto de 256k, liderando em várias avaliações em NLP, código, matemática e setores diversos em comparação com muitos modelos de código aberto."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "Nossa mais recente série de modelos, com desempenho de raciocínio excepcional, suportando um comprimento de contexto de 1M e capacidades aprimoradas de seguimento de instruções e chamadas de ferramentas."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM é um modelo de linguagem experimental e específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, podendo seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 é um modelo de linguagem de grande escala (LLM) aberto voltado para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e expandir suas ideias de IA geradora de forma responsável. Como parte de um sistema de base para inovação da comunidade global, é ideal para dispositivos de borda com capacidade de computação e recursos limitados, além de tempos de treinamento mais rápidos."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, que se destaca em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs constrói modelos fundamentais e sistemas de inteligência artificial para empresas, acelerando a aplicação da inteligência artificial generativa na produção."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI é a plataforma de modelos e serviços de IA lançada pela empresa 360, oferecendo uma variedade de modelos avançados de processamento de linguagem natural, incluindo 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Esses modelos combinam grandes parâmetros e capacidades multimodais, sendo amplamente aplicados em geração de texto, compreensão semântica, sistemas de diálogo e geração de código. Com uma estratégia de preços flexível, a 360 AI atende a diversas necessidades dos usuários, apoiando a integração de desenvolvedores e promovendo a inovação e o desenvolvimento de aplicações inteligentes."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock é um serviço oferecido pela Amazon AWS, focado em fornecer modelos de linguagem e visão de IA avançados para empresas. Sua família de modelos inclui a série Claude da Anthropic, a série Llama 3.1 da Meta, entre outros, abrangendo uma variedade de opções, desde modelos leves até de alto desempenho, suportando geração de texto, diálogos, processamento de imagens e outras tarefas, adequando-se a aplicações empresariais de diferentes escalas e necessidades."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Execute modelos de aprendizado de máquina impulsionados por GPU sem servidor na rede global da Cloudflare."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "A DeepSeek é uma empresa focada em pesquisa e aplicação de tecnologia de inteligência artificial, cujo modelo mais recente, DeepSeek-V2.5, combina capacidades de diálogo geral e processamento de código, alcançando melhorias significativas em alinhamento com preferências humanas, tarefas de escrita e seguimento de instruções."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "O motor de inferência LPU da Groq se destacou em testes de benchmark independentes de modelos de linguagem de grande escala (LLM), redefinindo os padrões de soluções de IA com sua velocidade e eficiência impressionantes. A Groq representa uma velocidade de inferência em tempo real, demonstrando bom desempenho em implantações baseadas em nuvem."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress é um gateway de API nativo da nuvem, criado internamente na Alibaba para resolver problemas de recarga do Tengine que afetam negócios de conexões longas, além de melhorar a capacidade de balanceamento de carga do gRPC/Dubbo."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "A API de Inferência do HuggingFace oferece uma maneira rápida e gratuita de explorar milhares de modelos para diversas tarefas. Seja você um protótipo para um novo aplicativo ou tentando as funcionalidades de aprendizado de máquina, esta API permite acesso instantâneo a modelos de alto desempenho em múltiplas áreas."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Qwen é um modelo de linguagem de grande escala desenvolvido pela Alibaba Cloud, com forte capacidade de compreensão e geração de linguagem natural. Ele pode responder a várias perguntas, criar conteúdo escrito, expressar opiniões e escrever código, atuando em vários campos."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "A SenseTime oferece serviços de grandes modelos de pilha completa, aproveitando o forte suporte da infraestrutura da SenseTime."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow se dedica a acelerar a AGI para beneficiar a humanidade, melhorando a eficiência da IA em larga escala por meio de uma pilha GenAI fácil de usar e de baixo custo."
79
85
  },