@lobehub/chat 1.19.14 → 1.19.15

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -2,9 +2,6 @@
2
2
  "01-ai/Yi-1.5-34B-Chat-16K": {
3
3
  "description": "Yi-1.5 34B, com um rico conjunto de amostras de treinamento, oferece desempenho superior em aplicações industriais."
4
4
  },
5
- "01-ai/Yi-1.5-6B-Chat": {
6
- "description": "Yi-1.5 é a versão evoluída da série Yi, com pré-treinamento de alta qualidade e dados de ajuste fino ricos."
7
- },
8
5
  "01-ai/Yi-1.5-9B-Chat-16K": {
9
6
  "description": "Yi-1.5 9B suporta 16K Tokens, oferecendo capacidade de geração de linguagem eficiente e fluida."
10
7
  },
@@ -47,41 +44,56 @@
47
44
  "NousResearch/Nous-Hermes-2-Yi-34B": {
48
45
  "description": "Nous Hermes-2 Yi (34B) oferece saídas de linguagem otimizadas e diversas possibilidades de aplicação."
49
46
  },
47
+ "Phi-3-5-mini-instruct": {
48
+ "description": "Atualização do modelo Phi-3-mini."
49
+ },
50
+ "Phi-3-medium-128k-instruct": {
51
+ "description": "Mesmo modelo Phi-3-medium, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos."
52
+ },
53
+ "Phi-3-medium-4k-instruct": {
54
+ "description": "Um modelo de 14B parâmetros, que apresenta melhor qualidade do que o Phi-3-mini, com foco em dados densos de raciocínio de alta qualidade."
55
+ },
56
+ "Phi-3-mini-128k-instruct": {
57
+ "description": "Mesmo modelo Phi-3-mini, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos."
58
+ },
59
+ "Phi-3-mini-4k-instruct": {
60
+ "description": "O menor membro da família Phi-3. Otimizado tanto para qualidade quanto para baixa latência."
61
+ },
62
+ "Phi-3-small-128k-instruct": {
63
+ "description": "Mesmo modelo Phi-3-small, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos."
64
+ },
65
+ "Phi-3-small-8k-instruct": {
66
+ "description": "Um modelo de 7B parâmetros, que apresenta melhor qualidade do que o Phi-3-mini, com foco em dados densos de raciocínio de alta qualidade."
67
+ },
50
68
  "Pro-128k": {
51
69
  "description": "Spark Pro-128K possui capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações de contexto, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo fornecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
52
70
  },
53
71
  "Qwen/Qwen1.5-110B-Chat": {
54
72
  "description": "Como uma versão de teste do Qwen2, Qwen1.5 utiliza dados em larga escala para alcançar funcionalidades de diálogo mais precisas."
55
73
  },
56
- "Qwen/Qwen1.5-14B-Chat": {
57
- "description": "Qwen1.5 é treinado com um grande conjunto de dados, especializado em tarefas linguísticas complexas."
58
- },
59
- "Qwen/Qwen1.5-32B-Chat": {
60
- "description": "Qwen1.5 possui habilidades de perguntas e respostas em múltiplos domínios e geração de texto."
61
- },
62
74
  "Qwen/Qwen1.5-72B-Chat": {
63
75
  "description": "Qwen 1.5 Chat (72B) oferece respostas rápidas e capacidade de diálogo natural, adequado para ambientes multilíngues."
64
76
  },
65
- "Qwen/Qwen1.5-7B-Chat": {
66
- "description": "Qwen1.5 melhora a capacidade de expressão em diálogos ao combinar pré-treinamento avançado e ajuste fino."
77
+ "Qwen/Qwen2-72B-Instruct": {
78
+ "description": "Qwen2 é um modelo de linguagem universal avançado, suportando diversos tipos de instruções."
67
79
  },
68
- "Qwen/Qwen2-1.5B-Instruct": {
69
- "description": "Qwen2 é uma nova série de modelos de linguagem de grande porte, projetada para otimizar o processamento de tarefas instrucionais."
80
+ "Qwen/Qwen2.5-14B-Instruct": {
81
+ "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
70
82
  },
71
- "Qwen/Qwen2-57B-A14B-Instruct": {
72
- "description": "Qwen2 é uma nova série, com o modelo 57B A14B se destacando em tarefas instrucionais."
83
+ "Qwen/Qwen2.5-32B-Instruct": {
84
+ "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
73
85
  },
74
- "Qwen/Qwen2-72B-Instruct": {
75
- "description": "Qwen2 é um modelo de linguagem universal avançado, suportando diversos tipos de instruções."
86
+ "Qwen/Qwen2.5-72B-Instruct": {
87
+ "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, com maior capacidade de compreensão e geração."
76
88
  },
77
- "Qwen/Qwen2-7B-Instruct": {
78
- "description": "Qwen2 é uma nova série de modelos de linguagem de grande porte, com capacidades de compreensão e geração mais robustas."
89
+ "Qwen/Qwen2.5-7B-Instruct": {
90
+ "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
79
91
  },
80
- "Qwen/Qwen2-Math-72B-Instruct": {
81
- "description": "Qwen2-Math foca na resolução de problemas na área de matemática, oferecendo respostas profissionais para questões de alta dificuldade."
92
+ "Qwen/Qwen2.5-Coder-7B-Instruct": {
93
+ "description": "Qwen2.5-Coder foca na escrita de código."
82
94
  },
83
- "THUDM/chatglm3-6b": {
84
- "description": "Como um modelo de linguagem de conversa bilíngue, ChatGLM3 pode lidar com tarefas de conversão entre chinês e inglês."
95
+ "Qwen/Qwen2.5-Math-72B-Instruct": {
96
+ "description": "Qwen2.5-Math foca na resolução de problemas na área de matemática, oferecendo respostas especializadas para questões de alta dificuldade."
85
97
  },
86
98
  "THUDM/glm-4-9b-chat": {
87
99
  "description": "GLM-4 9B é uma versão de código aberto, oferecendo uma experiência de diálogo otimizada para aplicações de conversa."
@@ -158,6 +170,15 @@
158
170
  "accounts/yi-01-ai/models/yi-large": {
159
171
  "description": "O modelo Yi-Large oferece excelente capacidade de processamento multilíngue, adequado para diversas tarefas de geração e compreensão de linguagem."
160
172
  },
173
+ "ai21-jamba-1.5-large": {
174
+ "description": "Um modelo multilíngue com 398B de parâmetros (94B ativos), oferecendo uma janela de contexto longa de 256K, chamada de função, saída estruturada e geração fundamentada."
175
+ },
176
+ "ai21-jamba-1.5-mini": {
177
+ "description": "Um modelo multilíngue com 52B de parâmetros (12B ativos), oferecendo uma janela de contexto longa de 256K, chamada de função, saída estruturada e geração fundamentada."
178
+ },
179
+ "ai21-jamba-instruct": {
180
+ "description": "Um modelo LLM baseado em Mamba de qualidade de produção para alcançar desempenho, qualidade e eficiência de custo de classe mundial."
181
+ },
161
182
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
162
183
  "description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio."
163
184
  },
@@ -254,6 +275,12 @@
254
275
  "cognitivecomputations/dolphin-mixtral-8x22b": {
255
276
  "description": "Dolphin Mixtral 8x22B é um modelo projetado para seguir instruções, diálogos e programação."
256
277
  },
278
+ "cohere-command-r": {
279
+ "description": "Command R é um modelo generativo escalável voltado para RAG e uso de ferramentas, permitindo IA em escala de produção para empresas."
280
+ },
281
+ "cohere-command-r-plus": {
282
+ "description": "Command R+ é um modelo otimizado para RAG de última geração, projetado para lidar com cargas de trabalho de nível empresarial."
283
+ },
257
284
  "command-r": {
258
285
  "description": "Command R é um LLM otimizado para tarefas de diálogo e longos contextos, especialmente adequado para interações dinâmicas e gerenciamento de conhecimento."
259
286
  },
@@ -263,12 +290,6 @@
263
290
  "databricks/dbrx-instruct": {
264
291
  "description": "DBRX Instruct oferece capacidade de processamento de instruções altamente confiável, suportando aplicações em diversos setores."
265
292
  },
266
- "deepseek-ai/DeepSeek-Coder-V2-Instruct": {
267
- "description": "DeepSeek Coder V2 é projetado para tarefas de código, focando na geração de código eficiente."
268
- },
269
- "deepseek-ai/DeepSeek-V2-Chat": {
270
- "description": "DeepSeek V2 possui 6.7 bilhões de parâmetros, suportando processamento de texto em inglês e chinês."
271
- },
272
293
  "deepseek-ai/DeepSeek-V2.5": {
273
294
  "description": "DeepSeek V2.5 combina as excelentes características das versões anteriores, aprimorando a capacidade geral e de codificação."
274
295
  },
@@ -467,6 +488,8 @@
467
488
  "internlm/internlm2_5-7b-chat": {
468
489
  "description": "InternLM2.5 oferece soluções de diálogo inteligente em múltiplos cenários."
469
490
  },
491
+ "jamba-1.5-large": {},
492
+ "jamba-1.5-mini": {},
470
493
  "llama-3.1-70b-instruct": {
471
494
  "description": "O modelo Llama 3.1 70B Instruct possui 70B de parâmetros, capaz de oferecer desempenho excepcional em tarefas de geração de texto e instrução em larga escala."
472
495
  },
@@ -530,6 +553,21 @@
530
553
  "mathstral": {
531
554
  "description": "MathΣtral é projetado para pesquisa científica e raciocínio matemático, oferecendo capacidade de cálculo eficaz e interpretação de resultados."
532
555
  },
556
+ "meta-llama-3-70b-instruct": {
557
+ "description": "Um poderoso modelo com 70 bilhões de parâmetros, destacando-se em raciocínio, codificação e amplas aplicações linguísticas."
558
+ },
559
+ "meta-llama-3-8b-instruct": {
560
+ "description": "Um modelo versátil com 8 bilhões de parâmetros, otimizado para tarefas de diálogo e geração de texto."
561
+ },
562
+ "meta-llama-3.1-405b-instruct": {
563
+ "description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria."
564
+ },
565
+ "meta-llama-3.1-70b-instruct": {
566
+ "description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria."
567
+ },
568
+ "meta-llama-3.1-8b-instruct": {
569
+ "description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria."
570
+ },
533
571
  "meta-llama/Llama-2-13b-chat-hf": {
534
572
  "description": "LLaMA-2 Chat (13B) oferece excelente capacidade de processamento de linguagem e uma experiência interativa notável."
535
573
  },
@@ -539,9 +577,6 @@
539
577
  "meta-llama/Llama-3-8b-chat-hf": {
540
578
  "description": "LLaMA-3 Chat (8B) oferece suporte multilíngue, abrangendo um rico conhecimento em diversas áreas."
541
579
  },
542
- "meta-llama/Meta-Llama-3-70B-Instruct": {
543
- "description": "LLaMA 3 suporta geração de texto de grande capacidade e interpretação de instruções."
544
- },
545
580
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
546
581
  "description": "Llama 3 70B Instruct Lite é ideal para ambientes que exigem alta eficiência e baixa latência."
547
582
  },
@@ -620,12 +655,21 @@
620
655
  "mistral-large": {
621
656
  "description": "Mixtral Large é o modelo de destaque da Mistral, combinando capacidades de geração de código, matemática e raciocínio, suportando uma janela de contexto de 128k."
622
657
  },
658
+ "mistral-large-2407": {
659
+ "description": "Mistral Large (2407) é um modelo de linguagem avançado (LLM) com capacidades de raciocínio, conhecimento e codificação de última geração."
660
+ },
623
661
  "mistral-large-latest": {
624
662
  "description": "Mistral Large é o modelo de destaque, especializado em tarefas multilíngues, raciocínio complexo e geração de código, sendo a escolha ideal para aplicações de alto nível."
625
663
  },
626
664
  "mistral-nemo": {
627
665
  "description": "Mistral Nemo é um modelo de 12B desenvolvido em colaboração entre a Mistral AI e a NVIDIA, oferecendo desempenho eficiente."
628
666
  },
667
+ "mistral-small": {
668
+ "description": "Mistral Small pode ser usado em qualquer tarefa baseada em linguagem que exija alta eficiência e baixa latência."
669
+ },
670
+ "mistral-small-latest": {
671
+ "description": "Mistral Small é uma opção de alto custo-benefício, rápida e confiável, adequada para casos de uso como tradução, resumo e análise de sentimentos."
672
+ },
629
673
  "mistralai/Mistral-7B-Instruct-v0.1": {
630
674
  "description": "Mistral (7B) Instruct é conhecido por seu alto desempenho, adequado para diversas tarefas de linguagem."
631
675
  },
@@ -713,20 +757,29 @@
713
757
  "phi3:14b": {
714
758
  "description": "Phi-3 é um modelo leve e aberto lançado pela Microsoft, adequado para integração eficiente e raciocínio de conhecimento em larga escala."
715
759
  },
760
+ "pixtral-12b-2409": {
761
+ "description": "O modelo Pixtral demonstra forte capacidade em tarefas de compreensão de gráficos e imagens, perguntas e respostas de documentos, raciocínio multimodal e seguimento de instruções, podendo ingerir imagens em resolução natural e proporções, além de processar um número arbitrário de imagens em uma janela de contexto longa de até 128K tokens."
762
+ },
763
+ "qwen-coder-turbo-latest": {
764
+ "description": "Modelo de código Qwen."
765
+ },
716
766
  "qwen-long": {
717
767
  "description": "O Qwen é um modelo de linguagem em larga escala que suporta contextos de texto longos e funcionalidades de diálogo baseadas em documentos longos e múltiplos cenários."
718
768
  },
719
- "qwen-max": {
720
- "description": "O Qwen é um modelo de linguagem em larga escala com trilhões de parâmetros, suportando entradas em diferentes idiomas, incluindo chinês e inglês, atualmente a versão do produto Qwen 2.5 por trás do modelo API."
769
+ "qwen-math-plus-latest": {
770
+ "description": "O modelo de matemática Qwen é especificamente projetado para resolver problemas matemáticos."
721
771
  },
722
- "qwen-max-longcontext": {
723
- "description": "O Qwen é um modelo de linguagem em larga escala com trilhões de parâmetros, suportando entradas em diferentes idiomas, incluindo chinês e inglês, com uma janela de contexto expandida."
772
+ "qwen-math-turbo-latest": {
773
+ "description": "O modelo de matemática Qwen é especificamente projetado para resolver problemas matemáticos."
724
774
  },
725
- "qwen-plus": {
726
- "description": "O Qwen é uma versão aprimorada do modelo de linguagem em larga escala, suportando entradas em diferentes idiomas, incluindo chinês e inglês."
775
+ "qwen-max-latest": {
776
+ "description": "O modelo de linguagem em larga escala Qwen Max, com trilhões de parâmetros, que suporta entradas em diferentes idiomas, incluindo chinês e inglês, e é o modelo de API por trás da versão do produto Qwen 2.5."
727
777
  },
728
- "qwen-turbo": {
729
- "description": "O Qwen é um modelo de linguagem em larga escala que suporta entradas em diferentes idiomas, incluindo chinês e inglês."
778
+ "qwen-plus-latest": {
779
+ "description": "A versão aprimorada do modelo de linguagem em larga escala Qwen Plus, que suporta entradas em diferentes idiomas, incluindo chinês e inglês."
780
+ },
781
+ "qwen-turbo-latest": {
782
+ "description": "O modelo de linguagem em larga escala Qwen Turbo, que suporta entradas em diferentes idiomas, incluindo chinês e inglês."
730
783
  },
731
784
  "qwen-vl-chat-v1": {
732
785
  "description": "O Qwen VL suporta uma maneira de interação flexível, incluindo múltiplas imagens, perguntas e respostas em várias rodadas, e capacidades criativas."
@@ -746,17 +799,32 @@
746
799
  "qwen2": {
747
800
  "description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
748
801
  },
749
- "qwen2-57b-a14b-instruct": {
750
- "description": "O Qwen2 é um modelo de 57B de código aberto com 14B de parâmetros ativados do MOE."
802
+ "qwen2.5-14b-instruct": {
803
+ "description": "Modelo de 14B parâmetros do Qwen 2.5, disponível como código aberto."
804
+ },
805
+ "qwen2.5-32b-instruct": {
806
+ "description": "Modelo de 32B parâmetros do Qwen 2.5, disponível como código aberto."
807
+ },
808
+ "qwen2.5-72b-instruct": {
809
+ "description": "Modelo de 72B parâmetros do Qwen 2.5, disponível como código aberto."
810
+ },
811
+ "qwen2.5-7b-instruct": {
812
+ "description": "Modelo de 7B parâmetros do Qwen 2.5, disponível como código aberto."
813
+ },
814
+ "qwen2.5-coder-1.5b-instruct": {
815
+ "description": "Versão de código aberto do modelo de código Qwen."
816
+ },
817
+ "qwen2.5-coder-7b-instruct": {
818
+ "description": "Versão de código aberto do modelo de código Qwen."
751
819
  },
752
- "qwen2-72b-instruct": {
753
- "description": "O Qwen2 é um modelo de 72B de código aberto."
820
+ "qwen2.5-math-1.5b-instruct": {
821
+ "description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
754
822
  },
755
- "qwen2-7b-instruct": {
756
- "description": "O Qwen2 é um modelo de 7B de código aberto."
823
+ "qwen2.5-math-72b-instruct": {
824
+ "description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
757
825
  },
758
- "qwen2-math-72b-instruct": {
759
- "description": "O modelo Qwen2-Math possui uma forte capacidade de resolução de problemas matemáticos."
826
+ "qwen2.5-math-7b-instruct": {
827
+ "description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
760
828
  },
761
829
  "qwen2:0.5b": {
762
830
  "description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
@@ -1,4 +1,5 @@
1
1
  {
2
+ "ai21": {},
2
3
  "ai360": {
3
4
  "description": "360 AI é a plataforma de modelos e serviços de IA lançada pela empresa 360, oferecendo uma variedade de modelos avançados de processamento de linguagem natural, incluindo 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Esses modelos combinam grandes parâmetros e capacidades multimodais, sendo amplamente aplicados em geração de texto, compreensão semântica, sistemas de diálogo e geração de código. Com uma estratégia de preços flexível, a 360 AI atende a diversas necessidades dos usuários, apoiando a integração de desenvolvedores e promovendo a inovação e o desenvolvimento de aplicações inteligentes."
4
5
  },
@@ -20,6 +21,9 @@
20
21
  "fireworksai": {
21
22
  "description": "Fireworks AI é um fornecedor líder de serviços de modelos de linguagem avançados, focando em chamadas de função e processamento multimodal. Seu modelo mais recente, Firefunction V2, baseado em Llama-3, é otimizado para chamadas de função, diálogos e seguimento de instruções. O modelo de linguagem visual FireLLaVA-13B suporta entradas mistas de imagem e texto. Outros modelos notáveis incluem a série Llama e a série Mixtral, oferecendo suporte eficiente para seguimento e geração de instruções multilíngues."
22
23
  },
24
+ "github": {
25
+ "description": "Com os Modelos do GitHub, os desenvolvedores podem se tornar engenheiros de IA e construir com os principais modelos de IA da indústria."
26
+ },
23
27
  "google": {
24
28
  "description": "A série Gemini do Google é seu modelo de IA mais avançado e versátil, desenvolvido pela Google DeepMind, projetado para ser multimodal, suportando compreensão e processamento sem costura de texto, código, imagens, áudio e vídeo. Adequado para uma variedade de ambientes, desde data centers até dispositivos móveis, melhorando significativamente a eficiência e a aplicabilidade dos modelos de IA."
25
29
  },
@@ -2,9 +2,6 @@
2
2
  "01-ai/Yi-1.5-34B-Chat-16K": {
3
3
  "description": "Yi-1.5 34B, с богатым набором обучающих образцов, демонстрирует превосходные результаты в отраслевых приложениях."
4
4
  },
5
- "01-ai/Yi-1.5-6B-Chat": {
6
- "description": "Yi-1.5 — это эволюционная версия серии Yi, обладающая высококачественным предобучением и богатым набором данных для дообучения."
7
- },
8
5
  "01-ai/Yi-1.5-9B-Chat-16K": {
9
6
  "description": "Yi-1.5 9B поддерживает 16K токенов, обеспечивая эффективные и плавные возможности генерации языка."
10
7
  },
@@ -47,41 +44,56 @@
47
44
  "NousResearch/Nous-Hermes-2-Yi-34B": {
48
45
  "description": "Nous Hermes-2 Yi (34B) предлагает оптимизированный языковой вывод и разнообразные возможности применения."
49
46
  },
47
+ "Phi-3-5-mini-instruct": {
48
+ "description": "Обновление модели Phi-3-mini."
49
+ },
50
+ "Phi-3-medium-128k-instruct": {
51
+ "description": "Та же модель Phi-3-medium, но с большим размером контекста для RAG или нескольких подсказок."
52
+ },
53
+ "Phi-3-medium-4k-instruct": {
54
+ "description": "Модель с 14B параметрами, демонстрирующая лучшее качество, чем Phi-3-mini, с акцентом на высококачественные, насыщенные рассуждениями данные."
55
+ },
56
+ "Phi-3-mini-128k-instruct": {
57
+ "description": "Та же модель Phi-3-mini, но с большим размером контекста для RAG или нескольких подсказок."
58
+ },
59
+ "Phi-3-mini-4k-instruct": {
60
+ "description": "Самая маленькая модель в семействе Phi-3. Оптимизирована как для качества, так и для низкой задержки."
61
+ },
62
+ "Phi-3-small-128k-instruct": {
63
+ "description": "Та же модель Phi-3-small, но с большим размером контекста для RAG или нескольких подсказок."
64
+ },
65
+ "Phi-3-small-8k-instruct": {
66
+ "description": "Модель с 7B параметрами, демонстрирующая лучшее качество, чем Phi-3-mini, с акцентом на высококачественные, насыщенные рассуждениями данные."
67
+ },
50
68
  "Pro-128k": {
51
69
  "description": "Spark Pro-128K оснащен возможностями обработки контекста большого объема, способным обрабатывать до 128K контекстной информации, особенно подходит для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
52
70
  },
53
71
  "Qwen/Qwen1.5-110B-Chat": {
54
72
  "description": "Как тестовая версия Qwen2, Qwen1.5 использует большие объемы данных для достижения более точных диалоговых функций."
55
73
  },
56
- "Qwen/Qwen1.5-14B-Chat": {
57
- "description": "Qwen1.5, обученный на больших наборах данных, хорошо справляется со сложными языковыми задачами."
58
- },
59
- "Qwen/Qwen1.5-32B-Chat": {
60
- "description": "Qwen1.5 обладает способностями к многопрофильным ответам на вопросы и генерации текстов."
61
- },
62
74
  "Qwen/Qwen1.5-72B-Chat": {
63
75
  "description": "Qwen 1.5 Chat (72B) обеспечивает быстрые ответы и естественные диалоговые возможности, подходящие для многоязычной среды."
64
76
  },
65
- "Qwen/Qwen1.5-7B-Chat": {
66
- "description": "Qwen1.5 улучшает способности диалогового выражения, сочетая высококачественное предобучение и дообучение."
77
+ "Qwen/Qwen2-72B-Instruct": {
78
+ "description": "Qwen2 это передовая универсальная языковая модель, поддерживающая множество типов команд."
67
79
  },
68
- "Qwen/Qwen2-1.5B-Instruct": {
69
- "description": "Qwen2 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
80
+ "Qwen/Qwen2.5-14B-Instruct": {
81
+ "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
70
82
  },
71
- "Qwen/Qwen2-57B-A14B-Instruct": {
72
- "description": "Qwen2 — это новая серия, модель 57B A14B показывает выдающиеся результаты в инструктивных задачах."
83
+ "Qwen/Qwen2.5-32B-Instruct": {
84
+ "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
73
85
  },
74
- "Qwen/Qwen2-72B-Instruct": {
75
- "description": "Qwen2 — это передовая универсальная языковая модель, поддерживающая множество типов команд."
86
+ "Qwen/Qwen2.5-72B-Instruct": {
87
+ "description": "Qwen2.5 — это новая серия крупных языковых моделей с более сильными способностями понимания и генерации."
76
88
  },
77
- "Qwen/Qwen2-7B-Instruct": {
78
- "description": "Qwen2 — это новая серия крупных языковых моделей с более сильными способностями к пониманию и генерации."
89
+ "Qwen/Qwen2.5-7B-Instruct": {
90
+ "description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
79
91
  },
80
- "Qwen/Qwen2-Math-72B-Instruct": {
81
- "description": "Qwen2-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы."
92
+ "Qwen/Qwen2.5-Coder-7B-Instruct": {
93
+ "description": "Qwen2.5-Coder сосредоточен на написании кода."
82
94
  },
83
- "THUDM/chatglm3-6b": {
84
- "description": "ChatGLM3, как двуязычная языковая модель, может обрабатывать задачи по преобразованию между китайским и английским языками."
95
+ "Qwen/Qwen2.5-Math-72B-Instruct": {
96
+ "description": "Qwen2.5-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы."
85
97
  },
86
98
  "THUDM/glm-4-9b-chat": {
87
99
  "description": "GLM-4 9B — это открытая версия, обеспечивающая оптимизированный диалоговый опыт для приложений."
@@ -158,6 +170,15 @@
158
170
  "accounts/yi-01-ai/models/yi-large": {
159
171
  "description": "Модель Yi-Large, обладающая выдающимися возможностями обработки нескольких языков, подходит для различных задач генерации и понимания языка."
160
172
  },
173
+ "ai21-jamba-1.5-large": {
174
+ "description": "Многоязычная модель с 398B параметрами (94B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование."
175
+ },
176
+ "ai21-jamba-1.5-mini": {
177
+ "description": "Многоязычная модель с 52B параметрами (12B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование."
178
+ },
179
+ "ai21-jamba-instruct": {
180
+ "description": "Модель LLM на основе Mamba, предназначенная для достижения наилучших показателей производительности, качества и экономической эффективности."
181
+ },
161
182
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
162
183
  "description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
163
184
  },
@@ -254,6 +275,12 @@
254
275
  "cognitivecomputations/dolphin-mixtral-8x22b": {
255
276
  "description": "Dolphin Mixtral 8x22B — это модель, разработанная для соблюдения инструкций, диалогов и программирования."
256
277
  },
278
+ "cohere-command-r": {
279
+ "description": "Command R — это масштабируемая генеративная модель, нацеленная на RAG и использование инструментов для обеспечения AI на уровне производства для предприятий."
280
+ },
281
+ "cohere-command-r-plus": {
282
+ "description": "Command R+ — это модель, оптимизированная для RAG, предназначенная для решения задач корпоративного уровня."
283
+ },
257
284
  "command-r": {
258
285
  "description": "Command R — это LLM, оптимизированная для диалогов и задач с длинным контекстом, особенно подходит для динамического взаимодействия и управления знаниями."
259
286
  },
@@ -263,12 +290,6 @@
263
290
  "databricks/dbrx-instruct": {
264
291
  "description": "DBRX Instruct предлагает высокую надежность в обработке команд, поддерживая приложения в различных отраслях."
265
292
  },
266
- "deepseek-ai/DeepSeek-Coder-V2-Instruct": {
267
- "description": "DeepSeek Coder V2 разработан для задач программирования, сосредоточен на эффективной генерации кода."
268
- },
269
- "deepseek-ai/DeepSeek-V2-Chat": {
270
- "description": "DeepSeek V2 обладает 6.7 миллиарда параметров и поддерживает обработку текстов на английском и китайском языках."
271
- },
272
293
  "deepseek-ai/DeepSeek-V2.5": {
273
294
  "description": "DeepSeek V2.5 объединяет отличительные черты предыдущих версий, улучшая общие и кодировочные способности."
274
295
  },
@@ -467,6 +488,8 @@
467
488
  "internlm/internlm2_5-7b-chat": {
468
489
  "description": "InternLM2.5 предлагает интеллектуальные решения для диалогов в различных сценариях."
469
490
  },
491
+ "jamba-1.5-large": {},
492
+ "jamba-1.5-mini": {},
470
493
  "llama-3.1-70b-instruct": {
471
494
  "description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд."
472
495
  },
@@ -530,6 +553,21 @@
530
553
  "mathstral": {
531
554
  "description": "MathΣtral специально разработан для научных исследований и математического вывода, обеспечивая эффективные вычислительные возможности и интерпретацию результатов."
532
555
  },
556
+ "meta-llama-3-70b-instruct": {
557
+ "description": "Мощная модель с 70 миллиардами параметров, превосходящая в области рассуждений, кодирования и широких языковых приложений."
558
+ },
559
+ "meta-llama-3-8b-instruct": {
560
+ "description": "Универсальная модель с 8 миллиардами параметров, оптимизированная для диалоговых и текстовых задач."
561
+ },
562
+ "meta-llama-3.1-405b-instruct": {
563
+ "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам."
564
+ },
565
+ "meta-llama-3.1-70b-instruct": {
566
+ "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам."
567
+ },
568
+ "meta-llama-3.1-8b-instruct": {
569
+ "description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам."
570
+ },
533
571
  "meta-llama/Llama-2-13b-chat-hf": {
534
572
  "description": "LLaMA-2 Chat (13B) предлагает отличные возможности обработки языка и выдающийся опыт взаимодействия."
535
573
  },
@@ -539,9 +577,6 @@
539
577
  "meta-llama/Llama-3-8b-chat-hf": {
540
578
  "description": "LLaMA-3 Chat (8B) предлагает многоязычную поддержку и охватывает широкий спектр областей знаний."
541
579
  },
542
- "meta-llama/Meta-Llama-3-70B-Instruct": {
543
- "description": "LLaMA 3 поддерживает генерацию больших объемов текста и интерпретацию инструкций."
544
- },
545
580
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
546
581
  "description": "Llama 3 70B Instruct Lite подходит для сред, требующих высокой производительности и низкой задержки."
547
582
  },
@@ -620,12 +655,21 @@
620
655
  "mistral-large": {
621
656
  "description": "Mixtral Large — это флагманская модель от Mistral, объединяющая возможности генерации кода, математики и вывода, поддерживающая контекстное окно 128k."
622
657
  },
658
+ "mistral-large-2407": {
659
+ "description": "Mistral Large (2407) — это продвинутая модель языка (LLM) с современными способностями рассуждения, знаний и кодирования."
660
+ },
623
661
  "mistral-large-latest": {
624
662
  "description": "Mistral Large — это флагманская большая модель, хорошо подходящая для многоязычных задач, сложного вывода и генерации кода, идеальный выбор для высококлассных приложений."
625
663
  },
626
664
  "mistral-nemo": {
627
665
  "description": "Mistral Nemo, разработанный в сотрудничестве между Mistral AI и NVIDIA, является высокоэффективной 12B моделью."
628
666
  },
667
+ "mistral-small": {
668
+ "description": "Mistral Small может использоваться для любых языковых задач, требующих высокой эффективности и низкой задержки."
669
+ },
670
+ "mistral-small-latest": {
671
+ "description": "Mistral Small — это экономически эффективный, быстрый и надежный вариант для таких случаев, как перевод, резюме и анализ настроений."
672
+ },
629
673
  "mistralai/Mistral-7B-Instruct-v0.1": {
630
674
  "description": "Mistral (7B) Instruct известен своей высокой производительностью и подходит для множества языковых задач."
631
675
  },
@@ -713,20 +757,29 @@
713
757
  "phi3:14b": {
714
758
  "description": "Phi-3 — это легковесная открытая модель, выпущенная Microsoft, подходящая для эффективной интеграции и масштабного вывода знаний."
715
759
  },
760
+ "pixtral-12b-2409": {
761
+ "description": "Модель Pixtral демонстрирует мощные способности в задачах графиков и понимания изображений, вопросов и ответов по документам, многомодального вывода и соблюдения инструкций, способная обрабатывать изображения в естественном разрешении и соотношении сторон, а также обрабатывать произвольное количество изображений в контекстном окне длиной до 128K токенов."
762
+ },
763
+ "qwen-coder-turbo-latest": {
764
+ "description": "Модель кода Tongyi Qwen."
765
+ },
716
766
  "qwen-long": {
717
767
  "description": "Qwen — это сверхмасштабная языковая модель, поддерживающая длинный контекст текста и диалоговые функции на основе длинных документов и нескольких документов."
718
768
  },
719
- "qwen-max": {
720
- "description": "Qwen — это сверхмасштабная языковая модель с триллионом параметров, поддерживающая ввод на разных языках, включая китайский и английский, в настоящее время это API модель, лежащая в основе продукта Qwen 2.5."
769
+ "qwen-math-plus-latest": {
770
+ "description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач."
721
771
  },
722
- "qwen-max-longcontext": {
723
- "description": "Qwen — это сверхмасштабная языковая модель с триллионом параметров, поддерживающая ввод на разных языках, включая китайский и английский, с расширенным контекстным окном."
772
+ "qwen-math-turbo-latest": {
773
+ "description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач."
724
774
  },
725
- "qwen-plus": {
726
- "description": "Qwen это улучшенная версия сверхмасштабной языковой модели, поддерживающая ввод на разных языках, включая китайский и английский."
775
+ "qwen-max-latest": {
776
+ "description": "Модель языка Tongyi Qwen с уровнем масштабирования в триллионы, поддерживающая ввод на различных языках, включая китайский и английский, является API моделью, лежащей в основе продукта Tongyi Qwen 2.5."
727
777
  },
728
- "qwen-turbo": {
729
- "description": "Qwen это сверхмасштабная языковая модель, поддерживающая ввод на разных языках, включая китайский и английский."
778
+ "qwen-plus-latest": {
779
+ "description": "Улучшенная версия модели языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский."
780
+ },
781
+ "qwen-turbo-latest": {
782
+ "description": "Модель языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский."
730
783
  },
731
784
  "qwen-vl-chat-v1": {
732
785
  "description": "Qwen VL поддерживает гибкие способы взаимодействия, включая многократные изображения, многократные вопросы и ответы, а также творческие способности."
@@ -746,17 +799,32 @@
746
799
  "qwen2": {
747
800
  "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
748
801
  },
749
- "qwen2-57b-a14b-instruct": {
750
- "description": "Qwen2 это открытая 57B модель с 14B активированными параметрами MOE."
802
+ "qwen2.5-14b-instruct": {
803
+ "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 14B."
804
+ },
805
+ "qwen2.5-32b-instruct": {
806
+ "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 32B."
807
+ },
808
+ "qwen2.5-72b-instruct": {
809
+ "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 72B."
810
+ },
811
+ "qwen2.5-7b-instruct": {
812
+ "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 7B."
813
+ },
814
+ "qwen2.5-coder-1.5b-instruct": {
815
+ "description": "Открытая версия модели кода Tongyi Qwen."
816
+ },
817
+ "qwen2.5-coder-7b-instruct": {
818
+ "description": "Открытая версия модели кода Tongyi Qwen."
751
819
  },
752
- "qwen2-72b-instruct": {
753
- "description": "Qwen2 это открытая 72B модель, доступная для внешнего использования."
820
+ "qwen2.5-math-1.5b-instruct": {
821
+ "description": "Модель Qwen-Math с мощными способностями решения математических задач."
754
822
  },
755
- "qwen2-7b-instruct": {
756
- "description": "Qwen2 это открытая 7B модель, доступная для внешнего использования."
823
+ "qwen2.5-math-72b-instruct": {
824
+ "description": "Модель Qwen-Math с мощными способностями решения математических задач."
757
825
  },
758
- "qwen2-math-72b-instruct": {
759
- "description": "Модель Qwen2-Math обладает мощными способностями решения математических задач."
826
+ "qwen2.5-math-7b-instruct": {
827
+ "description": "Модель Qwen-Math с мощными способностями решения математических задач."
760
828
  },
761
829
  "qwen2:0.5b": {
762
830
  "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
@@ -1,4 +1,5 @@
1
1
  {
2
+ "ai21": {},
2
3
  "ai360": {
3
4
  "description": "360 AI — это платформа AI-моделей и услуг, запущенная компанией 360, предлагающая множество передовых моделей обработки естественного языка, включая 360GPT2 Pro, 360GPT Pro, 360GPT Turbo и 360GPT Turbo Responsibility 8K. Эти модели сочетают в себе масштабные параметры и мультимодальные возможности, широко применяются в генерации текста, семантическом понимании, диалоговых системах и генерации кода. Благодаря гибкой ценовой политике 360 AI удовлетворяет разнообразные потребности пользователей, поддерживает интеграцию разработчиков и способствует инновациям и развитию интеллектуальных приложений."
4
5
  },
@@ -20,6 +21,9 @@
20
21
  "fireworksai": {
21
22
  "description": "Fireworks AI — это ведущий поставщик высококлассных языковых моделей, сосредоточенный на вызовах функций и мультимодальной обработке. Их последняя модель Firefunction V2 основана на Llama-3 и оптимизирована для вызовов функций, диалогов и выполнения инструкций. Модель визуального языка FireLLaVA-13B поддерживает смешанный ввод изображений и текста. Другие заметные модели включают серию Llama и серию Mixtral, предлагая эффективную поддержку многоязычных инструкций и генерации."
22
23
  },
24
+ "github": {
25
+ "description": "С помощью моделей GitHub разработчики могут стать инженерами ИИ и создавать с использованием ведущих моделей ИИ в отрасли."
26
+ },
23
27
  "google": {
24
28
  "description": "Серия Gemini от Google является самой передовой и универсальной AI-моделью, разработанной Google DeepMind, специально созданной для мультимодальной обработки, поддерживающей бесшовное понимание и обработку текста, кода, изображений, аудио и видео. Подходит для различных сред, от дата-центров до мобильных устройств, значительно повышая эффективность и универсальность AI-моделей."
25
29
  },