@lobehub/chat 1.88.19 → 1.88.21
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.i18nrc.js +1 -1
- package/CHANGELOG.md +51 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +3 -0
- package/locales/ar/models.json +92 -17
- package/locales/ar/setting.json +0 -12
- package/locales/bg-BG/chat.json +3 -0
- package/locales/bg-BG/models.json +92 -17
- package/locales/bg-BG/setting.json +0 -12
- package/locales/de-DE/chat.json +3 -0
- package/locales/de-DE/models.json +92 -17
- package/locales/de-DE/setting.json +0 -12
- package/locales/en-US/chat.json +3 -0
- package/locales/en-US/models.json +92 -17
- package/locales/en-US/setting.json +0 -12
- package/locales/es-ES/chat.json +3 -0
- package/locales/es-ES/models.json +92 -17
- package/locales/es-ES/setting.json +0 -12
- package/locales/fa-IR/chat.json +3 -0
- package/locales/fa-IR/models.json +92 -17
- package/locales/fa-IR/setting.json +0 -12
- package/locales/fr-FR/chat.json +3 -0
- package/locales/fr-FR/models.json +92 -17
- package/locales/fr-FR/setting.json +0 -12
- package/locales/it-IT/chat.json +3 -0
- package/locales/it-IT/models.json +92 -17
- package/locales/it-IT/setting.json +0 -12
- package/locales/ja-JP/chat.json +3 -0
- package/locales/ja-JP/models.json +92 -17
- package/locales/ja-JP/setting.json +0 -12
- package/locales/ko-KR/chat.json +3 -0
- package/locales/ko-KR/models.json +92 -17
- package/locales/ko-KR/setting.json +0 -12
- package/locales/nl-NL/chat.json +3 -0
- package/locales/nl-NL/models.json +92 -17
- package/locales/nl-NL/setting.json +0 -12
- package/locales/pl-PL/chat.json +3 -0
- package/locales/pl-PL/models.json +92 -17
- package/locales/pl-PL/setting.json +0 -12
- package/locales/pt-BR/chat.json +3 -0
- package/locales/pt-BR/models.json +92 -17
- package/locales/pt-BR/setting.json +0 -12
- package/locales/ru-RU/chat.json +3 -0
- package/locales/ru-RU/models.json +92 -17
- package/locales/ru-RU/setting.json +0 -12
- package/locales/tr-TR/chat.json +3 -0
- package/locales/tr-TR/models.json +92 -17
- package/locales/tr-TR/setting.json +0 -12
- package/locales/vi-VN/chat.json +3 -0
- package/locales/vi-VN/models.json +92 -17
- package/locales/vi-VN/setting.json +0 -12
- package/locales/zh-CN/chat.json +3 -0
- package/locales/zh-CN/models.json +89 -14
- package/locales/zh-CN/setting.json +0 -12
- package/locales/zh-TW/chat.json +3 -0
- package/locales/zh-TW/models.json +92 -17
- package/locales/zh-TW/setting.json +0 -12
- package/package.json +1 -1
- package/src/app/[variants]/(main)/settings/common/features/Appearance/ThemeSwatches/ThemeSwatchesNeutral.tsx +4 -2
- package/src/app/[variants]/(main)/settings/common/features/Appearance/ThemeSwatches/ThemeSwatchesPrimary.tsx +4 -2
- package/src/config/aiModels/deepseek.ts +5 -3
- package/src/config/aiModels/groq.ts +16 -29
- package/src/config/aiModels/hunyuan.ts +104 -82
- package/src/config/aiModels/novita.ts +27 -121
- package/src/config/aiModels/openai.ts +19 -2
- package/src/config/aiModels/openrouter.ts +59 -47
- package/src/config/aiModels/siliconcloud.ts +73 -39
- package/src/config/aiModels/volcengine.ts +3 -3
- package/src/config/aiModels/xai.ts +2 -0
- package/src/features/AgentSetting/AgentMeta/index.tsx +5 -0
- package/src/features/AgentSetting/AgentModal/index.tsx +1 -26
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +12 -0
- package/src/features/ChatInput/ActionBar/Model/ReasoningEffortSlider.tsx +57 -0
- package/src/features/ModelSwitchPanel/index.tsx +10 -9
- package/src/features/PluginDevModal/MCPManifestForm/index.tsx +3 -1
- package/src/libs/model-runtime/novita/__snapshots__/index.test.ts.snap +1 -1
- package/src/locales/default/chat.ts +3 -0
- package/src/locales/default/setting.ts +0 -12
- package/src/services/chat.ts +5 -1
- package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +0 -5
- package/src/types/agent/chatConfig.ts +1 -0
- package/src/types/aiModel.ts +5 -1
@@ -341,9 +341,6 @@
|
|
341
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
342
342
|
"description": "Qwen2.5-Coder-32B-Instruct é um grande modelo de linguagem projetado para geração de código, compreensão de código e cenários de desenvolvimento eficiente, com uma escala de 32 bilhões de parâmetros, atendendo a diversas necessidades de programação."
|
343
343
|
},
|
344
|
-
"SenseCat-5-1202": {
|
345
|
-
"description": "Baseado na versão V5.5, a versão mais recente apresenta melhorias significativas em várias dimensões, incluindo habilidades básicas em chinês e inglês, conversação, conhecimento em ciências exatas, conhecimento em ciências humanas, redação, lógica matemática e controle de contagem de palavras."
|
346
|
-
},
|
347
344
|
"SenseChat": {
|
348
345
|
"description": "Modelo da versão básica (V4), com comprimento de contexto de 4K, com capacidades gerais poderosas."
|
349
346
|
},
|
@@ -356,6 +353,9 @@
|
|
356
353
|
"SenseChat-5": {
|
357
354
|
"description": "Modelo da versão mais recente (V5.5), com comprimento de contexto de 128K, com capacidades significativamente aprimoradas em raciocínio matemático, diálogos em inglês, seguimento de instruções e compreensão de textos longos, rivalizando com o GPT-4o."
|
358
355
|
},
|
356
|
+
"SenseChat-5-1202": {
|
357
|
+
"description": "Baseado na versão mais recente V5.5, apresenta melhorias significativas em várias dimensões, incluindo habilidades básicas em chinês e inglês, conversação, conhecimento científico, conhecimento humanístico, escrita, lógica matemática e controle de contagem de palavras."
|
358
|
+
},
|
359
359
|
"SenseChat-5-Cantonese": {
|
360
360
|
"description": "Comprimento de contexto de 32K, superando o GPT-4 na compreensão de diálogos em cantonês, competindo com o GPT-4 Turbo em várias áreas, incluindo conhecimento, raciocínio, matemática e programação."
|
361
361
|
},
|
@@ -515,6 +515,12 @@
|
|
515
515
|
"ai21-jamba-1.5-mini": {
|
516
516
|
"description": "Um modelo multilíngue com 52B de parâmetros (12B ativos), oferecendo uma janela de contexto longa de 256K, chamada de função, saída estruturada e geração fundamentada."
|
517
517
|
},
|
518
|
+
"ai21-labs/AI21-Jamba-1.5-Large": {
|
519
|
+
"description": "Um modelo multilíngue com 398 bilhões de parâmetros (94 bilhões ativos), oferecendo janela de contexto longa de 256K, chamadas de função, saída estruturada e geração baseada em fatos."
|
520
|
+
},
|
521
|
+
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
522
|
+
"description": "Um modelo multilíngue com 52 bilhões de parâmetros (12 bilhões ativos), oferecendo janela de contexto longa de 256K, chamadas de função, saída estruturada e geração baseada em fatos."
|
523
|
+
},
|
518
524
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
519
525
|
"description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio."
|
520
526
|
},
|
@@ -668,6 +674,12 @@
|
|
668
674
|
"cohere-command-r-plus": {
|
669
675
|
"description": "Command R+ é um modelo otimizado para RAG de última geração, projetado para lidar com cargas de trabalho de nível empresarial."
|
670
676
|
},
|
677
|
+
"cohere/Cohere-command-r": {
|
678
|
+
"description": "Command R é um modelo generativo escalável projetado para uso com RAG e ferramentas, permitindo que empresas implementem IA em nível de produção."
|
679
|
+
},
|
680
|
+
"cohere/Cohere-command-r-plus": {
|
681
|
+
"description": "Command R+ é um modelo otimizado de ponta para RAG, projetado para cargas de trabalho empresariais."
|
682
|
+
},
|
671
683
|
"command": {
|
672
684
|
"description": "Um modelo de diálogo que segue instruções, apresentando alta qualidade e confiabilidade em tarefas linguísticas, além de um comprimento de contexto mais longo em comparação com nosso modelo de geração básico."
|
673
685
|
},
|
@@ -1028,6 +1040,12 @@
|
|
1028
1040
|
"gemini-2.5-flash-preview-04-17": {
|
1029
1041
|
"description": "O Gemini 2.5 Flash Preview é o modelo mais acessível do Google, oferecendo uma gama completa de funcionalidades."
|
1030
1042
|
},
|
1043
|
+
"gemini-2.5-flash-preview-04-17-thinking": {
|
1044
|
+
"description": "Gemini 2.5 Flash Preview é o modelo com melhor custo-benefício do Google, oferecendo funcionalidades abrangentes."
|
1045
|
+
},
|
1046
|
+
"gemini-2.5-flash-preview-05-20": {
|
1047
|
+
"description": "Gemini 2.5 Flash Preview é o modelo com melhor custo-benefício do Google, oferecendo funcionalidades abrangentes."
|
1048
|
+
},
|
1031
1049
|
"gemini-2.5-pro-exp-03-25": {
|
1032
1050
|
"description": "O Gemini 2.5 Pro Experimental é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, repositórios de código e documentos utilizando contextos longos."
|
1033
1051
|
},
|
@@ -1262,23 +1280,17 @@
|
|
1262
1280
|
"grok-2-vision-1212": {
|
1263
1281
|
"description": "Este modelo apresenta melhorias em precisão, conformidade com instruções e capacidade multilíngue."
|
1264
1282
|
},
|
1265
|
-
"grok-3
|
1266
|
-
"description": "Modelo de
|
1267
|
-
},
|
1268
|
-
"grok-3-fast-beta": {
|
1269
|
-
"description": "Modelo de ponta, especializado em extração de dados, programação e resumo de texto para aplicações empresariais, com profundo conhecimento em áreas como finanças, saúde, direito e ciência."
|
1283
|
+
"grok-3": {
|
1284
|
+
"description": "Modelo de nível flagship, especializado em extração de dados, programação e resumo de texto para aplicações empresariais, com profundo conhecimento em finanças, saúde, direito e ciências."
|
1270
1285
|
},
|
1271
|
-
"grok-3-
|
1272
|
-
"description": "Modelo
|
1286
|
+
"grok-3-fast": {
|
1287
|
+
"description": "Modelo de nível flagship, especializado em extração de dados, programação e resumo de texto para aplicações empresariais, com profundo conhecimento em finanças, saúde, direito e ciências."
|
1273
1288
|
},
|
1274
|
-
"grok-3-mini
|
1275
|
-
"description": "Modelo leve
|
1289
|
+
"grok-3-mini": {
|
1290
|
+
"description": "Modelo leve que pensa antes de responder. Rápido e inteligente, adequado para tarefas lógicas que não exigem conhecimento profundo de domínio, e capaz de fornecer o rastro original do pensamento."
|
1276
1291
|
},
|
1277
|
-
"grok-
|
1278
|
-
"description": "
|
1279
|
-
},
|
1280
|
-
"grok-vision-beta": {
|
1281
|
-
"description": "O mais recente modelo de compreensão de imagem, capaz de lidar com uma variedade de informações visuais, incluindo documentos, gráficos, capturas de tela e fotos."
|
1292
|
+
"grok-3-mini-fast": {
|
1293
|
+
"description": "Modelo leve que pensa antes de responder. Rápido e inteligente, adequado para tarefas lógicas que não exigem conhecimento profundo de domínio, e capaz de fornecer o rastro original do pensamento."
|
1282
1294
|
},
|
1283
1295
|
"gryphe/mythomax-l2-13b": {
|
1284
1296
|
"description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta."
|
@@ -1322,6 +1334,9 @@
|
|
1322
1334
|
"hunyuan-t1-latest": {
|
1323
1335
|
"description": "O primeiro modelo de inferência Hybrid-Transformer-Mamba em larga escala da indústria, que expande a capacidade de inferência, possui uma velocidade de decodificação excepcional e alinha-se ainda mais às preferências humanas."
|
1324
1336
|
},
|
1337
|
+
"hunyuan-t1-vision": {
|
1338
|
+
"description": "Modelo de pensamento profundo multimodal Hunyuan, suporta cadeias de pensamento nativas multimodais de longo alcance, excelente em diversos cenários de raciocínio com imagens, com melhorias significativas em problemas científicos em comparação com modelos de pensamento rápido."
|
1339
|
+
},
|
1325
1340
|
"hunyuan-translation": {
|
1326
1341
|
"description": "Suporta tradução entre 15 idiomas, incluindo chinês, inglês, japonês, francês, português, espanhol, turco, russo, árabe, coreano, italiano, alemão, vietnamita, malaio e indonésio, com avaliação automatizada baseada no conjunto de testes de tradução em múltiplos cenários e pontuação COMET, superando modelos de tamanho semelhante no mercado em termos de capacidade de tradução entre idiomas."
|
1327
1342
|
},
|
@@ -1586,6 +1601,30 @@
|
|
1586
1601
|
"meta.llama3-8b-instruct-v1:0": {
|
1587
1602
|
"description": "Meta Llama 3 é um modelo de linguagem de grande escala (LLM) aberto voltado para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e expandir suas ideias de IA geradora de forma responsável. Como parte de um sistema de base para inovação da comunidade global, é ideal para dispositivos de borda com capacidade de computação e recursos limitados, além de tempos de treinamento mais rápidos."
|
1588
1603
|
},
|
1604
|
+
"meta/Llama-3.2-11B-Vision-Instruct": {
|
1605
|
+
"description": "Capacidades avançadas de raciocínio visual em imagens de alta resolução, adequado para aplicações de compreensão visual."
|
1606
|
+
},
|
1607
|
+
"meta/Llama-3.2-90B-Vision-Instruct": {
|
1608
|
+
"description": "Capacidades avançadas de raciocínio visual para aplicações de agentes de compreensão visual."
|
1609
|
+
},
|
1610
|
+
"meta/Llama-3.3-70B-Instruct": {
|
1611
|
+
"description": "Llama 3.3 é o modelo de linguagem grande multilíngue open source mais avançado da série Llama, oferecendo desempenho comparável a modelos de 405B a um custo muito baixo. Baseado na arquitetura Transformer, aprimorado por fine-tuning supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para melhorar utilidade e segurança. A versão ajustada para instruções é otimizada para diálogos multilíngues e supera muitos modelos de chat open source e proprietários em vários benchmarks do setor. Data de corte do conhecimento: dezembro de 2023."
|
1612
|
+
},
|
1613
|
+
"meta/Meta-Llama-3-70B-Instruct": {
|
1614
|
+
"description": "Um poderoso modelo de 70 bilhões de parâmetros, com desempenho excelente em raciocínio, codificação e ampla gama de aplicações linguísticas."
|
1615
|
+
},
|
1616
|
+
"meta/Meta-Llama-3-8B-Instruct": {
|
1617
|
+
"description": "Um modelo versátil de 8 bilhões de parâmetros, otimizado para tarefas de diálogo e geração de texto."
|
1618
|
+
},
|
1619
|
+
"meta/Meta-Llama-3.1-405B-Instruct": {
|
1620
|
+
"description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogo multilíngue, com desempenho superior em benchmarks comuns do setor entre muitos modelos de chat open source e proprietários disponíveis."
|
1621
|
+
},
|
1622
|
+
"meta/Meta-Llama-3.1-70B-Instruct": {
|
1623
|
+
"description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogo multilíngue, com desempenho superior em benchmarks comuns do setor entre muitos modelos de chat open source e proprietários disponíveis."
|
1624
|
+
},
|
1625
|
+
"meta/Meta-Llama-3.1-8B-Instruct": {
|
1626
|
+
"description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogo multilíngue, com desempenho superior em benchmarks comuns do setor entre muitos modelos de chat open source e proprietários disponíveis."
|
1627
|
+
},
|
1589
1628
|
"meta/llama-3.1-405b-instruct": {
|
1590
1629
|
"description": "LLM avançado, suporta geração de dados sintéticos, destilação de conhecimento e raciocínio, adequado para chatbots, programação e tarefas de domínio específico."
|
1591
1630
|
},
|
@@ -1610,6 +1649,30 @@
|
|
1610
1649
|
"meta/llama-3.3-70b-instruct": {
|
1611
1650
|
"description": "Modelo LLM avançado, especializado em raciocínio, matemática, conhecimento geral e chamadas de função."
|
1612
1651
|
},
|
1652
|
+
"microsoft/Phi-3-medium-128k-instruct": {
|
1653
|
+
"description": "O mesmo modelo Phi-3-medium, mas com contexto maior, adequado para RAG ou poucos prompts."
|
1654
|
+
},
|
1655
|
+
"microsoft/Phi-3-medium-4k-instruct": {
|
1656
|
+
"description": "Um modelo de 14 bilhões de parâmetros, com qualidade superior ao Phi-3-mini, focado em dados de alta qualidade e raciocínio intensivo."
|
1657
|
+
},
|
1658
|
+
"microsoft/Phi-3-mini-128k-instruct": {
|
1659
|
+
"description": "O mesmo modelo Phi-3-mini, mas com contexto maior, adequado para RAG ou poucos prompts."
|
1660
|
+
},
|
1661
|
+
"microsoft/Phi-3-mini-4k-instruct": {
|
1662
|
+
"description": "O menor membro da família Phi-3, otimizado para qualidade e baixa latência."
|
1663
|
+
},
|
1664
|
+
"microsoft/Phi-3-small-128k-instruct": {
|
1665
|
+
"description": "O mesmo modelo Phi-3-small, mas com contexto maior, adequado para RAG ou poucos prompts."
|
1666
|
+
},
|
1667
|
+
"microsoft/Phi-3-small-8k-instruct": {
|
1668
|
+
"description": "Um modelo de 7 bilhões de parâmetros, com qualidade superior ao Phi-3-mini, focado em dados de alta qualidade e raciocínio intensivo."
|
1669
|
+
},
|
1670
|
+
"microsoft/Phi-3.5-mini-instruct": {
|
1671
|
+
"description": "Versão atualizada do modelo Phi-3-mini."
|
1672
|
+
},
|
1673
|
+
"microsoft/Phi-3.5-vision-instruct": {
|
1674
|
+
"description": "Versão atualizada do modelo Phi-3-vision."
|
1675
|
+
},
|
1613
1676
|
"microsoft/WizardLM-2-8x22B": {
|
1614
1677
|
"description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, que se destaca em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
|
1615
1678
|
},
|
@@ -1628,6 +1691,15 @@
|
|
1628
1691
|
"mistral": {
|
1629
1692
|
"description": "Mistral é um modelo de 7B lançado pela Mistral AI, adequado para demandas de processamento de linguagem variáveis."
|
1630
1693
|
},
|
1694
|
+
"mistral-ai/Mistral-Large-2411": {
|
1695
|
+
"description": "O modelo principal da Mistral, ideal para tarefas complexas que requerem raciocínio em grande escala ou alta especialização (geração de texto sintético, geração de código, RAG ou agentes)."
|
1696
|
+
},
|
1697
|
+
"mistral-ai/Mistral-Nemo": {
|
1698
|
+
"description": "Mistral Nemo é um modelo de linguagem avançado (LLM) que oferece capacidades de raciocínio, conhecimento mundial e codificação líderes em sua categoria de tamanho."
|
1699
|
+
},
|
1700
|
+
"mistral-ai/mistral-small-2503": {
|
1701
|
+
"description": "Mistral Small é adequado para qualquer tarefa baseada em linguagem que exija alta eficiência e baixa latência."
|
1702
|
+
},
|
1631
1703
|
"mistral-large": {
|
1632
1704
|
"description": "Mixtral Large é o modelo de destaque da Mistral, combinando capacidades de geração de código, matemática e raciocínio, suportando uma janela de contexto de 128k."
|
1633
1705
|
},
|
@@ -1769,6 +1841,9 @@
|
|
1769
1841
|
"openai/gpt-4o-mini": {
|
1770
1842
|
"description": "GPT-4o mini é o mais recente modelo da OpenAI, lançado após o GPT-4 Omni, que suporta entrada de texto e imagem e saída de texto. Como seu modelo compacto mais avançado, é muito mais barato do que outros modelos de ponta recentes e custa mais de 60% menos que o GPT-3.5 Turbo. Ele mantém inteligência de ponta, ao mesmo tempo que oferece uma relação custo-benefício significativa. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
|
1771
1843
|
},
|
1844
|
+
"openai/o1": {
|
1845
|
+
"description": "o1 é o novo modelo de raciocínio da OpenAI, que suporta entrada de texto e imagem e gera texto, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 200K e data de corte de conhecimento em outubro de 2023."
|
1846
|
+
},
|
1772
1847
|
"openai/o1-mini": {
|
1773
1848
|
"description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
|
1774
1849
|
},
|
@@ -259,9 +259,6 @@
|
|
259
259
|
"enableMaxTokens": {
|
260
260
|
"title": "Ativar limite de resposta única"
|
261
261
|
},
|
262
|
-
"enableReasoningEffort": {
|
263
|
-
"title": "Ativar ajuste de intensidade de raciocínio"
|
264
|
-
},
|
265
262
|
"frequencyPenalty": {
|
266
263
|
"desc": "Quanto maior o valor, mais rica e variada será a escolha de palavras; quanto menor o valor, mais simples e direta será a escolha de palavras.",
|
267
264
|
"title": "Riqueza do Vocabulário"
|
@@ -281,15 +278,6 @@
|
|
281
278
|
"desc": "Quanto maior o valor, mais inclinado a diferentes formas de expressão, evitando repetições de conceitos; quanto menor o valor, mais inclinado a usar conceitos ou narrativas repetidas, resultando em uma expressão mais consistente.",
|
282
279
|
"title": "Diversidade de Expressão"
|
283
280
|
},
|
284
|
-
"reasoningEffort": {
|
285
|
-
"desc": "Quanto maior o valor, mais forte será a capacidade de raciocínio, mas isso pode aumentar o tempo de resposta e o consumo de tokens",
|
286
|
-
"options": {
|
287
|
-
"high": "Alto",
|
288
|
-
"low": "Baixo",
|
289
|
-
"medium": "Médio"
|
290
|
-
},
|
291
|
-
"title": "Intensidade de raciocínio"
|
292
|
-
},
|
293
281
|
"submit": "Atualizar configurações do modelo",
|
294
282
|
"temperature": {
|
295
283
|
"desc": "Quanto maior o valor, mais criativas e imaginativas serão as respostas; quanto menor o valor, mais rigorosas serão as respostas",
|
package/locales/ru-RU/chat.json
CHANGED
@@ -341,9 +341,6 @@
|
|
341
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
342
342
|
"description": "Qwen2.5-Coder-32B-Instruct — это крупная языковая модель, специально разработанная для генерации кода, понимания кода и эффективных сценариев разработки, с передовым масштабом параметров 32B, способная удовлетворить разнообразные потребности программирования."
|
343
343
|
},
|
344
|
-
"SenseCat-5-1202": {
|
345
|
-
"description": "Это последняя версия на основе V5.5, которая значительно улучшила свои способности в нескольких аспектах по сравнению с предыдущей версией, включая базовые навыки на китайском и английском языках, общение, знания в области естественных наук, гуманитарных наук, написание, математическую логику и контроль количества слов."
|
346
|
-
},
|
347
344
|
"SenseChat": {
|
348
345
|
"description": "Базовая версия модели (V4), длина контекста 4K, обладает мощными универсальными возможностями."
|
349
346
|
},
|
@@ -356,6 +353,9 @@
|
|
356
353
|
"SenseChat-5": {
|
357
354
|
"description": "Последняя версия модели (V5.5), длина контекста 128K, значительно улучшенные способности в математическом рассуждении, английских диалогах, следовании инструкциям и понимании длинных текстов, сопоставимые с GPT-4o."
|
358
355
|
},
|
356
|
+
"SenseChat-5-1202": {
|
357
|
+
"description": "Основана на версии V5.5, с заметными улучшениями по нескольким направлениям: базовые навыки на китайском и английском, чат, знания в естественных и гуманитарных науках, письмо, математическая логика, контроль длины текста."
|
358
|
+
},
|
359
359
|
"SenseChat-5-Cantonese": {
|
360
360
|
"description": "Длина контекста 32K, превосходит GPT-4 в понимании диалогов на кантонском, сопоставим с GPT-4 Turbo в таких областях, как знания, рассуждение, математика и написание кода."
|
361
361
|
},
|
@@ -515,6 +515,12 @@
|
|
515
515
|
"ai21-jamba-1.5-mini": {
|
516
516
|
"description": "Многоязычная модель с 52B параметрами (12B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование."
|
517
517
|
},
|
518
|
+
"ai21-labs/AI21-Jamba-1.5-Large": {
|
519
|
+
"description": "Многоязычная модель с 398 млрд параметров (94 млрд активных), предоставляющая окно контекста длиной 256K, вызовы функций, структурированный вывод и генерацию на основе фактов."
|
520
|
+
},
|
521
|
+
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
522
|
+
"description": "Многоязычная модель с 52 млрд параметров (12 млрд активных), предоставляющая окно контекста длиной 256K, вызовы функций, структурированный вывод и генерацию на основе фактов."
|
523
|
+
},
|
518
524
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
519
525
|
"description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
|
520
526
|
},
|
@@ -668,6 +674,12 @@
|
|
668
674
|
"cohere-command-r-plus": {
|
669
675
|
"description": "Command R+ — это модель, оптимизированная для RAG, предназначенная для решения задач корпоративного уровня."
|
670
676
|
},
|
677
|
+
"cohere/Cohere-command-r": {
|
678
|
+
"description": "Command R — масштабируемая генеративная модель, разработанная для использования с RAG и инструментами, позволяющая компаниям внедрять AI промышленного уровня."
|
679
|
+
},
|
680
|
+
"cohere/Cohere-command-r-plus": {
|
681
|
+
"description": "Command R+ — передовая оптимизированная модель для RAG, предназначенная для корпоративных рабочих нагрузок."
|
682
|
+
},
|
671
683
|
"command": {
|
672
684
|
"description": "Диалоговая модель, следуя инструкциям, которая демонстрирует высокое качество и надежность в языковых задачах, а также имеет более длинную длину контекста по сравнению с нашей базовой генеративной моделью."
|
673
685
|
},
|
@@ -1028,6 +1040,12 @@
|
|
1028
1040
|
"gemini-2.5-flash-preview-04-17": {
|
1029
1041
|
"description": "Gemini 2.5 Flash Preview — это наиболее выгодная модель от Google, предлагающая широкий спектр возможностей."
|
1030
1042
|
},
|
1043
|
+
"gemini-2.5-flash-preview-04-17-thinking": {
|
1044
|
+
"description": "Gemini 2.5 Flash Preview — самая экономичная модель Google с полным набором функций."
|
1045
|
+
},
|
1046
|
+
"gemini-2.5-flash-preview-05-20": {
|
1047
|
+
"description": "Gemini 2.5 Flash Preview — самая экономичная модель Google с полным набором функций."
|
1048
|
+
},
|
1031
1049
|
"gemini-2.5-pro-exp-03-25": {
|
1032
1050
|
"description": "Gemini 2.5 Pro Experimental — это самая современная модель мышления от Google, способная рассуждать о сложных задачах в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы, используя длинный контекст."
|
1033
1051
|
},
|
@@ -1262,23 +1280,17 @@
|
|
1262
1280
|
"grok-2-vision-1212": {
|
1263
1281
|
"description": "Модель улучшена в точности, соблюдении инструкций и многоязычных возможностях."
|
1264
1282
|
},
|
1265
|
-
"grok-3
|
1266
|
-
"description": "Флагманская модель, специализирующаяся на извлечении данных, программировании и резюмировании текста для корпоративных приложений, обладающая глубокими знаниями в
|
1267
|
-
},
|
1268
|
-
"grok-3-fast-beta": {
|
1269
|
-
"description": "Флагманская модель, специализирующаяся на извлечении данных, программировании и резюмировании текста для корпоративных приложений, обладающая глубокими знаниями в таких областях, как финансы, медицина, право и наука."
|
1283
|
+
"grok-3": {
|
1284
|
+
"description": "Флагманская модель, специализирующаяся на извлечении данных, программировании и резюмировании текста для корпоративных приложений, обладающая глубокими знаниями в финансах, медицине, юриспруденции и науке."
|
1270
1285
|
},
|
1271
|
-
"grok-3-
|
1272
|
-
"description": "
|
1286
|
+
"grok-3-fast": {
|
1287
|
+
"description": "Флагманская модель, специализирующаяся на извлечении данных, программировании и резюмировании текста для корпоративных приложений, обладающая глубокими знаниями в финансах, медицине, юриспруденции и науке."
|
1273
1288
|
},
|
1274
|
-
"grok-3-mini
|
1275
|
-
"description": "Легковесная модель, которая сначала обдумывает перед разговором.
|
1289
|
+
"grok-3-mini": {
|
1290
|
+
"description": "Легковесная модель, которая сначала обдумывает ответ перед разговором. Быстрая и умная, подходит для логических задач без глубоких отраслевых знаний и позволяет проследить исходные размышления."
|
1276
1291
|
},
|
1277
|
-
"grok-
|
1278
|
-
"description": "
|
1279
|
-
},
|
1280
|
-
"grok-vision-beta": {
|
1281
|
-
"description": "Новейшая модель понимания изображений, способная обрабатывать разнообразную визуальную информацию, включая документы, графики, скриншоты и фотографии."
|
1292
|
+
"grok-3-mini-fast": {
|
1293
|
+
"description": "Легковесная модель, которая сначала обдумывает ответ перед разговором. Быстрая и умная, подходит для логических задач без глубоких отраслевых знаний и позволяет проследить исходные размышления."
|
1282
1294
|
},
|
1283
1295
|
"gryphe/mythomax-l2-13b": {
|
1284
1296
|
"description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях."
|
@@ -1322,6 +1334,9 @@
|
|
1322
1334
|
"hunyuan-t1-latest": {
|
1323
1335
|
"description": "Первый в отрасли сверхмасштабный гибридный трансформер-Mamba для вывода, расширяющий возможности вывода, обладающий высокой скоростью декодирования и лучше соответствующий человеческим предпочтениям."
|
1324
1336
|
},
|
1337
|
+
"hunyuan-t1-vision": {
|
1338
|
+
"description": "Глубокая мультимодальная модель понимания Hunyuan с нативной цепочкой размышлений для мультимодальных данных, отлично справляется с различными задачами рассуждения на изображениях, значительно превосходя модели быстрого мышления в решении научных задач."
|
1339
|
+
},
|
1325
1340
|
"hunyuan-translation": {
|
1326
1341
|
"description": "Поддерживает взаимный перевод на 15 языков, включая китайский, английский, японский, французский, португальский, испанский, турецкий, русский, арабский, корейский, итальянский, немецкий, вьетнамский, малайский и индонезийский, с автоматической оценкой на основе набора тестов для многофункционального перевода COMET, в целом превосходя модели аналогичного масштаба на рынке по способности к взаимному переводу среди более чем десяти распространенных языков."
|
1327
1342
|
},
|
@@ -1586,6 +1601,30 @@
|
|
1586
1601
|
"meta.llama3-8b-instruct-v1:0": {
|
1587
1602
|
"description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для устройств с ограниченными вычислительными мощностями и ресурсами, а также для более быстрого времени обучения."
|
1588
1603
|
},
|
1604
|
+
"meta/Llama-3.2-11B-Vision-Instruct": {
|
1605
|
+
"description": "Отличные способности к рассуждению на основе изображений высокого разрешения, подходит для приложений визуального понимания."
|
1606
|
+
},
|
1607
|
+
"meta/Llama-3.2-90B-Vision-Instruct": {
|
1608
|
+
"description": "Продвинутые возможности рассуждения на основе изображений для приложений визуального понимания и агентов."
|
1609
|
+
},
|
1610
|
+
"meta/Llama-3.3-70B-Instruct": {
|
1611
|
+
"description": "Llama 3.3 — самая передовая многоязычная открытая крупная языковая модель серии Llama, обеспечивающая производительность, сопоставимую с моделью на 405 млрд параметров, при очень низких затратах. Основана на архитектуре Transformer и улучшена с помощью контролируемой донастройки (SFT) и обучения с подкреплением на основе человеческой обратной связи (RLHF) для повышения полезности и безопасности. Версия с инструкциями оптимизирована для многоязычного диалога и превосходит многие открытые и закрытые чат-модели по ряду отраслевых бенчмарков. Дата отсечения знаний — декабрь 2023 года."
|
1612
|
+
},
|
1613
|
+
"meta/Meta-Llama-3-70B-Instruct": {
|
1614
|
+
"description": "Мощная модель с 70 млрд параметров, демонстрирующая выдающиеся способности в рассуждениях, кодировании и широком спектре языковых приложений."
|
1615
|
+
},
|
1616
|
+
"meta/Meta-Llama-3-8B-Instruct": {
|
1617
|
+
"description": "Универсальная модель с 8 млрд параметров, оптимизированная для задач диалога и генерации текста."
|
1618
|
+
},
|
1619
|
+
"meta/Meta-Llama-3.1-405B-Instruct": {
|
1620
|
+
"description": "Текстовая модель Llama 3.1 с донастройкой по инструкциям, оптимизированная для многоязычных диалогов, демонстрирующая высокие результаты на популярных отраслевых бенчмарках среди доступных открытых и закрытых чат-моделей."
|
1621
|
+
},
|
1622
|
+
"meta/Meta-Llama-3.1-70B-Instruct": {
|
1623
|
+
"description": "Текстовая модель Llama 3.1 с донастройкой по инструкциям, оптимизированная для многоязычных диалогов, демонстрирующая высокие результаты на популярных отраслевых бенчмарках среди доступных открытых и закрытых чат-моделей."
|
1624
|
+
},
|
1625
|
+
"meta/Meta-Llama-3.1-8B-Instruct": {
|
1626
|
+
"description": "Текстовая модель Llama 3.1 с донастройкой по инструкциям, оптимизированная для многоязычных диалогов, демонстрирующая высокие результаты на популярных отраслевых бенчмарках среди доступных открытых и закрытых чат-моделей."
|
1627
|
+
},
|
1589
1628
|
"meta/llama-3.1-405b-instruct": {
|
1590
1629
|
"description": "Современная LLM, поддерживающая генерацию синтетических данных, дистилляцию знаний и рассуждения, подходит для чат-ботов, программирования и специализированных задач."
|
1591
1630
|
},
|
@@ -1610,6 +1649,30 @@
|
|
1610
1649
|
"meta/llama-3.3-70b-instruct": {
|
1611
1650
|
"description": "Современная LLM, специализирующаяся на рассуждениях, математике, здравом смысле и вызовах функций."
|
1612
1651
|
},
|
1652
|
+
"microsoft/Phi-3-medium-128k-instruct": {
|
1653
|
+
"description": "Та же модель Phi-3-medium, но с увеличенным размером контекста, подходящая для RAG или небольшого количества подсказок."
|
1654
|
+
},
|
1655
|
+
"microsoft/Phi-3-medium-4k-instruct": {
|
1656
|
+
"description": "Модель с 14 млрд параметров, превосходящая Phi-3-mini по качеству, ориентированная на высококачественные, интенсивные по рассуждениям данные."
|
1657
|
+
},
|
1658
|
+
"microsoft/Phi-3-mini-128k-instruct": {
|
1659
|
+
"description": "Та же модель Phi-3-mini, но с увеличенным размером контекста, подходящая для RAG или небольшого количества подсказок."
|
1660
|
+
},
|
1661
|
+
"microsoft/Phi-3-mini-4k-instruct": {
|
1662
|
+
"description": "Самый маленький представитель семейства Phi-3, оптимизированный по качеству и низкой задержке."
|
1663
|
+
},
|
1664
|
+
"microsoft/Phi-3-small-128k-instruct": {
|
1665
|
+
"description": "Та же модель Phi-3-small, но с увеличенным размером контекста, подходящая для RAG или небольшого количества подсказок."
|
1666
|
+
},
|
1667
|
+
"microsoft/Phi-3-small-8k-instruct": {
|
1668
|
+
"description": "Модель с 7 млрд параметров, превосходящая Phi-3-mini по качеству, ориентированная на высококачественные, интенсивные по рассуждениям данные."
|
1669
|
+
},
|
1670
|
+
"microsoft/Phi-3.5-mini-instruct": {
|
1671
|
+
"description": "Обновленная версия модели Phi-3-mini."
|
1672
|
+
},
|
1673
|
+
"microsoft/Phi-3.5-vision-instruct": {
|
1674
|
+
"description": "Обновленная версия модели Phi-3-vision."
|
1675
|
+
},
|
1613
1676
|
"microsoft/WizardLM-2-8x22B": {
|
1614
1677
|
"description": "WizardLM 2 — это языковая модель от Microsoft AI, которая особенно хорошо справляется с сложными диалогами, многоязычностью, выводами и интеллектуальными помощниками."
|
1615
1678
|
},
|
@@ -1628,6 +1691,15 @@
|
|
1628
1691
|
"mistral": {
|
1629
1692
|
"description": "Mistral — это 7B модель, выпущенная Mistral AI, подходящая для разнообразных языковых задач."
|
1630
1693
|
},
|
1694
|
+
"mistral-ai/Mistral-Large-2411": {
|
1695
|
+
"description": "Флагманская модель Mistral, предназначенная для задач, требующих масштабных возможностей рассуждения или высокой специализации (синтез текста, генерация кода, RAG или агенты)."
|
1696
|
+
},
|
1697
|
+
"mistral-ai/Mistral-Nemo": {
|
1698
|
+
"description": "Mistral Nemo — передовая языковая модель (LLM), обладающая лучшими в своем классе способностями к рассуждению, мировым знаниям и кодированию."
|
1699
|
+
},
|
1700
|
+
"mistral-ai/mistral-small-2503": {
|
1701
|
+
"description": "Mistral Small подходит для любых языковых задач, требующих высокой эффективности и низкой задержки."
|
1702
|
+
},
|
1631
1703
|
"mistral-large": {
|
1632
1704
|
"description": "Mixtral Large — это флагманская модель от Mistral, объединяющая возможности генерации кода, математики и вывода, поддерживающая контекстное окно 128k."
|
1633
1705
|
},
|
@@ -1769,6 +1841,9 @@
|
|
1769
1841
|
"openai/gpt-4o-mini": {
|
1770
1842
|
"description": "GPT-4o mini — это последняя модель от OpenAI, выпущенная после GPT-4 Omni, поддерживающая ввод изображений и текста с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% в тесте MMLU и в настоящее время занимает более высокое место по предпочтениям в чате, чем GPT-4."
|
1771
1843
|
},
|
1844
|
+
"openai/o1": {
|
1845
|
+
"description": "o1 — новая модель рассуждений от OpenAI, поддерживающая ввод изображений и текста с выводом текста, предназначенная для сложных задач, требующих широких универсальных знаний. Модель обладает контекстом в 200K и датой отсечения знаний — октябрь 2023 года."
|
1846
|
+
},
|
1772
1847
|
"openai/o1-mini": {
|
1773
1848
|
"description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года."
|
1774
1849
|
},
|
@@ -259,9 +259,6 @@
|
|
259
259
|
"enableMaxTokens": {
|
260
260
|
"title": "Включить ограничение максимального количества токенов"
|
261
261
|
},
|
262
|
-
"enableReasoningEffort": {
|
263
|
-
"title": "Включить настройку интенсивности вывода"
|
264
|
-
},
|
265
262
|
"frequencyPenalty": {
|
266
263
|
"desc": "Чем больше значение, тем разнообразнее и богаче словарный запас; чем меньше значение, тем проще и понятнее слова",
|
267
264
|
"title": "Разнообразие словарного запаса"
|
@@ -281,15 +278,6 @@
|
|
281
278
|
"desc": "Чем больше значение, тем больше склонность к различным выражениям, избегая повторения концепций; чем меньше значение, тем больше склонность к использованию повторяющихся концепций или нарративов, выражение становится более последовательным",
|
282
279
|
"title": "Разнообразие выражений"
|
283
280
|
},
|
284
|
-
"reasoningEffort": {
|
285
|
-
"desc": "Чем больше значение, тем сильнее способность вывода, но это может увеличить время отклика и потребление токенов",
|
286
|
-
"options": {
|
287
|
-
"high": "Высокий",
|
288
|
-
"low": "Низкий",
|
289
|
-
"medium": "Средний"
|
290
|
-
},
|
291
|
-
"title": "Интенсивность вывода"
|
292
|
-
},
|
293
281
|
"submit": "Обновить настройки модели",
|
294
282
|
"temperature": {
|
295
283
|
"desc": "Чем больше значение, тем более креативными и воображаемыми будут ответы; чем меньше значение, тем более строгими будут ответы",
|