@lobehub/chat 1.136.12 → 1.136.13
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/workflows/claude-translator.yml +13 -1
- package/CHANGELOG.md +34 -0
- package/changelog/v1.json +12 -0
- package/locales/ar/modelProvider.json +12 -0
- package/locales/ar/models.json +39 -24
- package/locales/bg-BG/modelProvider.json +12 -0
- package/locales/bg-BG/models.json +39 -24
- package/locales/de-DE/modelProvider.json +12 -0
- package/locales/de-DE/models.json +39 -24
- package/locales/en-US/modelProvider.json +12 -0
- package/locales/en-US/models.json +39 -24
- package/locales/es-ES/modelProvider.json +12 -0
- package/locales/es-ES/models.json +39 -24
- package/locales/fa-IR/modelProvider.json +12 -0
- package/locales/fa-IR/models.json +39 -24
- package/locales/fr-FR/modelProvider.json +12 -0
- package/locales/fr-FR/models.json +39 -24
- package/locales/it-IT/modelProvider.json +12 -0
- package/locales/it-IT/models.json +39 -24
- package/locales/ja-JP/modelProvider.json +12 -0
- package/locales/ja-JP/models.json +39 -24
- package/locales/ko-KR/modelProvider.json +12 -0
- package/locales/ko-KR/models.json +39 -24
- package/locales/nl-NL/modelProvider.json +12 -0
- package/locales/nl-NL/models.json +39 -24
- package/locales/pl-PL/modelProvider.json +12 -0
- package/locales/pl-PL/models.json +39 -24
- package/locales/pt-BR/modelProvider.json +12 -0
- package/locales/pt-BR/models.json +39 -24
- package/locales/ru-RU/modelProvider.json +12 -0
- package/locales/ru-RU/models.json +39 -24
- package/locales/tr-TR/modelProvider.json +12 -0
- package/locales/tr-TR/models.json +39 -24
- package/locales/vi-VN/modelProvider.json +12 -0
- package/locales/vi-VN/models.json +39 -24
- package/locales/zh-CN/modelProvider.json +12 -0
- package/locales/zh-CN/models.json +39 -24
- package/locales/zh-TW/modelProvider.json +12 -0
- package/locales/zh-TW/models.json +39 -24
- package/package.json +3 -3
- package/packages/const/src/settings/index.ts +1 -0
- package/packages/database/package.json +7 -5
- package/packages/electron-client-ipc/src/events/index.ts +2 -2
- package/packages/electron-client-ipc/src/events/{localFile.ts → localSystem.ts} +25 -6
- package/packages/electron-client-ipc/src/types/index.ts +1 -1
- package/packages/electron-client-ipc/src/types/{localFile.ts → localSystem.ts} +89 -4
- package/packages/file-loaders/package.json +1 -2
- package/packages/file-loaders/src/loadFile.ts +4 -1
- package/packages/file-loaders/src/loaders/doc/__snapshots__/index.test.ts.snap +46 -0
- package/packages/file-loaders/src/loaders/doc/index.test.ts +38 -0
- package/packages/file-loaders/src/loaders/doc/index.ts +57 -0
- package/packages/file-loaders/src/loaders/docx/index.ts +36 -45
- package/packages/file-loaders/src/loaders/index.ts +2 -0
- package/packages/file-loaders/src/types/word-extractor.d.ts +9 -0
- package/packages/file-loaders/src/types.ts +1 -1
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.test.ts +267 -38
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +45 -0
- package/packages/model-runtime/src/providerTestUtils.ts +0 -5
- package/packages/model-runtime/src/providers/anthropic/generateObject.test.ts +57 -44
- package/packages/model-runtime/src/providers/anthropic/generateObject.ts +28 -20
- package/packages/model-runtime/src/providers/deepseek/index.ts +5 -0
- package/packages/model-runtime/src/providers/openai/index.test.ts +0 -5
- package/packages/model-runtime/src/providers/openrouter/index.test.ts +3 -3
- package/packages/model-runtime/src/providers/openrouter/index.ts +32 -20
- package/packages/model-runtime/src/providers/openrouter/type.ts +25 -24
- package/packages/model-runtime/src/providers/zhipu/index.test.ts +0 -1
- package/packages/model-runtime/src/types/structureOutput.ts +13 -1
- package/packages/model-runtime/src/utils/handleOpenAIError.test.ts +0 -5
- package/packages/model-runtime/src/utils/handleOpenAIError.ts +2 -2
- package/packages/types/src/aiChat.ts +13 -1
- package/packages/types/src/index.ts +1 -0
- package/src/features/ChatInput/InputEditor/index.tsx +39 -26
- package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +1 -1
- package/src/server/routers/lambda/agent.ts +2 -3
- package/src/server/routers/lambda/aiChat.ts +33 -1
- package/src/server/routers/lambda/chunk.ts +2 -2
- package/src/services/electron/file.ts +1 -2
- package/src/services/electron/localFileService.ts +40 -0
- package/src/tools/local-system/Placeholder/ListFiles.tsx +23 -0
- package/src/tools/local-system/Placeholder/ReadLocalFile.tsx +9 -0
- package/src/tools/local-system/Placeholder/SearchFiles.tsx +55 -0
- package/src/tools/local-system/Placeholder/index.tsx +25 -0
- package/src/tools/placeholders.ts +3 -0
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "Implantado e fornecido pela Microsoft; o modelo DeepSeek R1 passou por uma atualização menor, a versão atual é DeepSeek-R1-0528. Na atualização mais recente, o DeepSeek R1 aumentou significativamente a profundidade de inferência e a capacidade de dedução ao adicionar recursos computacionais e introduzir mecanismos de otimização algorítmica na fase pós-treinamento. Este modelo apresenta desempenho excelente em vários benchmarks, incluindo matemática, programação e lógica geral, com desempenho geral próximo aos modelos líderes, como O3 e Gemini 2.5 Pro."
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B é um modelo especialista híbrido desenvolvido pela Baichuan Intelligence, com poderosa capacidade de raciocínio."
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13B é um modelo de linguagem de código aberto e comercializável desenvolvido pela Baichuan Intelligence, contendo 13 bilhões de parâmetros, alcançando os melhores resultados em benchmarks de chinês e inglês na mesma dimensão."
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4 é projetado para interpretação de personagens e companhia emocional, suportando memória de múltiplas rodadas de longa duração e diálogos personalizados, com ampla aplicação."
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3 é um modelo de código fechado desenvolvido pela AI Zhipu em colaboração com o laboratório KEG da Tsinghua. Após um pré-treinamento extenso com identificadores em chinês e inglês, e um alinhamento com as preferências humanas, o modelo apresenta melhorias de 16%, 36% e 280% em MMLU, C-Eval e GSM8K, respectivamente, em comparação com a primeira geração. Ele lidera o ranking de tarefas em chinês C-Eval. É ideal para cenários que exigem alto nível de conhecimento, capacidade de raciocínio e criatividade, como redação de textos publicitários, escrita de romances, redação de conteúdo informativo e geração de código."
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base é o modelo base de 6 bilhões de parâmetros da mais recente geração da série ChatGLM, desenvolvida pela Zhípǔ."
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus é uma versão atualizada do modelo V3.1 lançado pela DeepSeek, posicionada como um modelo de linguagem grande com agentes híbridos. Esta atualização mantém as capacidades originais do modelo, focando na correção de problemas reportados pelos usuários e na melhoria da estabilidade. Houve uma melhoria significativa na consistência linguística, reduzindo o uso misto de chinês e inglês e a ocorrência de caracteres anômalos. O modelo integra o “Modo de Pensamento” e o “Modo Não-Pensamento”, permitindo que os usuários alternem flexivelmente entre eles via templates de chat para diferentes tarefas. Como uma otimização importante, o V3.1-Terminus aprimora o desempenho dos agentes de código e de busca, tornando-os mais confiáveis na chamada de ferramentas e na execução de tarefas complexas em múltiplas etapas."
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "O modelo DeepSeek V3.2 Exp adota uma arquitetura híbrida de raciocínio, suportando modos com e sem raciocínio."
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek 67B é um modelo avançado treinado para diálogos de alta complexidade."
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1 é o novo modelo híbrido de raciocínio lançado pela DeepSeek, suportando dois modos de raciocínio: com e sem pensamento, com eficiência de pensamento superior ao DeepSeek-R1-0528. Após otimização pós-treinamento, o uso de ferramentas Agent e o desempenho em tarefas inteligentes foram significativamente aprimorados. Suporta janela de contexto de 128k e comprimento máximo de saída de 64k tokens."
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus é uma versão otimizada para dispositivos finais do modelo de linguagem de grande escala lançado pela DeepSeek."
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1: modelo de inferência de próxima geração, aprimorado para raciocínio complexo e pensamento em cadeia, ideal para tarefas que exigem análise profunda."
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "Modelo de linguagem de grande escala de nível flagship desenvolvido pela Baidu, com desempenho geral excepcional, amplamente aplicável a cenários de tarefas complexas em várias áreas; suporta integração automática com plugins de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas. Em comparação com o ERNIE 4.0, apresenta desempenho superior."
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B é um modelo especialista híbrido desenvolvido pela Wenxin da Baidu, com fortes capacidades de raciocínio e suporte multilíngue."
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B é um modelo especialista híbrido em larga escala lançado pela Wenxin da Baidu, com desempenho excepcional em raciocínio."
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "O modelo ERNIE 4.5 é a nova geração de modelo de base multimodal nativo desenvolvido pela Baidu, alcançando otimização colaborativa por meio de modelagem conjunta de múltiplos modos, com excelente capacidade de compreensão multimodal; apresenta habilidades linguísticas aprimoradas, com melhorias abrangentes em compreensão, geração, lógica e memória, além de redução de alucinações e melhorias significativas em raciocínio lógico e habilidades de codificação."
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "O GLM-4-0520 é a versão mais recente do modelo, projetada para tarefas altamente complexas e diversificadas, com desempenho excepcional."
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat apresenta alto desempenho em semântica, matemática, raciocínio,
|
|
1461
|
+
"description": "GLM-4-9B-Chat apresenta alto desempenho em semântica, matemática, raciocínio, programação e conhecimento. Também oferece suporte a navegação na web, execução de código, uso de ferramentas personalizadas e raciocínio com textos longos. Suporta 26 idiomas, incluindo japonês, coreano e alemão."
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "O GLM-4-Air é uma versão econômica, com desempenho próximo ao GLM-4, oferecendo alta velocidade a um preço acessível."
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "Uma versão mais econômica do GPT Image 1, com suporte nativo para entrada de texto e imagem, além de geração de saída em imagem."
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "Este modelo requer solicitação para uso. GPT-OSS-120B é um modelo de linguagem de código aberto em larga escala lançado pela OpenAI, com poderosa capacidade de geração de texto."
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "Este modelo requer solicitação para uso. GPT-OSS-20B é um modelo de linguagem de código aberto de porte médio lançado pela OpenAI, com geração de texto eficiente."
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B é um modelo de linguagem grande de código aberto lançado pela OpenAI, utilizando a tecnologia de quantização MXFP4, sendo um modelo de ponta. Requer múltiplas GPUs ou estações de trabalho de alto desempenho para execução, oferecendo desempenho excepcional em raciocínio complexo, geração de código e processamento multilíngue, com suporte a chamadas avançadas de funções e integração de ferramentas."
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct é um modelo de linguagem de grande escala lançado pela Moonshot AI, com capacidade de processamento de contexto ultralongo."
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2 é um modelo base com arquitetura MoE que oferece capacidades avançadas para programação e agentes, com 1T de parâmetros totais e 32B de parâmetros ativados. Em testes de benchmark nas principais categorias — raciocínio de conhecimento geral, programação, matemática e agentes — o desempenho do modelo K2 supera outros modelos de código aberto mais populares."
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Lite é um modelo de linguagem grande leve, com latência extremamente baixa e alta eficiência de processamento, totalmente gratuito e aberto, suportando funcionalidades de busca online em tempo real. Sua característica de resposta rápida o torna excelente para aplicações de inferência em dispositivos de baixo poder computacional e ajuste fino de modelos, proporcionando aos usuários uma excelente relação custo-benefício e experiência inteligente, especialmente em cenários de perguntas e respostas, geração de conteúdo e busca."
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "Llama2 é uma série de modelos de linguagem grandes (LLM) desenvolvidos e open source pela Meta, que inclui modelos de texto gerativo pré-treinados e finetunados com escalas variando de 7 bilhões a 70 bilhões de parâmetros. Do ponto de vista arquitetural, o Llama2 é um modelo de linguagem autoregressivo que utiliza uma arquitetura de transformador otimizada. As versões ajustadas utilizam micro-treinamento supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para alinhar as preferências de utilidade e segurança humanas. O Llama2 apresenta um desempenho notável em vários conjuntos de dados acadêmicos, fornecendo inspiração para o design e desenvolvimento de muitos outros modelos."
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "Llama 3.1 70B oferece capacidade de raciocínio AI mais poderosa, adequada para aplicações complexas, suportando um processamento computacional extenso e garantindo eficiência e precisão."
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B: modelo Llama de médio a grande porte, equilibrando capacidade de raciocínio e desempenho de processamento."
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Llama 3.3 é o modelo de linguagem de código aberto multilíngue mais avançado da série Llama, oferecendo desempenho comparável ao modelo 405B a um custo extremamente baixo. Baseado na estrutura Transformer, e aprimorado por meio de ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para aumentar a utilidade e a segurança. Sua versão ajustada para instruções é otimizada para diálogos multilíngues, superando muitos modelos de chat de código aberto e fechado em vários benchmarks da indústria. A data limite de conhecimento é dezembro de 2023."
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "O modelo de linguagem multilíngue Meta Llama 3.3 (LLM) é um modelo gerador pré-treinado e ajustado para instruções, com 70B (entrada/saída de texto). O modelo de texto puro ajustado para instruções do Llama 3.3 é otimizado para casos de uso de diálogo multilíngue e supera muitos modelos de chat open source e fechados disponíveis em benchmarks comuns da indústria."
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32K possui uma capacidade de processamento de contexto grande, com melhor compreensão de contexto e capacidade de raciocínio lógico, suportando entradas de texto de 32K tokens, adequado para leitura de documentos longos, perguntas e respostas de conhecimento privado e outros cenários."
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct é um modelo eficiente com poucos parâmetros desenvolvido pela Wuwen Xinqiong."
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "Um poderoso modelo com 70 bilhões de parâmetros, destacando-se em raciocínio, codificação e amplas aplicações linguísticas."
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128K possui uma capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações contextuais, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo oferecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "Modelo exclusivo para serviços empresariais, com suporte a serviços simultâneos."
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "Modelo exclusivo para serviços empresariais, com suporte a serviços simultâneos."
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "O modelo QVQ é um modelo de pesquisa experimental desenvolvido pela equipe Qwen, focado em melhorar a capacidade de raciocínio visual, especialmente na área de raciocínio matemático."
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2 é a nova série de modelos de linguagem grandes desenvolvida pela equipe Qwen. Baseia-se na arquitetura Transformer e utiliza funções de ativação SwiGLU, vieses de atenção QKV (attention QKV bias), atenção de consulta em grupo (group query attention), uma mistura de atenção de janela deslizante (mixture of sliding window attention) e atenção completa. Além disso, a equipe Qwen também aprimorou o tokenizador para adaptar-se a múltiplas línguas naturais e códigos."
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2 é uma nova série de modelos de linguagem grandes desenvolvida pela equipe Qwen. Baseia-se na arquitetura Transformer e utiliza funções de ativação SwiGLU, viés de atenção QKV (attention QKV bias), atenção de consulta em grupo (group query attention), uma mistura de atenção de janela deslizante e atenção completa (mixture of sliding window attention and full attention). Além disso, a equipe Qwen também aprimorou o tokenizador para adaptar-se a várias línguas naturais e códigos."
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "Modelo open source de nova geração no modo reflexivo baseado no Qwen3, que oferece melhor conformidade com instruções e respostas mais concisas em resumos, em comparação com a versão anterior (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct é um modelo multimodal lançado pela Tongyi Qianwen, com suporte a compreensão visual e raciocínio."
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking é um modelo multimodal de raciocínio lançado pela Tongyi Qianwen, com suporte a compreensão visual e raciocínio."
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "Tongyi Qianwen VL é um modelo gerador de texto com capacidade de compreensão visual (imagens), capaz não só de realizar OCR (reconhecimento de texto em imagens), mas também de resumir e inferir, como extrair atributos de fotos de produtos e resolver problemas a partir de imagens de exercícios."
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "Este modelo é um grande modelo de inferência com forte capacidade de compreensão de imagens, capaz de processar informações de imagem e texto, gerando conteúdo textual após um profundo raciocínio. O modelo se destaca no campo do raciocínio visual, além de possuir habilidades de raciocínio matemático, código e texto de primeira linha. O comprimento do contexto é de 100k."
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3 é um modelo multimodal lançado pela StepStar, com poderosa capacidade de compreensão visual."
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3 é um modelo avançado de raciocínio multimodal lançado pela StepFun, construído sobre uma arquitetura de mistura de especialistas (Mixture of Experts, MoE) com 321B de parâmetros totais e 38B de parâmetros de ativação. O modelo adota um design ponta a ponta, visando minimizar o custo de decodificação enquanto oferece desempenho de primeira linha em raciocínio visão-linguagem. Por meio do design cooperativo de Atenção por Decomposição em Múltiplas Matrizes (MFA) e do Desacoplamento Atenção-FFN (AFD), o Step3 mantém excelente eficiência tanto em aceleradores de alto desempenho quanto em aceleradores de baixo custo. Na fase de pré-treinamento, o Step3 processou mais de 20T tokens de texto e 4T tokens multimodais de imagem e texto, cobrindo mais de dez idiomas. O modelo alcançou posições de liderança entre modelos open-source em vários benchmarks, incluindo matemática, código e tarefas multimodais."
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "O mais recente e melhor modelo principal da xAI, oferecendo desempenho incomparável em linguagem natural, matemática e raciocínio — o competidor perfeito para todas as tarefas."
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5 é uma versão aprimorada do Yi. Ele usa um corpus de alta qualidade com 500B tokens para continuar o pré-treinamento do Yi e é refinado com 3M amostras de ajuste fino diversificadas."
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "Modelo de nova geração com trilhões de parâmetros, oferecendo capacidades excepcionais de perguntas e respostas e geração de texto."
|
|
3166
3181
|
},
|
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "Введите идентификатор модели, например, gpt-4o или claude-3.5-sonnet",
|
|
285
285
|
"title": "ID модели"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "Эта настройка включает только возможность генерации изображений моделью. Конечный результат полностью зависит от самой модели. Пожалуйста, самостоятельно проверьте, способна ли модель генерировать изображения.",
|
|
289
|
+
"title": "Поддержка генерации изображений"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "Настройка пользовательской модели",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "Эта настройка активирует возможность глубокого мышления модели, конкретный эффект полностью зависит от самой модели, пожалуйста, протестируйте, обладает ли модель доступной способностью к глубокому мышлению",
|
|
290
294
|
"title": "Поддержка глубокого мышления"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "Эта настройка включает только возможность подключения к интернету для встроенного поискового движка модели. Поддержка встроенного поиска зависит от самой модели. Пожалуйста, самостоятельно проверьте, доступна ли эта функция у модели.",
|
|
298
|
+
"title": "Поддержка интернет-поиска"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "Установите максимальное количество токенов, поддерживаемое моделью",
|
|
294
302
|
"title": "Максимальное окно контекста",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "Пожалуйста, выберите тип модели",
|
|
310
318
|
"title": "Тип модели"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "Эта настройка включает только конфигурацию распознавания видео в приложении. Возможность распознавания полностью зависит от самой модели. Пожалуйста, самостоятельно проверьте, поддерживает ли модель распознавание видео.",
|
|
322
|
+
"title": "Поддержка распознавания видео"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "Эта настройка только активирует возможность загрузки изображений в приложении, поддержка распознавания полностью зависит от самой модели, пожалуйста, протестируйте доступность визуального распознавания этой модели.",
|
|
314
326
|
"title": "Поддержка визуального распознавания"
|
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "Развернуто и предоставлено Microsoft; модель DeepSeek R1 получила небольшое обновление версии, текущая версия — DeepSeek-R1-0528. В последнем обновлении DeepSeek R1 значительно улучшил глубину вывода и вычислительные возможности за счет увеличения вычислительных ресурсов и внедрения алгоритмических оптимизаций на этапе дообучения. Эта модель демонстрирует отличные результаты в тестах по математике, программированию и общей логике, а её общая производительность близка к ведущим моделям, таким как O3 и Gemini 2.5 Pro."
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B — это гибридная модель экспертов, разработанная компанией Baichuan Intelligence, обладающая мощными возможностями логического вывода."
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13B — это открытая коммерческая крупная языковая модель с 13 миллиардами параметров, разработанная Baichuan Intelligence, которая показала лучшие результаты среди моделей того же размера на авторитетных бенчмарках на китайском и английском языках."
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4 разработан для ролевых игр и эмоционального сопровождения, поддерживает сверхдолгую многократную память и персонализированные диалоги, имеет широкое применение."
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3 — это закрытая модель, разработанная AI-лабораторией Tsinghua KEG и Zhipu AI. Она прошла предварительное обучение на огромном количестве китайских и английских данных и обучение на основе предпочтений человека. По сравнению с первой версией модели, она показала улучшение на 16%, 36% и 280% в тестах MMLU, C-Eval и GSM8K соответственно, и заняла первое место в китайском рейтинге задач C-Eval. Эта модель подходит для сценариев, требующих высокого уровня знаний, способности к рассуждению и креативности, таких как создание рекламных текстов, написание романов, научной письменности и генерации кода."
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base — это базовая модель с открытым исходным кодом последнего поколения серии ChatGLM, разработанная компанией Zhipu, с 6 миллиардами параметров."
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus — обновлённая версия модели V3.1 от DeepSeek, позиционируемая как гибридная большая языковая модель с агентскими функциями. В этом обновлении, сохраняя прежние возможности модели, акцент сделан на исправлении проблем, выявленных пользователями, и повышении стабильности. Значительно улучшена языковая согласованность, уменьшено смешение китайского и английского языков, а также появление аномальных символов. Модель интегрирует режимы «размышления» (Thinking Mode) и «без размышления» (Non-thinking Mode), которые пользователи могут гибко переключать через шаблоны чата для разных задач. Важным улучшением является усиление производительности кодового агента (Code Agent) и поискового агента (Search Agent), что повышает надёжность при вызове инструментов и выполнении многошаговых сложных задач."
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "Модель DeepSeek V3.2 Exp представляет собой гибридную архитектуру для рассуждений, поддерживающую как режим размышлений, так и нерефлексивный режим."
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek 67B — это передовая модель, обученная для высококомплексных диалогов."
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1 — новая гибридная модель рассуждений от DeepSeek, поддерживающая два режима рассуждений: с размышлением и без размышления, с более высокой эффективностью размышлений по сравнению с DeepSeek-R1-0528. После посттренировочной оптимизации значительно улучшена работа с инструментами агента и выполнение задач интеллектуального агента. Поддерживает контекстное окно до 128k и максимальную длину вывода до 64k токенов."
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus — это оптимизированная версия крупной языковой модели от DeepSeek, специально адаптированная для работы на конечных устройствах."
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1: модель следующего поколения для вывода, улучшенная для сложных рассуждений и цепочек мышления, подходит для задач, требующих глубокого анализа."
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, демонстрирует отличные результаты в комплексных задачах, широко применима в различных областях; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации. По сравнению с ERNIE 4.0, она показывает лучшие результаты."
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B — это гибридная модель экспертов от Baidu Wenxin, обладающая мощными возможностями логического вывода и поддержки нескольких языков."
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B — это сверхмасштабная гибридная модель экспертов от Baidu Wenxin с выдающимися возможностями логического вывода."
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "Модель Ernie 4.5 — это новое поколение оригинальной мультимодальной базовой модели, разработанной Baidu, которая достигает совместной оптимизации через совместное моделирование нескольких модальностей, обладая отличными способностями к мультимодальному пониманию; обладает более совершенными языковыми способностями, улучшенными способностями к пониманию, генерации, логике и памяти, а также значительно улучшенными способностями к устранению галлюцинаций, логическому выводу и кодированию."
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "GLM-4-0520 — это последняя версия модели, специально разработанная для высоко сложных и разнообразных задач, демонстрирующая выдающиеся результаты."
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat демонстрирует высокую производительность в
|
|
1461
|
+
"description": "GLM-4-9B-Chat демонстрирует высокую производительность в области семантики, математики, логики, программирования и знаний. Поддерживает веб-браузинг, выполнение кода, вызов пользовательских инструментов и обработку длинных текстов. Поддерживает 26 языков, включая японский, корейский и немецкий."
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "GLM-4-Air — это экономически эффективная версия, производительность которой близка к GLM-4, обеспечивая высокую скорость и доступную цену."
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "Более доступная версия GPT Image 1 с нативной поддержкой ввода текста и изображений, а также генерацией изображений в ответ."
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "Для использования этой модели требуется подать заявку. GPT-OSS-120B — это открытая крупномасштабная языковая модель от OpenAI с мощными возможностями генерации текста."
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "Для использования этой модели требуется подать заявку. GPT-OSS-20B — это открытая среднеразмерная языковая модель от OpenAI с высокой эффективностью генерации текста."
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B — крупная открытая языковая модель от OpenAI, использующая технологию квантования MXFP4, предназначенная для флагманских решений. Требует многопроцессорной GPU или высокопроизводительной рабочей станции для работы, обладает выдающейся производительностью в сложных задачах рассуждения, генерации кода и многоязыковой обработке, поддерживает расширенные вызовы функций и интеграцию инструментов."
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct — это крупная языковая модель от Moonshot AI, обладающая способностью обрабатывать сверхдлинный контекст."
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2 — это базовая модель архитектуры MoE с выдающимися возможностями в области программирования и агентов. Общий объём параметров — 1 трлн, активируемые параметры — 32 млрд. В бенчмарках по основным категориям (общее знание и рассуждение, программирование, математика, агенты и пр.) модель K2 демонстрирует результаты выше, чем у других ведущих открытых моделей."
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функции онлайн-поиска в реальном времени. Ее быстрая реакция делает ее отличным выбором для применения в устройствах с низкой вычислительной мощностью и для тонкой настройки моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в сценариях вопросов и ответов, генерации контента и поиска."
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "Llama2 — это серия больших языковых моделей (LLM), разработанных и открытых для использования компанией Meta. Это набор предобученных и дообученных генеративных текстовых моделей, размер которых варьируется от 7 до 70 миллиардов параметров. С архитектурной точки зрения, Llama2 представляет собой автогрессивную языковую модель, использующую оптимизированную трансформерную архитектуру. Настроенные версии используют надзорное дообучение (SFT) и обучение с подкреплением на основе обратной связи от человека (RLHF) для согласования с предпочтениями человека в отношении полезности и безопасности. Llama2 показывает лучшие результаты на различных академических наборах данных по сравнению с предыдущими моделями серии Llama, что предоставляет ценные идеи для дизайна и разработки других моделей."
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "Llama 3.1 70B предлагает более мощные возможности ИИ вывода, подходит для сложных приложений, поддерживает огромное количество вычислительных процессов и гарантирует эффективность и точность."
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B: средне-крупная модель Llama, сочетающая логические способности и высокую пропускную способность."
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Llama 3.3 — это самая современная многоязычная открытая языковая модель из серии Llama, которая позволяет получить производительность, сопоставимую с 405B моделями, по очень низкой цене. Основана на структуре Transformer и улучшена с помощью контролируемой донастройки (SFT) и обучения с подкреплением на основе человеческой обратной связи (RLHF) для повышения полезности и безопасности. Ее версия с оптимизацией под инструкции специально разработана для многоязычных диалогов и показывает лучшие результаты по сравнению с множеством открытых и закрытых моделей чата на различных отраслевых бенчмарках. Дата окончания знаний — декабрь 2023 года."
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "Многоязычная большая языковая модель Meta Llama 3.3 (LLM) — это предобученная и откорректированная модель генерации на 70B (текстовый ввод/текстовый вывод). Откорректированная на чистом тексте модель Llama 3.3 оптимизирована для многоязычных диалоговых задач и превосходит многие доступные открытые и закрытые модели чата по общим промышленным стандартам."
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32K обладает большой способностью обработки контекста, улучшенным пониманием контекста и логическим выводом, поддерживает текстовый ввод до 32K токенов, подходит для чтения длинных документов, частных вопросов и ответов и других сценариев."
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct — это компактная и эффективная модель с малым числом параметров, разработанная компанией Wuwen Xinqiong."
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "Мощная модель с 70 миллиардами параметров, превосходящая в области рассуждений, кодирования и широких языковых приложений."
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128K оснащен огромной способностью обработки контекста, способной обрабатывать до 128K контекстной информации, что делает его особенно подходящим для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "Специализированная модель для корпоративного обслуживания, поддерживает параллельную обработку запросов."
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "Специализированная модель для корпоративного обслуживания, поддерживает параллельную обработку запросов."
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "Модель QVQ, разработанная командой Qwen, является экспериментальной исследовательской моделью, сосредоточенной на повышении визуальных способностей рассуждения, особенно в области математического рассуждения."
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2 — это новая серия больших языковых моделей, разработанная командой Qwen. Она основана на архитектуре Transformer и использует такие технологии, как функция активации SwiGLU, смещение QKV внимания (attention QKV bias), групповой запрос внимания (group query attention), смесь скользящего окна внимания (mixture of sliding window attention) и полное внимание. Кроме того, команда Qwen улучшила токенизатор, адаптированный для обработки различных естественных языков и кода."
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2 — это новая серия больших языковых моделей, разработанная командой Qwen. Она основана на архитектуре Transformer и использует такие технологии, как функция активации SwiGLU, смещение QKV внимания (attention QKV bias), групповой запрос внимания (group query attention), смесь скользящего окна внимания (mixture of sliding window attention) и полное внимание. Кроме того, команда Qwen улучшила токенизатор, адаптированный для обработки различных естественных языков и кода."
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5 — это новое поколение масштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных потребностей приложений."
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "Новая генерация открытой модели с режимом мышления на базе Qwen3, которая по сравнению с предыдущей версией (通义千问3-235B-A22B-Thinking-2507) демонстрирует улучшенное следование инструкциям и более лаконичные ответы модели."
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct — это мультимодальная модель от Tongyi Qianwen, поддерживающая визуальное восприятие и логический вывод."
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking — это мультимодальная модель рассуждений от Tongyi Qianwen, поддерживающая визуальное восприятие и логический вывод."
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "Tongyi Qianwen VL — текстовая генеративная модель с возможностями визуального (изображенческого) понимания. Она не только способна выполнять OCR (распознавание текста на изображениях), но и проводить дальнейшее суммирование и рассуждение, например, извлекать атрибуты из фотографий товаров или решать задачи по изображениям учебных заданий."
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "Эта модель является мощной моделью вывода с сильными способностями к пониманию изображений, способной обрабатывать информацию из изображений и текста, выводя текст после глубокого размышления. Эта модель демонстрирует выдающиеся результаты в области визуального вывода, а также обладает первоклассными способностями в математике, коде и текстовом выводе. Длина контекста составляет 100k."
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3 — это мультимодальная модель от StepStar, обладающая мощными возможностями визуального восприятия."
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3 — передовая мультимодальная модель рассуждения, выпущенная компанией StepFun. Она построена на архитектуре mixture-of-experts (MoE) с общим числом параметров 321 млрд и 38 млрд активных параметров. Модель реализована по энд‑ту‑энд схеме и нацелена на минимизацию затрат на декодирование при обеспечении высочайшей производительности в задачах визуально‑языкового рассуждения. Благодаря совместному дизайну многоматричного разложения внимания (MFA) и декуплинга внимания и FFN (AFD), Step3 демонстрирует отличную эффективность как на флагманских, так и на бюджетных ускорителях. На этапе предобучения модель обработала более 20 трлн текстовых токенов и 4 трлн смешанных токенов «текст+изображение», охватив более десяти языков. Step3 показывает лидирующие результаты среди открытых моделей по множеству бенчмарков, включая задачи по математике, коду и мультимодальные задачи."
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "Новейшая и лучшая флагманская модель xAI, обеспечивающая непревзойденную производительность в естественном языке, математике и рассуждениях — идеальный универсал."
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5 — это обновленная версия Yi. Она использует 500B токенов высококачественного корпуса данных для продолжения предварительной тренировки на основе Yi и微调在3M个多样化的微调样本上。"
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "Совершенно новая модель с триллионом параметров, обеспечивающая выдающиеся возможности для вопросов и ответов, а также генерации текста."
|
|
3166
3181
|
},
|
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "Model kimliğini girin, örneğin gpt-4o veya claude-3.5-sonnet",
|
|
285
285
|
"title": "Model ID"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "Bu yapılandırma yalnızca modelin görsel oluşturma yeteneğini etkinleştirir. Gerçek performans tamamen modele bağlıdır, lütfen bu modelin kullanılabilir görsel oluşturma yeteneğini kendiniz test edin.",
|
|
289
|
+
"title": "Görsel Oluşturmayı Destekler"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "Özel Model Yapılandırması",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "Bu yapılandırma yalnızca modelin derin düşünme yeteneğini açacaktır, belirli etkiler tamamen modelin kendisine bağlıdır, lütfen bu modelin kullanılabilir derin düşünme yeteneğine sahip olup olmadığını kendiniz test edin",
|
|
290
294
|
"title": "Derin düşünmeyi destekler"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "Bu yapılandırma yalnızca modelin yerleşik arama motoru ile internet arama yeteneğini etkinleştirir. Yerleşik arama motorunun desteklenip desteklenmediği modele bağlıdır, lütfen bu modelin yerleşik arama motoru yeteneğini kendiniz test edin.",
|
|
298
|
+
"title": "İnternet Aramasını Destekler"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "Modelin desteklediği maksimum Token sayısını ayarlayın",
|
|
294
302
|
"title": "Maksimum bağlam penceresi",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "Lütfen model türünü seçin",
|
|
310
318
|
"title": "Model Türü"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "Bu yapılandırma yalnızca uygulamadaki video tanıma yapılandırmasını etkinleştirir. Tanıma desteği tamamen modele bağlıdır, lütfen bu modelin video tanıma yeteneğini kendiniz test edin.",
|
|
322
|
+
"title": "Video Tanımayı Destekler"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "Bu yapılandırma yalnızca uygulamadaki resim yükleme yapılandırmasını açacaktır, tanıma desteği tamamen modele bağlıdır, lütfen bu modelin görsel tanıma yeteneğini test edin.",
|
|
314
326
|
"title": "Görsel Tanımayı Destekle"
|