@lobehub/chat 1.31.4 → 1.31.6
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/locales/ar/models.json +39 -7
- package/locales/ar/providers.json +4 -0
- package/locales/bg-BG/models.json +38 -6
- package/locales/bg-BG/providers.json +4 -0
- package/locales/de-DE/models.json +39 -7
- package/locales/de-DE/providers.json +4 -0
- package/locales/en-US/models.json +38 -6
- package/locales/en-US/providers.json +4 -0
- package/locales/es-ES/models.json +38 -6
- package/locales/es-ES/providers.json +4 -0
- package/locales/fa-IR/modelProvider.json +12 -0
- package/locales/fa-IR/models.json +39 -7
- package/locales/fa-IR/providers.json +4 -0
- package/locales/fr-FR/models.json +38 -6
- package/locales/fr-FR/providers.json +4 -0
- package/locales/it-IT/models.json +38 -6
- package/locales/it-IT/providers.json +4 -0
- package/locales/ja-JP/models.json +39 -7
- package/locales/ja-JP/providers.json +4 -0
- package/locales/ko-KR/models.json +38 -6
- package/locales/ko-KR/providers.json +4 -0
- package/locales/nl-NL/models.json +38 -6
- package/locales/nl-NL/providers.json +4 -0
- package/locales/pl-PL/models.json +37 -5
- package/locales/pl-PL/providers.json +4 -0
- package/locales/pt-BR/models.json +38 -6
- package/locales/pt-BR/providers.json +4 -0
- package/locales/ru-RU/models.json +38 -6
- package/locales/ru-RU/providers.json +4 -0
- package/locales/tr-TR/models.json +39 -7
- package/locales/tr-TR/providers.json +4 -0
- package/locales/vi-VN/models.json +37 -5
- package/locales/vi-VN/providers.json +4 -0
- package/locales/zh-CN/modelProvider.json +1 -1
- package/locales/zh-CN/models.json +37 -5
- package/locales/zh-CN/providers.json +4 -0
- package/locales/zh-TW/models.json +38 -6
- package/locales/zh-TW/providers.json +4 -0
- package/package.json +1 -1
- package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -2
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/Header/index.tsx +6 -1
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +63 -43
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +19 -1
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/Content.tsx +35 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/index.tsx +28 -0
- package/src/config/modelProviders/baichuan.ts +30 -2
- package/src/config/modelProviders/cloudflare.ts +1 -0
- package/src/config/modelProviders/deepseek.ts +1 -1
- package/src/config/modelProviders/qwen.ts +19 -19
- package/src/config/modelProviders/siliconcloud.ts +16 -4
- package/src/config/modelProviders/wenxin.ts +13 -0
- package/src/features/ChatInput/ActionBar/config.ts +1 -20
- package/src/features/ChatInput/ActionBar/index.tsx +25 -28
- package/src/features/ChatInput/types.ts +1 -0
- package/src/features/Conversation/components/ChatItem/index.tsx +1 -1
- package/src/features/Conversation/components/VirtualizedList/index.tsx +13 -28
- package/src/features/Conversation/index.ts +2 -0
- package/src/libs/agent-runtime/ai360/index.test.ts +1 -1
- package/src/libs/agent-runtime/ai360/index.ts +1 -1
- package/src/features/Conversation/index.tsx +0 -30
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra é a versão mais poderosa da série de grandes modelos Xinghuo, que, ao atualizar a conexão de busca online, melhora a capacidade de compreensão e resumo de conteúdo textual. É uma solução abrangente para aumentar a produtividade no trabalho e responder com precisão às demandas, sendo um produto inteligente líder na indústria."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Geração após geração, o Meta Llama 3 demonstra desempenho de ponta em uma ampla gama de benchmarks da indústria e oferece novas capacidades, incluindo raciocínio aprimorado."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Utiliza tecnologia de busca aprimorada para conectar completamente o grande modelo com conhecimento de domínio e conhecimento da web. Suporta upload de vários documentos, como PDF e Word, e entrada de URLs, garantindo acesso a informações de forma rápida e abrangente, com resultados precisos e profissionais."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "O modelo é o melhor do país, superando modelos estrangeiros em tarefas em chinês, como enciclopédias, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes na indústria, com desempenho excepcional em várias avaliações de referência."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "Modelo com a melhor capacidade do país, superando modelos estrangeiros em tarefas em chinês como enciclopédia, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes da indústria, com excelente desempenho em várias avaliações de referência."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "Modelo com a melhor capacidade do país, superando modelos estrangeiros em tarefas em chinês como enciclopédia, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes da indústria, com excelente desempenho em várias avaliações de referência."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, que em comparação com o ERNIE 3.5, apresenta uma atualização completa nas capacidades do modelo, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, com desempenho excepcional em uma ampla gama de cenários de tarefas complexas; suporta integração automática com plugins de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas. Em comparação com o ERNIE 4.0, apresenta desempenho superior."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Modelo de linguagem de última geração desenvolvido pela Baidu, com desempenho excepcional em uma ampla gama de cenários de tarefas complexas; suporta integração automática com plugins de busca da Baidu, garantindo a relevância da informação nas respostas. Supera o desempenho do ERNIE 4.0."
|
52
75
|
},
|
@@ -146,7 +169,7 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 é uma nova série de grandes modelos de linguagem, projetada para otimizar o processamento de tarefas instrucionais."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
150
173
|
"description": "Qwen2.5-Coder foca na escrita de código."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B é uma versão de código aberto, oferecendo uma experiência de diálogo otimizada para aplicações de conversa."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large é o maior modelo MoE de arquitetura Transformer open source da indústria, com um total de 389 bilhões de parâmetros e 52 bilhões de parâmetros ativados."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Voltado para cenários de produtividade, suportando o processamento de tarefas complexas e geração de texto eficiente, adequado para aplicações em áreas profissionais."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "O GPT-4o mini é o mais recente modelo lançado pela OpenAI após o GPT-4 Omni, suportando entrada de texto e imagem e gerando texto como saída. Como seu modelo compacto mais avançado, ele é muito mais acessível do que outros modelos de ponta recentes, custando mais de 60% menos que o GPT-3.5 Turbo. Ele mantém uma inteligência de ponta, ao mesmo tempo que oferece um custo-benefício significativo. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Apresenta desempenho equivalente ao Grok 2, mas com maior eficiência, velocidade e funcionalidades."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K possui uma capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações contextuais, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo oferecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Modelo de código Qwen."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "Modelo de código Qwen."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "Modelo de 7B parâmetros do Qwen 2.5, disponível como código aberto."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "Versão
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "Versão open source do modelo de código Qwen."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "Versão de código aberto do modelo de código Qwen."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) é adequado para tarefas de instrução refinadas, oferecendo excelente capacidade de processamento de linguagem."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e Claude 3 Opus, apresentando um desempenho excepcional em uma ampla gama de avaliações, enquanto mantém a velocidade e o custo de nossos modelos de nível médio."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, destacando-se em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock é um serviço oferecido pela Amazon AWS, focado em fornecer modelos de linguagem e visão de IA avançados para empresas. Sua família de modelos inclui a série Claude da Anthropic, a série Llama 3.1 da Meta, entre outros, abrangendo uma variedade de opções, desde modelos leves até de alto desempenho, suportando geração de texto, diálogos, processamento de imagens e outras tarefas, adequando-se a aplicações empresariais de diferentes escalas e necessidades."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "A DeepSeek é uma empresa focada em pesquisa e aplicação de tecnologia de inteligência artificial, cujo modelo mais recente, DeepSeek-V2.5, combina capacidades de diálogo geral e processamento de código, alcançando melhorias significativas em alinhamento com preferências humanas, tarefas de escrita e seguimento de instruções."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Plataforma de desenvolvimento e serviços de aplicativos nativos de IA e modelos de grande escala, voltada para empresas, que oferece a mais completa e fácil ferramenta de cadeia de ferramentas para o desenvolvimento de modelos de inteligência artificial generativa e aplicativos."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI é uma empresa dedicada a construir inteligência artificial para acelerar as descobertas científicas da humanidade. Nossa missão é promover a nossa compreensão coletiva do universo."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI se concentra na tecnologia de inteligência artificial da era 2.0, promovendo fortemente a inovação e aplicação de 'humano + inteligência artificial', utilizando modelos poderosos e tecnologia de IA avançada para aumentar a produtividade humana e realizar a capacitação tecnológica."
|
90
94
|
},
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra — это самая мощная версия в серии больших моделей Xinghuo, которая, обновив сетевые поисковые связи, улучшает понимание и обобщение текстового контента. Это всестороннее решение для повышения производительности в офисе и точного реагирования на запросы, являющееся ведущим интеллектуальным продуктом в отрасли."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Поколение за поколением, Meta Llama 3 демонстрирует передовые результаты по широкому спектру отраслевых стандартов и предлагает новые возможности, включая улучшенное логическое мышление."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Использует технологии улучшенного поиска для полной связи между большой моделью и отраслевыми знаниями, а также знаниями из сети. Поддерживает загрузку различных документов, таких как PDF и Word, а также ввод URL, обеспечивая своевременное и полное получение информации с точными и профессиональными результатами."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "Модель обладает лучшими возможностями в стране, превосходя зарубежные модели в задачах на знание, длинные тексты и генерацию контента. Также обладает передовыми мультимодальными возможностями и показывает отличные результаты в нескольких авторитетных тестах."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "Модель обладает лучшими в стране возможностями, превосходя зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и генерация контента. Также обладает передовыми мультимодальными возможностями и демонстрирует отличные результаты в нескольких авторитетных оценочных тестах."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "Модель обладает лучшими в стране возможностями, превосходя зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и генерация контента. Также обладает передовыми мультимодальными возможностями и демонстрирует отличные результаты в нескольких авторитетных оценочных тестах."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Флагманская крупномасштабная языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными возможностями, способная удовлетворить большинство требований к диалоговым ответам, генерации контента и сценариям использования плагинов; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, которая по сравнению с ERNIE 3.5 обеспечивает полное обновление возможностей модели и широко применяется в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Флагманская модель Baidu, разработанная самостоятельно, с огромным масштабом, демонстрирует отличные результаты и широко применяется в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах. По сравнению с ERNIE 4.0, демонстрирует лучшие результаты."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Флагманская 超大型 языковая модель, разработанная Baidu, демонстрирует отличные результаты и хорошо подходит для сложных задач в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая своевременность ответов. По сравнению с ERNIE 4.0 имеет лучшие показатели производительности."
|
52
75
|
},
|
@@ -146,7 +169,7 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 - это новая серия крупных языковых моделей, нацеленная на оптимизацию обработки задач с инструкциями."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
150
173
|
"description": "Qwen2.5-Coder сосредоточен на написании кода."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B — это открытая версия, обеспечивающая оптимизированный диалоговый опыт для приложений."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large — это крупнейшая в отрасли открытая модель Transformer архитектуры MoE с общим количеством параметров 389 миллиардов и 52 миллиарда активных параметров."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Ориентирован на производственные сценарии, поддерживает обработку сложных задач и эффективную генерацию текста, подходит для профессиональных приложений."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "GPT-4o mini — это последняя модель, выпущенная OpenAI после GPT-4 Omni, поддерживающая ввод изображений и текстов с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% на тесте MMLU и в настоящее время занимает более высокое место в предпочтениях чата по сравнению с GPT-4."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Обладает производительностью, сопоставимой с Grok 2, но с большей эффективностью, скоростью и функциональностью."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K оснащен огромной способностью обработки контекста, способной обрабатывать до 128K контекстной информации, что делает его особенно подходящим для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Модель кода Tongyi Qianwen."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "Модель кода Tongyi Qwen."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 7B."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "Открытая версия модели кода Tongyi
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "Открытая версия модели кода Tongyi Qianwen."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "Открытая версия модели кода Tongyi Qwen."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "Модель Qwen-Math с мощными способностями решения математических задач."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "Модель Qwen-Math с мощными способностями решения математических задач."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) подходит для детализированных командных задач, обеспечивая отличные возможности обработки языка."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock — это сервис, предоставляемый Amazon AWS, сосредоточенный на предоставлении предприятиям передовых AI-языковых и визуальных моделей. Его семейство моделей включает серию Claude от Anthropic, серию Llama 3.1 от Meta и другие, охватывающие широкий спектр от легковесных до высокопроизводительных решений, поддерживающих текстовую генерацию, диалоги, обработку изображений и другие задачи, подходящие для предприятий различного масштаба и потребностей."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek — это компания, сосредоточенная на исследованиях и применении технологий искусственного интеллекта, ее последняя модель DeepSeek-V2.5 объединяет возможности общего диалога и обработки кода, достигнув значительных улучшений в области согласования с человеческими предпочтениями, написания текстов и выполнения инструкций."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Корпоративная платформа для разработки и обслуживания крупных моделей и нативных приложений ИИ, предлагающая самый полный и удобный инструментарий для разработки генеративных моделей искусственного интеллекта и полного процесса разработки приложений."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI — это компания, занимающаяся разработкой искусственного интеллекта для ускорения научных открытий человечества. Наша миссия — способствовать общему пониманию Вселенной."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI сосредоточен на технологиях искусственного интеллекта 2.0, активно продвигая инновации и применение \"человек + искусственный интеллект\", используя мощные модели и передовые AI-технологии для повышения производительности человека и реализации технологического потенциала."
|
90
94
|
},
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra, Xinghuo büyük model serisinin en güçlü versiyonudur, çevrimiçi arama bağlantısını yükseltirken, metin içeriğini anlama ve özetleme yeteneğini artırır. Ofis verimliliğini artırmak ve taleplere doğru yanıt vermek için kapsamlı bir çözüm sunar, sektördeki akıllı ürünlerin öncüsüdür."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Nesil nesil, Meta Llama 3, geniş bir endüstri ölçütleri yelpazesinde en son performansı sergilemekte ve geliştirilmiş akıl yürütme gibi yeni yetenekler sunmaktadır."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Arama artırma teknolojisi kullanarak büyük model ile alan bilgisi ve tüm ağ bilgisi arasında kapsamlı bir bağlantı sağlar. PDF, Word gibi çeşitli belge yüklemelerini ve URL girişini destekler, bilgi edinimi zamanında ve kapsamlıdır, çıktı sonuçları doğru ve profesyoneldir."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "Model yetenekleri ülke içinde birinci sırada, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde yurtdışındaki önde gelen modelleri geride bırakmaktadır. Ayrıca, sektör lideri çok modlu yeteneklere sahiptir ve birçok yetkili değerlendirme kriterinde mükemmel performans göstermektedir."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Baidu'nun kendi geliştirdiği, büyük ölçekli bir dil modeli olan ERNIE-3.5, geniş bir Çin ve İngilizce veri kümesini kapsar. Güçlü genel yeteneklere sahip olup, çoğu diyalog, soru-cevap, yaratıcı içerik üretimi ve eklenti uygulama senaryolarını karşılayabilir; ayrıca, Baidu arama eklentisi ile otomatik entegrasyonu destekleyerek, soru-cevap bilgilerinin güncelliğini sağlar."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e kıyasla model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel olup, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a kıyasla performans açısından daha üstündür."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Baidu tarafından geliştirilen, geniş ölçekli büyük dil modeli, genel performansı mükemmeldir ve her alanda karmaşık görev sahneleri için geniş bir şekilde kullanılabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgi güncellemelerinin zamanlamasını güvence altına alır. ERNIE 4.0'a kıyasla, performans olarak daha üstündür."
|
52
75
|
},
|
@@ -146,8 +169,8 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5, komut tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
150
|
-
"description": "Qwen2.5-Coder, kod
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
173
|
+
"description": "Qwen2.5-Coder, kod yazımına odaklanmaktadır."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
153
176
|
"description": "Qwen2.5-Math, matematik alanındaki sorunları çözmeye odaklanır ve yüksek zorlukta sorulara profesyonel yanıtlar sunar."
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B açık kaynak versiyonu, diyalog uygulamaları için optimize edilmiş bir diyalog deneyimi sunar."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large, sektördeki en büyük açık kaynaklı Transformer mimarisi MoE modelidir ve toplam 389 milyar parametre ile 52 milyar etkin parametreye sahiptir."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Üretkenlik senaryoları için tasarlanmış, karmaşık görev işleme ve verimli metin üretimini destekler, profesyonel alan uygulamaları için uygundur."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra tanıttığı en yeni modeldir. Görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde yer almaktadır."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Grok 2 ile karşılaştırılabilir performansa sahip, ancak daha yüksek verimlilik, hız ve işlevsellik sunar."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B, birden fazla üst düzey modelin birleşimiyle yaratıcı ve zeka odaklı bir dil modelidir."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır ve 128K'ya kadar bağlam bilgilerini işleyebilir. Özellikle uzun metinlerin bütünsel analizi ve uzun vadeli mantıksal ilişkilerin işlenmesi gereken durumlar için uygundur ve karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunmaktadır."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Tongyi Qianwen kod modeli."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "Tongyi Qianwen kodlama modeli."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "Tongyi Qianwen 2.5, halka açık 7B ölçeğinde bir modeldir."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "Tongyi Qianwen
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "Tongyi Qianwen kod modeli açık kaynak versiyonu."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "Tongyi Qianwen kodlama modelinin açık kaynak versiyonu."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B), ince ayar gerektiren talimat görevleri için uygundur ve mükemmel dil işleme yetenekleri sunar."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u aşan performans sergilemekte; geniş değerlendirmelerde mükemmel sonuçlar verirken, orta seviye modellerimizin hız ve maliyetine sahiptir."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2, Microsoft AI tarafından sunulan bir dil modelidir, karmaşık diyaloglar, çok dilli, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock, Amazon AWS tarafından sunulan bir hizmettir ve işletmelere gelişmiş yapay zeka dil modelleri ve görsel modeller sağlamaya odaklanmaktadır. Model ailesi, Anthropic'in Claude serisi, Meta'nın Llama 3.1 serisi gibi seçenekleri içermekte olup, metin üretimi, diyalog, görüntü işleme gibi çeşitli görevleri desteklemektedir. Farklı ölçek ve ihtiyaçlara uygun kurumsal uygulamalar için geniş bir yelpaze sunmaktadır."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek, yapay zeka teknolojisi araştırma ve uygulamalarına odaklanan bir şirkettir. En son modeli DeepSeek-V2.5, genel diyalog ve kod işleme yeteneklerini birleştirerek, insan tercihleriyle uyum, yazma görevleri ve talimat takibi gibi alanlarda önemli iyileştirmeler sağlamaktadır."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Kurumsal düzeyde tek duraklı büyük model ve AI yerel uygulama geliştirme ve hizmet platformu, en kapsamlı ve kullanımı kolay üretken yapay zeka modeli geliştirme, uygulama geliştirme için tam süreç araç zinciri sunar."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI, insan bilimsel keşiflerini hızlandırmak için yapay zeka geliştirmeye adanmış bir şirkettir. Misyonumuz, evrene dair ortak anlayışımızı ilerletmektir."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI, yapay zeka 2.0 çağının yapay zeka teknolojisine odaklanmakta ve 'insan + yapay zeka' yenilik ve uygulamalarını teşvik etmektedir. Son derece güçlü modeller ve gelişmiş yapay zeka teknolojileri kullanarak insan üretkenliğini artırmayı ve teknolojik güçlendirmeyi hedeflemektedir."
|
90
94
|
},
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra là phiên bản mạnh mẽ nhất trong dòng mô hình lớn Xinghuo, nâng cao khả năng hiểu và tóm tắt nội dung văn bản trong khi nâng cấp liên kết tìm kiếm trực tuyến. Đây là giải pháp toàn diện nhằm nâng cao năng suất văn phòng và đáp ứng chính xác nhu cầu, là sản phẩm thông minh dẫn đầu ngành."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Sử dụng công nghệ tăng cường tìm kiếm để kết nối toàn diện giữa mô hình lớn và kiến thức lĩnh vực, kiến thức toàn cầu. Hỗ trợ tải lên nhiều loại tài liệu như PDF, Word và nhập URL, thông tin được thu thập kịp thời và toàn diện, kết quả đầu ra chính xác và chuyên nghiệp."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài, sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài và sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài và sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Mô hình ngôn ngữ quy mô lớn hàng đầu do Baidu tự phát triển, bao phủ một lượng lớn tài liệu tiếng Trung và tiếng Anh, có khả năng tổng quát mạnh mẽ, có thể đáp ứng hầu hết các yêu cầu về đối thoại, hỏi đáp, sáng tạo nội dung và các tình huống ứng dụng plugin; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp luôn được cập nhật kịp thời."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Mô hình ngôn ngữ quy mô siêu lớn hàng đầu do Baidu tự phát triển, so với ERNIE 3.5 đã nâng cấp toàn diện khả năng của mô hình, phù hợp rộng rãi với các nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp luôn cập nhật."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Mô hình ngôn ngữ lớn siêu cấp do Baidu tự phát triển, thể hiện hiệu suất xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Mô hình ngôn ngữ quy mô siêu lớn tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi cho các tình huống tác vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo tính kịp thời của thông tin câu hỏi đáp. So với ERNIE 4.0, nó có hiệu suất tốt hơn."
|
52
75
|
},
|
@@ -146,7 +169,7 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, được thiết kế để tối ưu hóa việc xử lý các tác vụ chỉ dẫn."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
150
173
|
"description": "Qwen2.5-Coder tập trung vào việc viết mã."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B là phiên bản mã nguồn mở, cung cấp trải nghiệm đối thoại tối ưu cho các ứng dụng hội thoại."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large là mô hình MoE kiến trúc Transformer mã nguồn mở lớn nhất trong ngành, với tổng số tham số là 3890 tỷ và 52 tỷ tham số kích hoạt."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Hướng đến các tình huống sản xuất, hỗ trợ xử lý nhiệm vụ phức tạp và sinh văn bản hiệu quả, phù hợp cho các ứng dụng trong lĩnh vực chuyên môn."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "GPT-4o mini là mô hình mới nhất do OpenAI phát hành sau GPT-4 Omni, hỗ trợ đầu vào hình ảnh và đầu ra văn bản. Là mô hình nhỏ gọn tiên tiến nhất của họ, nó rẻ hơn nhiều so với các mô hình tiên tiến gần đây khác và rẻ hơn hơn 60% so với GPT-3.5 Turbo. Nó giữ lại trí thông minh tiên tiến nhất trong khi có giá trị sử dụng đáng kể. GPT-4o mini đạt 82% điểm trong bài kiểm tra MMLU và hiện đứng cao hơn GPT-4 về sở thích trò chuyện."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Có hiệu suất tương đương với Grok 2, nhưng hiệu quả, tốc độ và tính năng cao hơn."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B là mô hình ngôn ngữ kết hợp giữa sáng tạo và trí thông minh, kết hợp nhiều mô hình hàng đầu."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K được cấu hình với khả năng xử lý ngữ cảnh cực lớn, có thể xử lý tới 128K thông tin ngữ cảnh, đặc biệt phù hợp cho việc phân tích toàn bộ và xử lý mối liên hệ logic lâu dài trong nội dung văn bản dài, có thể cung cấp logic mạch lạc và hỗ trợ trích dẫn đa dạng trong giao tiếp văn bản phức tạp."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Mô hình mã Qwen."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "Mô hình mã Qwen."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "Mô hình 7B quy mô mở nguồn của Qwen 2.5."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1004
1036
|
"description": "Phiên bản mã nguồn mở của mô hình mã Qwen."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "Phiên bản mã nguồn mở của mô hình mã Qwen."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "Mô hình Qwen-Math có khả năng giải quyết bài toán toán học mạnh mẽ."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "Mô hình Qwen-Math có khả năng giải quyết bài toán toán học mạnh mẽ."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) phù hợp cho các nhiệm vụ chỉ dẫn tinh vi, cung cấp khả năng xử lý ngôn ngữ xuất sắc."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet nâng cao tiêu chuẩn ngành, hiệu suất vượt trội so với các mô hình cạnh tranh và Claude 3 Opus, thể hiện xuất sắc trong nhiều đánh giá, đồng thời có tốc độ và chi phí tương đương với các mô hình tầm trung của chúng tôi."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 là mô hình ngôn ngữ do Microsoft AI cung cấp, đặc biệt xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock là dịch vụ do Amazon AWS cung cấp, tập trung vào việc cung cấp các mô hình ngôn ngữ AI và mô hình hình ảnh tiên tiến cho doanh nghiệp. Gia đình mô hình của nó bao gồm dòng Claude của Anthropic, dòng Llama 3.1 của Meta, v.v., bao quát nhiều lựa chọn từ nhẹ đến hiệu suất cao, hỗ trợ nhiều nhiệm vụ như tạo văn bản, đối thoại, xử lý hình ảnh, phù hợp cho các ứng dụng doanh nghiệp với quy mô và nhu cầu khác nhau."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek là một công ty tập trung vào nghiên cứu và ứng dụng công nghệ trí tuệ nhân tạo, mô hình mới nhất của họ, DeepSeek-V2.5, kết hợp khả năng đối thoại chung và xử lý mã, đồng thời đạt được sự cải thiện đáng kể trong việc căn chỉnh sở thích của con người, nhiệm vụ viết và tuân theo chỉ dẫn."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Nền tảng phát triển và dịch vụ ứng dụng AI gốc với mô hình lớn một cửa dành cho doanh nghiệp, cung cấp chuỗi công cụ toàn diện và dễ sử dụng cho phát triển mô hình trí tuệ nhân tạo sinh sinh và phát triển ứng dụng."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI là một công ty cam kết xây dựng trí tuệ nhân tạo để tăng tốc khám phá khoa học của nhân loại. Sứ mệnh của chúng tôi là thúc đẩy sự hiểu biết chung của chúng ta về vũ trụ."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI tập trung vào công nghệ trí tuệ nhân tạo trong kỷ nguyên AI 2.0, thúc đẩy mạnh mẽ sự đổi mới và ứng dụng của \"người + trí tuệ nhân tạo\", sử dụng các mô hình mạnh mẽ và công nghệ AI tiên tiến để nâng cao năng suất của con người và thực hiện sự trao quyền công nghệ."
|
90
94
|
},
|