@lobehub/chat 1.36.8 → 1.36.9

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (46) hide show
  1. package/CHANGELOG.md +33 -0
  2. package/changelog/v1.json +12 -0
  3. package/locales/ar/models.json +78 -0
  4. package/locales/ar/providers.json +3 -0
  5. package/locales/bg-BG/models.json +78 -0
  6. package/locales/bg-BG/providers.json +3 -0
  7. package/locales/de-DE/models.json +78 -0
  8. package/locales/de-DE/providers.json +3 -0
  9. package/locales/en-US/models.json +78 -0
  10. package/locales/en-US/providers.json +3 -0
  11. package/locales/es-ES/models.json +78 -0
  12. package/locales/es-ES/providers.json +3 -0
  13. package/locales/fa-IR/models.json +78 -0
  14. package/locales/fa-IR/providers.json +3 -0
  15. package/locales/fr-FR/models.json +78 -0
  16. package/locales/fr-FR/providers.json +3 -0
  17. package/locales/it-IT/models.json +78 -0
  18. package/locales/it-IT/providers.json +3 -0
  19. package/locales/ja-JP/models.json +78 -0
  20. package/locales/ja-JP/providers.json +3 -0
  21. package/locales/ko-KR/models.json +78 -0
  22. package/locales/ko-KR/providers.json +3 -0
  23. package/locales/nl-NL/models.json +78 -0
  24. package/locales/nl-NL/providers.json +3 -0
  25. package/locales/pl-PL/modelProvider.json +9 -9
  26. package/locales/pl-PL/models.json +78 -0
  27. package/locales/pl-PL/providers.json +3 -0
  28. package/locales/pt-BR/models.json +78 -0
  29. package/locales/pt-BR/providers.json +3 -0
  30. package/locales/ru-RU/models.json +78 -0
  31. package/locales/ru-RU/providers.json +3 -0
  32. package/locales/tr-TR/models.json +78 -0
  33. package/locales/tr-TR/providers.json +3 -0
  34. package/locales/vi-VN/models.json +78 -0
  35. package/locales/vi-VN/providers.json +3 -0
  36. package/locales/zh-CN/models.json +88 -10
  37. package/locales/zh-CN/providers.json +3 -0
  38. package/locales/zh-TW/models.json +78 -0
  39. package/locales/zh-TW/providers.json +3 -0
  40. package/package.json +1 -1
  41. package/src/app/(backend)/api/webhooks/clerk/route.ts +18 -3
  42. package/src/database/server/models/__tests__/nextauth.test.ts +33 -0
  43. package/src/libs/next-auth/adapter/index.ts +8 -2
  44. package/src/server/services/user/index.test.ts +200 -0
  45. package/src/server/services/user/index.ts +24 -32
  46. package/vitest.config.ts +1 -1
@@ -55,6 +55,24 @@
55
55
  "Baichuan4-Turbo": {
56
56
  "description": "Modelo com a melhor capacidade do país, superando modelos estrangeiros em tarefas em chinês como enciclopédia, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes da indústria, com excelente desempenho em várias avaliações de referência."
57
57
  },
58
+ "Doubao-lite-128k": {
59
+ "description": "Doubao-lite possui uma velocidade de resposta excepcional e uma melhor relação custo-benefício, oferecendo opções mais flexíveis para diferentes cenários dos clientes. Suporta raciocínio e ajuste fino em janelas de contexto de 128k."
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "Doubao-lite possui uma velocidade de resposta excepcional e uma melhor relação custo-benefício, oferecendo opções mais flexíveis para diferentes cenários dos clientes. Suporta raciocínio e ajuste fino em janelas de contexto de 32k."
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "Doubao-lite possui uma velocidade de resposta excepcional e uma melhor relação custo-benefício, oferecendo opções mais flexíveis para diferentes cenários dos clientes. Suporta raciocínio e ajuste fino em janelas de contexto de 4k."
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "O modelo principal com o melhor desempenho, adequado para tarefas complexas, apresentando excelentes resultados em cenários como perguntas e respostas, resumos, criação, classificação de texto e interpretação de papéis. Suporta raciocínio e ajuste fino em janelas de contexto de 128k."
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "O modelo principal com o melhor desempenho, adequado para tarefas complexas, apresentando excelentes resultados em cenários como perguntas e respostas, resumos, criação, classificação de texto e interpretação de papéis. Suporta raciocínio e ajuste fino em janelas de contexto de 32k."
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "O modelo principal com o melhor desempenho, adequado para tarefas complexas, apresentando excelentes resultados em cenários como perguntas e respostas, resumos, criação, classificação de texto e interpretação de papéis. Suporta raciocínio e ajuste fino em janelas de contexto de 4k."
75
+ },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas."
60
78
  },
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "Adequado para perguntas rápidas e cenários de ajuste fino do modelo."
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "Modelo de segunda geração Skylark, o modelo Skylark2-lite possui alta velocidade de resposta, adequado para cenários que exigem alta capacidade de resposta, sensíveis ao custo e com baixa exigência de precisão do modelo, com uma janela de contexto de 8k."
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "Modelo de segunda geração Skylark, a versão Skylark2-pro possui alta precisão, adequada para cenários de geração de texto mais complexos, como geração de textos em campos especializados, criação de romances e traduções de alta qualidade, com uma janela de contexto de 32k."
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "Modelo de segunda geração Skylark, o modelo Skylark2-pro possui alta precisão, adequado para cenários de geração de texto mais complexos, como geração de textos em campos especializados, criação de romances e traduções de alta qualidade, com uma janela de contexto de 4k."
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "Modelo de segunda geração Skylark, o modelo Skylark2-pro-character possui excelentes habilidades de interpretação de papéis e chat, especializado em interpretar diferentes papéis com base nas solicitações do usuário e engajar em conversas, apresentando um estilo de personagem distinto e um conteúdo de diálogo natural e fluído, adequado para construir chatbots, assistentes virtuais e atendimento ao cliente online, com alta velocidade de resposta."
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "Modelo de segunda geração Skylark, o Skylark2-pro-turbo-8k proporciona raciocínio mais rápido e menor custo, com uma janela de contexto de 8k."
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6B é um modelo de código aberto da série ChatGLM, desenvolvido pela Zhipu AI. Este modelo mantém as excelentes características da geração anterior, como fluência no diálogo e baixo custo de implantação, enquanto introduz novos recursos. Ele utiliza dados de treinamento mais variados, um número de passos de treinamento mais robusto e uma estratégia de treinamento mais razoável, destacando-se entre modelos pré-treinados abaixo de 10B. O ChatGLM3-6B suporta diálogos de múltiplas rodadas, chamadas de ferramentas, execução de código e tarefas de agente em cenários complexos. Além do modelo de diálogo, também foram lançados o modelo base ChatGLM-6B-Base e o modelo de diálogo de longo texto ChatGLM3-6B-32K. Este modelo está completamente aberto para pesquisa acadêmica e permite uso comercial gratuito após registro."
247
280
  },
@@ -476,6 +509,9 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "Command R+ é um modelo otimizado para RAG de última geração, projetado para lidar com cargas de trabalho de nível empresarial."
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
516
  "description": "Command R é um LLM otimizado para tarefas de diálogo e longos contextos, especialmente adequado para interações dinâmicas e gerenciamento de conhecimento."
481
517
  },
@@ -539,6 +575,9 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "O Gemini 1.5 Flash 8B 0924 é o mais recente modelo experimental, com melhorias significativas de desempenho em casos de uso de texto e multimídia."
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "Gemini 1.5 Flash 0827 oferece capacidade de processamento multimodal otimizada, adequada para diversos cenários de tarefas complexas."
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
582
  "description": "Gemini 1.5 Flash é o mais recente modelo de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para uma variedade de tarefas de expansão eficiente."
544
583
  },
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "O Gemini 1.5 Pro 002 é o mais recente modelo pronto para produção, oferecendo saídas de maior qualidade, com melhorias significativas em tarefas matemáticas, contextos longos e tarefas visuais."
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "Gemini 1.5 Pro 0801 oferece excelente capacidade de processamento multimodal, proporcionando maior flexibilidade para o desenvolvimento de aplicações."
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "Gemini 1.5 Pro 0827 combina as mais recentes técnicas de otimização, proporcionando uma capacidade de processamento de dados multimodal mais eficiente."
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Pro suporta até 2 milhões de tokens, sendo a escolha ideal para modelos multimodais de médio porte, adequados para suporte multifacetado em tarefas complexas."
553
598
  },
@@ -557,6 +602,9 @@
557
602
  "gemini-exp-1121": {
558
603
  "description": "Gemini Exp 1121 é o mais recente modelo experimental de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a escalabilidade eficiente em várias tarefas."
559
604
  },
605
+ "gemini-exp-1206": {
606
+ "description": "Gemini Exp 1206 é o mais recente modelo experimental multimodal da Google, apresentando uma melhoria na qualidade em comparação com versões anteriores."
607
+ },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7B é adequado para o processamento de tarefas de pequeno a médio porte, combinando custo e eficiência."
562
610
  },
@@ -647,6 +695,12 @@
647
695
  "gpt-3.5-turbo-instruct": {
648
696
  "description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125."
649
697
  },
698
+ "gpt-35-turbo": {
699
+ "description": "GPT 3.5 Turbo, um modelo eficiente fornecido pela OpenAI, adequado para tarefas de chat e geração de texto, suportando chamadas de função paralelas."
700
+ },
701
+ "gpt-35-turbo-16k": {
702
+ "description": "GPT 3.5 Turbo 16k, um modelo de geração de texto de alta capacidade, adequado para tarefas complexas."
703
+ },
650
704
  "gpt-4": {
651
705
  "description": "O GPT-4 oferece uma janela de contexto maior, capaz de lidar com entradas de texto mais longas, adequado para cenários que exigem integração ampla de informações e análise de dados."
652
706
  },
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atualizada. Combina uma poderosa compreensão e capacidade de geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "O GPT-4o mini é o mais recente modelo lançado pela OpenAI após o GPT-4 Omni, suportando entrada de texto e imagem e gerando texto como saída. Como seu modelo compacto mais avançado, ele é muito mais acessível do que outros modelos de ponta recentes, custando mais de 60% menos que o GPT-3.5 Turbo. Ele mantém uma inteligência de ponta, ao mesmo tempo que oferece um custo-benefício significativo. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "O mais recente modelo FunctionCall da arquitetura MOE Hunyuan, treinado com dados de alta qualidade de FunctionCall, com uma janela de contexto de 32K, liderando em várias métricas de avaliação."
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "Atualizado para uma estrutura MOE, com uma janela de contexto de 256k, liderando em várias avaliações em NLP, código, matemática e setores diversos em comparação com muitos modelos de código aberto."
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "O modelo de linguagem multilíngue Meta Llama 3.3 (LLM) é um modelo gerador pré-treinado e ajustado para instruções, com 70B (entrada/saída de texto). O modelo de texto puro ajustado para instruções do Llama 3.3 é otimizado para casos de uso de diálogo multilíngue e supera muitos modelos de chat open source e fechados disponíveis em benchmarks comuns da indústria."
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70B oferece capacidade de processamento incomparável para complexidade, projetado sob medida para projetos de alta demanda."
792
855
  },
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "O modelo de matemática Qwen é especificamente projetado para resolver problemas matemáticos."
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "Modelo de linguagem em larga escala com trilhões de parâmetros do Qwen, suportando entradas em diferentes idiomas, como português e inglês, atualmente a versão API por trás do produto Qwen 2.5."
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "O modelo de linguagem em larga escala Qwen Max, com trilhões de parâmetros, que suporta entradas em diferentes idiomas, incluindo chinês e inglês, e é o modelo de API por trás da versão do produto Qwen 2.5."
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "Versão aprimorada do modelo de linguagem em larga escala Qwen, que suporta entradas em diferentes idiomas, como português e inglês."
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "A versão aprimorada do modelo de linguagem em larga escala Qwen Plus, que suporta entradas em diferentes idiomas, incluindo chinês e inglês."
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "O modelo de linguagem em larga escala Qwen suporta entradas em diferentes idiomas, como português e inglês."
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "O modelo de linguagem em larga escala Qwen Turbo, que suporta entradas em diferentes idiomas, incluindo chinês e inglês."
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "Modelo de 7B parâmetros do Qwen 2.5, disponível como código aberto."
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "Versão open source do modelo de código do Qwen."
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "Versão open source do modelo de código Qwen."
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "Versão de código aberto do modelo de código Qwen."
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "O modelo Qwen-Math possui poderosas capacidades de resolução de problemas matemáticos."
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "O motor de inferência LPU da Groq se destacou em testes de benchmark independentes de modelos de linguagem de grande escala (LLM), redefinindo os padrões de soluções de IA com sua velocidade e eficiência impressionantes. A Groq representa uma velocidade de inferência em tempo real, demonstrando bom desempenho em implantações baseadas em nuvem."
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "A API de Inferência do HuggingFace oferece uma maneira rápida e gratuita de explorar milhares de modelos para diversas tarefas. Seja você um protótipo para um novo aplicativo ou tentando as funcionalidades de aprendizado de máquina, esta API permite acesso instantâneo a modelos de alto desempenho em múltiplas áreas."
39
42
  },
@@ -55,6 +55,24 @@
55
55
  "Baichuan4-Turbo": {
56
56
  "description": "Модель обладает лучшими в стране возможностями, превосходя зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и генерация контента. Также обладает передовыми мультимодальными возможностями и демонстрирует отличные результаты в нескольких авторитетных оценочных тестах."
57
57
  },
58
+ "Doubao-lite-128k": {
59
+ "description": "Doubao-lite обеспечивает выдающуюся скорость отклика и лучшее соотношение цены и качества, предлагая клиентам больше гибкости в различных сценариях. Поддерживает вывод и настройку с 128k контекстным окном."
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "Doubao-lite обеспечивает выдающуюся скорость отклика и лучшее соотношение цены и качества, предлагая клиентам больше гибкости в различных сценариях. Поддерживает вывод и настройку с 32k контекстным окном."
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "Doubao-lite обеспечивает выдающуюся скорость отклика и лучшее соотношение цены и качества, предлагая клиентам больше гибкости в различных сценариях. Поддерживает вывод и настройку с 4k контекстным окном."
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "Модель основных характеристик с лучшими показателями, подходит для обработки сложных задач. Хорошо справляется с задачами референсного ответа, резюмирования, творчества, классификации текста, ролевого взаимодействия и т.д. Поддерживает вывод и настройку с 128k контекстным окном."
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "Модель основных характеристик с лучшими показателями, подходит для обработки сложных задач. Хорошо справляется с задачами референсного ответа, резюмирования, творчества, классификации текста, ролевого взаимодействия и т.д. Поддерживает вывод и настройку с 32k контекстным окном."
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "Модель основных характеристик с лучшими показателями, подходит для обработки сложных задач. Хорошо справляется с задачами референсного ответа, резюмирования, творчества, классификации текста, ролевого взаимодействия и т.д. Поддерживает вывод и настройку с 4k контекстным окном."
75
+ },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "Флагманская крупномасштабная языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными возможностями, способная удовлетворить большинство требований к диалоговым ответам, генерации контента и сценариям использования плагинов; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
60
78
  },
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "Подходит для быстрого ответа на вопросы и сценариев тонкой настройки модели."
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "Модель второго поколения Skylark (云雀), модель Skylark2-lite имеет высокую скорость отклика, подходит для сценариев с высокими требованиями к оперативности, чувствительных к стоимости и с не такими высокими требованиями к точности модели. Длина контекстного окна составляет 8k."
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "Модель второго поколения Skylark (云雀), версия Skylark2-pro имеет высокую точность модели, подходит для более сложных сценариев генерации текста, таких как написание специализированной документации, создание романов, высококачественный перевод и т.д. Длина контекстного окна составляет 32k."
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "Модель второго поколения Skylark (云雀), модель Skylark2-pro имеет высокую точность, подходит для более сложных сценариев генерации текста, таких как специализированная документация, создание романов, высококачественный перевод и т.д. Длина контекстного окна составляет 4k."
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "Модель второго поколения Skylark (云雀), модель Skylark2-pro-character демонстрирует выдающиеся способности к ролевым взаимодействиям и чатам, умеет играть различные роли в зависимости от требований пользователя, что делает общение естественным и плавным. Подходит для разработки чат-ботов, виртуальных помощников и онлайн-сервисов с высокой скоростью отклика."
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "Модель второго поколения Skylark (云雀), модель Skylark2-pro-turbo-8k обеспечивает более быструю обработку и сниженные затраты, длина контекстного окна составляет 8k."
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6B — это открытая модель из серии ChatGLM, разработанная Zhizhu AI. Эта модель сохраняет отличные характеристики предыдущих моделей, такие как плавность диалога и низкий порог развертывания, одновременно вводя новые функции. Она использует более разнообразные обучающие данные, большее количество шагов обучения и более разумную стратегию обучения, показывая отличные результаты среди предобученных моделей объемом менее 10B. ChatGLM3-6B поддерживает многократные диалоги, вызовы инструментов, выполнение кода и задачи агента в сложных сценариях. Кроме диалоговой модели, также открыты базовая модель ChatGLM-6B-Base и модель для длинных текстовых диалогов ChatGLM3-6B-32K. Эта модель полностью открыта для академических исследований и также допускает бесплатное коммерческое использование после регистрации."
247
280
  },
@@ -476,6 +509,9 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "Command R+ — это модель, оптимизированная для RAG, предназначенная для решения задач корпоративного уровня."
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
516
  "description": "Command R — это LLM, оптимизированная для диалогов и задач с длинным контекстом, особенно подходит для динамического взаимодействия и управления знаниями."
481
517
  },
@@ -539,6 +575,9 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "Gemini 1.5 Flash 8B 0924 — это последняя экспериментальная модель, которая демонстрирует значительное улучшение производительности как в текстовых, так и в мультимодальных задачах."
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "Gemini 1.5 Flash 0827 предлагает оптимизированные многомодальные возможности обработки, подходящие для различных сложных задач."
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
582
  "description": "Gemini 1.5 Flash — это последняя многомодальная модель ИИ от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, графические и видео входы, что делает её эффективной для масштабирования различных задач."
544
583
  },
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "Gemini 1.5 Pro 002 — это последняя модель, готовая к производству, которая обеспечивает более высокое качество вывода, особенно в математических задачах, длинных контекстах и визуальных задачах."
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "Gemini 1.5 Pro 0801 предлагает выдающиеся многомодальные возможности обработки, обеспечивая большую гибкость в разработке приложений."
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "Gemini 1.5 Pro 0827 сочетает последние технологии оптимизации, обеспечивая более эффективную обработку многомодальных данных."
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Pro поддерживает до 2 миллионов токенов и является идеальным выбором для средних многомодальных моделей, обеспечивая многостороннюю поддержку для сложных задач."
553
598
  },
@@ -557,6 +602,9 @@
557
602
  "gemini-exp-1121": {
558
603
  "description": "Gemini Exp 1121 — это последняя экспериментальная многомодальная AI модель от Google, обладающая высокой скоростью обработки, поддерживающая текстовые, графические и видеовходы, что делает её эффективной для масштабирования различных задач."
559
604
  },
605
+ "gemini-exp-1206": {
606
+ "description": "Gemini Exp 1206 — это новейшая экспериментальная многомодальная AI модель от Google, которая продемонстрировала определенное улучшение качества по сравнению с предыдущими версиями."
607
+ },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность."
562
610
  },
@@ -647,6 +695,12 @@
647
695
  "gpt-3.5-turbo-instruct": {
648
696
  "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125."
649
697
  },
698
+ "gpt-35-turbo": {
699
+ "description": "GPT 3.5 Turbo — это эффективная модель от OpenAI, предназначенная для задач чата и генерации текста, поддерживающая параллельные вызовы функций."
700
+ },
701
+ "gpt-35-turbo-16k": {
702
+ "description": "GPT 3.5 Turbo 16k — модель для генерации текста с высокой ёмкостью, подходящая для сложных задач."
703
+ },
650
704
  "gpt-4": {
651
705
  "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных."
652
706
  },
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени для поддержания актуальной версии. Она сочетает в себе мощное понимание языка и генерацию текста, подходя для широкого спектра приложений, включая обслуживание клиентов, образование и техническую поддержку."
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "GPT-4o mini — это последняя модель, выпущенная OpenAI после GPT-4 Omni, поддерживающая ввод изображений и текстов с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% на тесте MMLU и в настоящее время занимает более высокое место в предпочтениях чата по сравнению с GPT-4."
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "Последняя модель Hunyuan с архитектурой MOE FunctionCall, обученная на высококачественных данных FunctionCall, с контекстным окном до 32K, занимает лидирующие позиции по множеству оценочных показателей."
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "Обновленная версия с MOE-структурой, контекстное окно составляет 256k, она опережает множество открытых моделей в оценках по NLP, коду, математике и другим областям."
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом."
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "Многоязычная большая языковая модель Meta Llama 3.3 (LLM) — это предобученная и откорректированная модель генерации на 70B (текстовый ввод/текстовый вывод). Откорректированная на чистом тексте модель Llama 3.3 оптимизирована для многоязычных диалоговых задач и превосходит многие доступные открытые и закрытые модели чата по общим промышленным стандартам."
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70B предлагает непревзойдённые возможности обработки сложности, специально разработанные для высоких требований проектов."
792
855
  },
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач."
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "Qwen-Max — это языковая модель масштаба триллиона, поддерживающая входные данные на различных языках, включая китайский и английский. В настоящее время это API, которое стоит за продуктовой версией Qwen 2.5."
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "Модель языка Tongyi Qwen с уровнем масштабирования в триллионы, поддерживающая ввод на различных языках, включая китайский и английский, является API моделью, лежащей в основе продукта Tongyi Qwen 2.5."
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "Улучшенная версия Qwen-Turbo, поддерживающая входные данные на разных языках, включая китайский и английский."
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "Улучшенная версия модели языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский."
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "Qwen-Turbo — это крупная языковая модель, поддерживающая входные данные на разных языках, включая китайский и английский."
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "Модель языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский."
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 7B."
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "Открытая версия модели кода Qwen."
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "Открытая версия модели кода Tongyi Qianwen."
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "Открытая версия модели кода Tongyi Qwen."
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "Модель Qwen-Math обладает выдающимися способностями к решению математических задач."
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "Модель Qwen-Math с мощными способностями решения математических задач."
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "Инженерный движок LPU от Groq показал выдающиеся результаты в последних независимых бенчмарках больших языковых моделей (LLM), переопределяя стандарты AI-решений благодаря своей удивительной скорости и эффективности. Groq представляет собой образец мгновенной скорости вывода, демонстрируя хорошие результаты в облачных развертываниях."
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "API для инференса HuggingFace предоставляет быстрый и бесплатный способ исследовать тысячи моделей для различных задач. Независимо от того, разрабатываете ли вы прототип для нового приложения или пробуете возможности машинного обучения, этот API обеспечивает мгновенный доступ к высокопроизводительным моделям в различных областях."
39
42
  },
@@ -55,6 +55,24 @@
55
55
  "Baichuan4-Turbo": {
56
56
  "description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
57
57
  },
58
+ "Doubao-lite-128k": {
59
+ "description": "Doubao-lite, mükemmel yanıt hızı ve daha iyi maliyet Performansı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 128k bağlam penceresi çıkarım ve ince ayar destekler."
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "Doubao-lite, mükemmel yanıt hızı ve daha iyi maliyet Performansı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 32k bağlam penceresi çıkarım ve ince ayar destekler."
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "Doubao-lite, mükemmel yanıt hızı ve daha iyi maliyet Performansı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 4k bağlam penceresi çıkarım ve ince ayar destekler."
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "En iyi performans gösteren ana model, karmaşık görevleri işlemek için uygundur; referanslı soru-cevap, özetleme, yaratım, metin sınıflandırma, rol yapma gibi senaryolar için iyi sonuçlar verir. 128k bağlam penceresi çıkarım ve ince ayar destekler."
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "En iyi performans gösteren ana model, karmaşık görevleri işlemek için uygundur; referanslı soru-cevap, özetleme, yaratım, metin sınıflandırma, rol yapma gibi senaryolar için iyi sonuçlar verir. 32k bağlam penceresi çıkarım ve ince ayar destekler."
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "En iyi performans gösteren ana model, karmaşık görevleri işlemek için uygundur; referanslı soru-cevap, özetleme, yaratım, metin sınıflandırma, rol yapma gibi senaryolar için iyi sonuçlar verir. 4k bağlam penceresi çıkarım ve ince ayar destekler."
75
+ },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "Baidu'nun kendi geliştirdiği, büyük ölçekli bir dil modeli olan ERNIE-3.5, geniş bir Çin ve İngilizce veri kümesini kapsar. Güçlü genel yeteneklere sahip olup, çoğu diyalog, soru-cevap, yaratıcı içerik üretimi ve eklenti uygulama senaryolarını karşılayabilir; ayrıca, Baidu arama eklentisi ile otomatik entegrasyonu destekleyerek, soru-cevap bilgilerinin güncelliğini sağlar."
60
78
  },
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "Hızlı soru-cevap ve model ince ayar senaryoları için uygundur."
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "Skylark'in (Bulut Şarkıcısı) ikinci nesil modeli, Skylark2-lite modeli yüksek yanıt hızı ile donatılmıştır; gerçek zamanlı talep gereksinimleri yüksek, maliyet duyarlı ve model hassasiyetine daha az ihtiyaç duyulan senaryolar için uygundur; bağlam pencere uzunluğu 8k'dır."
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "Skylark'in (Bulut Şarkıcısı) ikinci nesil modeli, Skylark2-pro sürümüyle yüksek model hassasiyetine sahiptir; profesyonel alan metin üretimi, roman yazımı, yüksek kaliteli çeviri gibi daha karmaşık metin üretim sahneleri için uygundur ve bağlam pencere uzunluğu 32k'dır."
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "Skylark'in (Bulut Şarkıcısı) ikinci nesil modeli, Skylark2-pro modeli yüksek model hassasiyetine sahiptir; profesyonel alan metin üretimi, roman yazımı, yüksek kaliteli çeviri gibi daha karmaşık metin üretim sahneleri için uygundur ve bağlam pencere uzunluğu 4k'dır."
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "Skylark'in (Bulut Şarkıcısı) ikinci nesil modeli, Skylark2-pro-character modeli, mükemmel rol yapma ve sohbet yeteneklerine sahiptir; kullanıcıdan gelen istem taleplerine göre farklı roller üstlenme kabiliyeti ile sohbet edebilir. Rol stili belirgindir ve diyalog içeriği doğal ve akıcıdır. Chatbot, sanal asistan ve çevrimiçi müşteri hizmetleri gibi senaryolar için uygundur ve yüksek yanıt hızı vardır."
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "Skylark'in (Bulut Şarkıcısı) ikinci nesil modeli, Skylark2-pro-turbo-8k ile daha hızlı çıkarım gerçekleştirir, maliyeti düşüktür ve bağlam pencere uzunluğu 8k'dır."
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6B, Zhipu AI tarafından geliştirilen ChatGLM serisinin açık kaynak modelidir. Bu model, önceki nesil modellerin mükemmel özelliklerini korurken, yeni özellikler de eklenmiştir. Daha çeşitli eğitim verileri, daha fazla eğitim adımı ve daha mantıklı eğitim stratejileri kullanarak, 10B altındaki önceden eğitilmiş modeller arasında mükemmel performans sergilemektedir. ChatGLM3-6B, çoklu diyalog, araç çağrısı, kod yürütme ve ajan görevleri gibi karmaşık senaryoları desteklemektedir. Diyalog modelinin yanı sıra, temel model ChatGLM-6B-Base ve uzun metin diyalog modeli ChatGLM3-6B-32K da açık kaynak olarak sunulmuştur. Bu model, akademik araştırmalara tamamen açıktır ve kayıt olduktan sonra ücretsiz ticari kullanımına da izin verilmektedir."
247
280
  },
@@ -476,6 +509,9 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "Command R+, kurumsal düzeyde iş yüklerini ele almak için tasarlanmış en son RAG optimize edilmiş bir modeldir."
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
516
  "description": "Command R, diyalog ve uzun bağlam görevleri için optimize edilmiş bir LLM'dir, dinamik etkileşim ve bilgi yönetimi için özellikle uygundur."
481
517
  },
@@ -539,6 +575,9 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "Gemini 1.5 Flash 8B 0924, metin ve çok modlu kullanım durumlarında önemli performans artışları sunan en son deneysel modeldir."
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "Gemini 1.5 Flash 0827, optimize edilmiş çok modlu işleme yetenekleri sunarak çeşitli karmaşık görev sahnelerine uygundur."
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
582
  "description": "Gemini 1.5 Flash, Google'ın en son çok modlu AI modelidir, hızlı işleme yeteneğine sahiptir ve metin, görüntü ve video girişi destekler, çeşitli görevlerin verimli bir şekilde genişletilmesine olanak tanır."
544
583
  },
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "Gemini 1.5 Pro 002, daha yüksek kaliteli çıktılar sunan en son üretim hazır modeldir; özellikle matematik, uzun bağlam ve görsel görevlerde önemli iyileştirmeler sağlamaktadır."
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "Gemini 1.5 Pro 0801, olağanüstü çok modlu işleme yetenekleri sunarak uygulama geliştirmeye daha fazla esneklik getirir."
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "Gemini 1.5 Pro 0827, en son optimize edilmiş teknolojilerle birleştirilmiş daha verimli çok modlu veri işleme yeteneği sunar."
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Pro, 2 milyon token'a kadar destekler, orta ölçekli çok modlu modeller için ideal bir seçimdir ve karmaşık görevler için çok yönlü destek sunar."
553
598
  },
@@ -557,6 +602,9 @@
557
602
  "gemini-exp-1121": {
558
603
  "description": "Gemini Exp 1121, Google'un en yeni deneysel çok modlu AI modelidir. Hızlı işlem yeteneğine sahip olup, metin, görüntü ve video girişi destekler ve çeşitli görevler için verimli bir şekilde ölçeklenebilir."
559
604
  },
605
+ "gemini-exp-1206": {
606
+ "description": "Gemini Exp 1206, Google'ın en son deneysel çok modlu AI modelidir ve önceki sürümlere kıyasla belirli bir kalite artırımı sağlar."
607
+ },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar."
562
610
  },
@@ -647,6 +695,12 @@
647
695
  "gpt-3.5-turbo-instruct": {
648
696
  "description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor."
649
697
  },
698
+ "gpt-35-turbo": {
699
+ "description": "GPT 3.5 Turbo, OpenAI tarafından sağlanan verimli bir modeldir ve sohbet ve metin üretim görevleri için uygundur, paralel fonksiyon çağrılarını destekler."
700
+ },
701
+ "gpt-35-turbo-16k": {
702
+ "description": "GPT 3.5 Turbo 16k, karmaşık görevler için uygun yüksek kapasiteli bir metin üretim modelidir."
703
+ },
650
704
  "gpt-4": {
651
705
  "description": "GPT-4, daha büyük bir bağlam penceresi sunarak daha uzun metin girişlerini işleyebilir, geniş bilgi entegrasyonu ve veri analizi gerektiren senaryolar için uygundur."
652
706
  },
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "ChatGPT-4o, güncel versiyonunu korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi geniş ölçekli uygulama senaryoları için uygundur."
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "ChatGPT-4o, güncel en son sürümü korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli uygulama senaryoları için güçlü dil anlama ve üretme yeteneklerini bir araya getirir."
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra tanıttığı en yeni modeldir. Görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde yer almaktadır."
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "Hunyuan'ın en son MOE mimarisi FunctionCall modeli, yüksek kaliteli FunctionCall verisi ile eğitilmiş olup, bağlam penceresi 32K'ya ulaşmıştır ve birçok boyutta değerlendirme göstergelerinde lider konumdadır."
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "MOE yapısına yükseltilmiş, bağlam penceresi 256k, NLP, kod, matematik, endüstri gibi birçok değerlendirme setinde birçok açık kaynak modelden önde."
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru-cevap gibi görevlerde mükemmel performans sergiler, dil üretimi ile görsel akıl yürütme arasındaki uçurumu aşar."
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "Meta Llama 3.3 çok dilli büyük dil modeli (LLM), 70B (metin girişi/metin çıkışı) içindeki önceden eğitilmiş ve talimat ayarlanmış bir üretim modelidir. Llama 3.3 talimat ayarlı saf metin modeli, çok dilli konuşma kullanım durumları için optimize edilmiştir ve yaygın endüstri kıyaslamalarında mevcut birçok açık kaynak ve kapalı sohbet modelinden daha üstündür."
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70B, eşsiz karmaşıklık işleme yeteneği sunar ve yüksek talepli projeler için özel olarak tasarlanmıştır."
792
855
  },
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış bir dil modelidir."
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "Tongyi Qianwen, 100 milyar seviyesinde büyük ölçekli bir dil modelidir ve Çince, İngilizce gibi farklı dil girişlerini destekler; şu anda Tongyi Qianwen 2.5 ürün sürümünün arkasındaki API modelidir."
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "Tongyi Qianwen, 100 milyar seviyesinde büyük bir dil modeli, Çince, İngilizce ve diğer dillerde girişleri destekler, şu anda Tongyi Qianwen 2.5 ürün versiyonunun arkasındaki API modelidir."
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "Tongyi Qianwen, Çince, İngilizce gibi farklı dil girişlerini destekleyen geliştirilmiş büyük ölçekli bir dil modelidir."
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "Tongyi Qianwen'in geliştirilmiş versiyonu, çok dilli girişleri destekler."
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "Tongyi Qianwen, Çince, İngilizce gibi farklı dil girişlerini destekleyen büyük ölçekli bir dil modelidir."
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "Tongyi Qianwen, çok dilli bir dil modeli, Çince, İngilizce ve diğer dillerde girişleri destekler."
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "Tongyi Qianwen 2.5, halka açık 7B ölçeğinde bir modeldir."
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "Tongyi Qianwen kodlama modelinin açık kaynak sürümüdür."
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "Tongyi Qianwen kod modeli açık kaynak versiyonu."
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "Tongyi Qianwen kodlama modelinin açık kaynak versiyonu."
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "Qwen-Math modeli, güçlü matematiksel problem çözme yeteneklerine sahiptir."
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "Groq'un LPU çıkarım motoru, en son bağımsız büyük dil modeli (LLM) benchmark testlerinde mükemmel performans sergilemekte ve olağanüstü hız ve verimliliği ile yapay zeka çözümlerinin standartlarını yeniden tanımlamaktadır. Groq, bulut tabanlı dağıtımlarda iyi bir performans sergileyen anlık çıkarım hızının temsilcisidir."
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "HuggingFace Inference API, binlerce modeli keşfetmenin hızlı ve ücretsiz bir yolunu sunar, çeşitli görevler için uygundur. Yeni uygulamalar için prototip oluşturuyor ya da makine öğreniminin yeteneklerini deniyorsanız, bu API size birçok alanda yüksek performanslı modellere anında erişim sağlar."
39
42
  },