@lobehub/chat 1.126.2 → 1.126.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +26 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/models.json +38 -11
- package/locales/bg-BG/models.json +38 -11
- package/locales/de-DE/models.json +38 -11
- package/locales/en-US/models.json +38 -11
- package/locales/es-ES/models.json +38 -11
- package/locales/fa-IR/models.json +38 -11
- package/locales/fr-FR/models.json +38 -11
- package/locales/it-IT/models.json +38 -11
- package/locales/ja-JP/models.json +38 -11
- package/locales/ko-KR/models.json +38 -11
- package/locales/nl-NL/models.json +38 -11
- package/locales/pl-PL/models.json +38 -11
- package/locales/pt-BR/models.json +38 -11
- package/locales/ru-RU/models.json +38 -11
- package/locales/tr-TR/models.json +38 -11
- package/locales/vi-VN/models.json +38 -11
- package/locales/zh-CN/models.json +38 -11
- package/locales/zh-TW/models.json +38 -11
- package/package.json +2 -2
- package/packages/model-bank/package.json +1 -0
- package/packages/model-bank/src/aiModels/cometapi.ts +349 -0
- package/packages/model-bank/src/aiModels/index.ts +3 -0
- package/packages/model-runtime/src/cometapi/index.ts +49 -0
- package/packages/model-runtime/src/index.ts +1 -0
- package/packages/model-runtime/src/runtimeMap.ts +2 -0
- package/packages/model-runtime/src/types/type.ts +1 -0
- package/packages/types/src/user/settings/keyVaults.ts +1 -0
- package/src/config/llm.ts +6 -0
- package/src/config/modelProviders/cometapi.ts +24 -0
- package/src/config/modelProviders/index.ts +3 -0
|
@@ -53,6 +53,9 @@
|
|
|
53
53
|
"Baichuan4-Turbo": {
|
|
54
54
|
"description": "Modelo com a melhor capacidade do país, superando modelos estrangeiros em tarefas em chinês como enciclopédia, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes da indústria, com excelente desempenho em várias avaliações de referência."
|
|
55
55
|
},
|
|
56
|
+
"ByteDance-Seed/Seed-OSS-36B-Instruct": {
|
|
57
|
+
"description": "Seed-OSS é uma série de grandes modelos de linguagem de código aberto desenvolvidos pela equipe Seed da ByteDance, projetados para processamento poderoso de contexto longo, raciocínio, agentes inteligentes e capacidades gerais. O Seed-OSS-36B-Instruct desta série é um modelo ajustado por instruções com 36 bilhões de parâmetros, que suporta nativamente comprimentos de contexto ultra longos, permitindo processar grandes volumes de documentos ou bases de código complexas de uma só vez. Este modelo é especialmente otimizado para tarefas de raciocínio, geração de código e agentes (como uso de ferramentas), mantendo um equilíbrio e desempenho geral excelentes. Uma característica marcante deste modelo é a função \"Orçamento de Pensamento\" (Thinking Budget), que permite aos usuários ajustar flexivelmente o comprimento do raciocínio conforme necessário, melhorando efetivamente a eficiência do raciocínio em aplicações práticas."
|
|
58
|
+
},
|
|
56
59
|
"DeepSeek-R1": {
|
|
57
60
|
"description": "LLM eficiente de ponta, especializado em raciocínio, matemática e programação."
|
|
58
61
|
},
|
|
@@ -81,7 +84,13 @@
|
|
|
81
84
|
"description": "Fornecedor do modelo: plataforma sophnet. DeepSeek V3 Fast é a versão de alta velocidade e alto TPS do DeepSeek V3 0324, totalmente não quantificada, com capacidades aprimoradas de código e matemática, respondendo de forma mais rápida!"
|
|
82
85
|
},
|
|
83
86
|
"DeepSeek-V3.1": {
|
|
84
|
-
"description": "DeepSeek-V3.1 é
|
|
87
|
+
"description": "DeepSeek-V3.1 - modo sem pensamento; DeepSeek-V3.1 é um novo modelo híbrido de raciocínio lançado pela DeepSeek, suportando dois modos de raciocínio: com e sem pensamento, com eficiência de pensamento superior ao DeepSeek-R1-0528. Otimizado pós-treinamento, o uso de ferramentas por agentes e o desempenho em tarefas de agentes foram significativamente aprimorados."
|
|
88
|
+
},
|
|
89
|
+
"DeepSeek-V3.1-Fast": {
|
|
90
|
+
"description": "DeepSeek V3.1 Fast é a versão de alta TPS e alta velocidade do DeepSeek V3.1. Modo híbrido de pensamento: através da alteração do template de chat, um único modelo pode suportar simultaneamente os modos com e sem pensamento. Chamadas de ferramentas mais inteligentes: com otimização pós-treinamento, o desempenho do modelo no uso de ferramentas e em tarefas de agentes foi significativamente melhorado."
|
|
91
|
+
},
|
|
92
|
+
"DeepSeek-V3.1-Think": {
|
|
93
|
+
"description": "DeepSeek-V3.1 - modo com pensamento; DeepSeek-V3.1 é um novo modelo híbrido de raciocínio lançado pela DeepSeek, suportando dois modos de raciocínio: com e sem pensamento, com eficiência de pensamento superior ao DeepSeek-R1-0528. Otimizado pós-treinamento, o uso de ferramentas por agentes e o desempenho em tarefas de agentes foram significativamente aprimorados."
|
|
85
94
|
},
|
|
86
95
|
"Doubao-lite-128k": {
|
|
87
96
|
"description": "Doubao-lite oferece velocidade de resposta extrema e melhor custo-benefício, proporcionando opções mais flexíveis para diferentes cenários dos clientes. Suporta inferência e fine-tuning com janela de contexto de 128k."
|
|
@@ -809,12 +818,6 @@
|
|
|
809
818
|
"command-r7b-12-2024": {
|
|
810
819
|
"description": "O command-r7b-12-2024 é uma versão compacta e eficiente, lançada em dezembro de 2024. Ele se destaca em tarefas que exigem raciocínio complexo e processamento em múltiplas etapas, como RAG, uso de ferramentas e agentes."
|
|
811
820
|
},
|
|
812
|
-
"compound-beta": {
|
|
813
|
-
"description": "Compound-beta é um sistema de IA composto, suportado por vários modelos abertos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder a consultas dos usuários."
|
|
814
|
-
},
|
|
815
|
-
"compound-beta-mini": {
|
|
816
|
-
"description": "Compound-beta-mini é um sistema de IA composto, suportado por modelos abertos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder a consultas dos usuários."
|
|
817
|
-
},
|
|
818
821
|
"computer-use-preview": {
|
|
819
822
|
"description": "O modelo computer-use-preview é um modelo dedicado projetado para \"ferramentas de uso de computador\", treinado para entender e executar tarefas relacionadas a computadores."
|
|
820
823
|
},
|
|
@@ -1055,6 +1058,9 @@
|
|
|
1055
1058
|
"doubao-seed-1.6-thinking": {
|
|
1056
1059
|
"description": "Doubao-Seed-1.6-thinking tem capacidade de pensamento significativamente reforçada, melhorando ainda mais habilidades básicas como codificação, matemática e raciocínio lógico em comparação com Doubao-1.5-thinking-pro, além de suportar compreensão visual. Suporta janela de contexto de 256k e saída de até 16k tokens."
|
|
1057
1060
|
},
|
|
1061
|
+
"doubao-seed-1.6-vision": {
|
|
1062
|
+
"description": "Doubao-Seed-1.6-vision é um modelo de pensamento profundo visual que demonstra capacidades multimodais gerais mais fortes em cenários como educação, revisão de imagens, inspeção e segurança, e busca e resposta por IA. Suporta janela de contexto de 256k e comprimento máximo de saída de até 64k tokens."
|
|
1063
|
+
},
|
|
1058
1064
|
"doubao-seedream-3-0-t2i-250415": {
|
|
1059
1065
|
"description": "O modelo de geração de imagens Doubao foi desenvolvido pela equipe Seed da ByteDance, suportando entrada de texto e imagem, oferecendo uma experiência de geração de imagens altamente controlável e de alta qualidade. Gera imagens baseadas em prompts textuais."
|
|
1060
1066
|
},
|
|
@@ -1400,9 +1406,6 @@
|
|
|
1400
1406
|
"google/gemini-2.5-flash-image-preview": {
|
|
1401
1407
|
"description": "Modelo experimental Gemini 2.5 Flash, com suporte para geração de imagens."
|
|
1402
1408
|
},
|
|
1403
|
-
"google/gemini-2.5-flash-image-preview:free": {
|
|
1404
|
-
"description": "Modelo experimental Gemini 2.5 Flash, com suporte para geração de imagens."
|
|
1405
|
-
},
|
|
1406
1409
|
"google/gemini-2.5-flash-preview": {
|
|
1407
1410
|
"description": "O Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, codificação, matemática e tarefas científicas. Ele possui a capacidade de 'pensar' embutida, permitindo que forneça respostas com maior precisão e um tratamento de contexto mais detalhado.\n\nNota: Este modelo possui duas variantes: com e sem 'pensamento'. A precificação da saída varia significativamente dependendo da ativação da capacidade de pensamento. Se você escolher a variante padrão (sem o sufixo ':thinking'), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara aproveitar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante ':thinking', que resultará em uma precificação de saída de pensamento mais alta.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro 'número máximo de tokens para raciocínio', conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1408
1411
|
},
|
|
@@ -1442,6 +1445,9 @@
|
|
|
1442
1445
|
"google/gemma-2b-it": {
|
|
1443
1446
|
"description": "Gemma Instruct (2B) oferece capacidade básica de processamento de instruções, adequada para aplicações leves."
|
|
1444
1447
|
},
|
|
1448
|
+
"google/gemma-3-12b-it": {
|
|
1449
|
+
"description": "Gemma 3 12B é um modelo de linguagem open source do Google que estabelece novos padrões em eficiência e desempenho."
|
|
1450
|
+
},
|
|
1445
1451
|
"google/gemma-3-1b-it": {
|
|
1446
1452
|
"description": "Gemma 3 1B é um modelo de linguagem de código aberto do Google que estabelece novos padrões em eficiência e desempenho."
|
|
1447
1453
|
},
|
|
@@ -1607,6 +1613,12 @@
|
|
|
1607
1613
|
"grok-code-fast-1": {
|
|
1608
1614
|
"description": "Temos o prazer de apresentar o grok-code-fast-1, um modelo de inferência rápido e econômico, que se destaca na codificação de agentes."
|
|
1609
1615
|
},
|
|
1616
|
+
"groq/compound": {
|
|
1617
|
+
"description": "Compound é um sistema de IA composto, suportado por vários modelos abertos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder às consultas dos usuários."
|
|
1618
|
+
},
|
|
1619
|
+
"groq/compound-mini": {
|
|
1620
|
+
"description": "Compound-mini é um sistema de IA composto, suportado por modelos públicos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder às consultas dos usuários."
|
|
1621
|
+
},
|
|
1610
1622
|
"gryphe/mythomax-l2-13b": {
|
|
1611
1623
|
"description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta."
|
|
1612
1624
|
},
|
|
@@ -1662,7 +1674,7 @@
|
|
|
1662
1674
|
"description": "Melhora significativa em matemática avançada, lógica e habilidades de codificação, otimiza a estabilidade da saída do modelo e aprimora a capacidade de lidar com textos longos."
|
|
1663
1675
|
},
|
|
1664
1676
|
"hunyuan-t1-latest": {
|
|
1665
|
-
"description": "
|
|
1677
|
+
"description": "Melhora significativamente as capacidades do modelo principal de pensamento lento em matemática avançada, raciocínio complexo, código difícil, conformidade com instruções e qualidade de criação de texto."
|
|
1666
1678
|
},
|
|
1667
1679
|
"hunyuan-t1-vision": {
|
|
1668
1680
|
"description": "Modelo de pensamento profundo multimodal Hunyuan, suporta cadeias de pensamento nativas multimodais de longo alcance, excelente em diversos cenários de raciocínio com imagens, com melhorias significativas em problemas científicos em comparação com modelos de pensamento rápido."
|
|
@@ -1766,6 +1778,9 @@
|
|
|
1766
1778
|
"kimi-k2-0711-preview": {
|
|
1767
1779
|
"description": "kimi-k2 é um modelo base com arquitetura MoE, com capacidades excepcionais em código e agentes, totalizando 1T de parâmetros e 32B de parâmetros ativados. Nos principais benchmarks de raciocínio de conhecimento geral, programação, matemática e agentes, o modelo K2 supera outros modelos open source populares."
|
|
1768
1780
|
},
|
|
1781
|
+
"kimi-k2-0905-preview": {
|
|
1782
|
+
"description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
|
|
1783
|
+
},
|
|
1769
1784
|
"kimi-k2-turbo-preview": {
|
|
1770
1785
|
"description": "kimi-k2 é um modelo base com arquitetura MoE que oferece capacidades avançadas para programação e agentes, com 1T de parâmetros totais e 32B de parâmetros ativados. Em testes de benchmark nas principais categorias — raciocínio de conhecimento geral, programação, matemática e agentes — o desempenho do modelo K2 supera outros modelos de código aberto mais populares."
|
|
1771
1786
|
},
|
|
@@ -2165,9 +2180,18 @@
|
|
|
2165
2180
|
"moonshotai/Kimi-K2-Instruct": {
|
|
2166
2181
|
"description": "Kimi K2 é um modelo base com arquitetura MoE e capacidades avançadas de código e agente, com 1 trilhão de parâmetros totais e 32 bilhões ativados. Em testes de desempenho em raciocínio geral, programação, matemática e agentes, o modelo K2 supera outros modelos open source populares."
|
|
2167
2182
|
},
|
|
2183
|
+
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2184
|
+
"description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
|
|
2185
|
+
},
|
|
2186
|
+
"moonshotai/kimi-k2-0905": {
|
|
2187
|
+
"description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
|
|
2188
|
+
},
|
|
2168
2189
|
"moonshotai/kimi-k2-instruct": {
|
|
2169
2190
|
"description": "kimi-k2 é um modelo base com arquitetura MoE que possui capacidades avançadas de código e agente, com um total de 1 trilhão de parâmetros e 32 bilhões de parâmetros ativados. Nos testes de desempenho de referência em categorias principais como raciocínio de conhecimento geral, programação, matemática e agentes, o modelo K2 supera outros modelos open source populares."
|
|
2170
2191
|
},
|
|
2192
|
+
"moonshotai/kimi-k2-instruct-0905": {
|
|
2193
|
+
"description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
|
|
2194
|
+
},
|
|
2171
2195
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
|
2172
2196
|
"description": "Hermes 2 Pro Llama 3 8B é uma versão aprimorada do Nous Hermes 2, contendo os conjuntos de dados mais recentes desenvolvidos internamente."
|
|
2173
2197
|
},
|
|
@@ -2549,6 +2573,9 @@
|
|
|
2549
2573
|
"qwen3-coder-plus": {
|
|
2550
2574
|
"description": "Modelo de código Tongyi Qianwen. A mais recente série de modelos Qwen3-Coder é baseada no Qwen3 para geração de código, com forte capacidade de agente de codificação, especializada em chamadas de ferramentas e interação com o ambiente, capaz de programação autônoma, combinando excelente habilidade de codificação com capacidades gerais."
|
|
2551
2575
|
},
|
|
2576
|
+
"qwen3-max-preview": {
|
|
2577
|
+
"description": "Versão Preview do modelo Max da série Qwen 3, com melhorias significativas em relação à série 2.5 em capacidades gerais, compreensão de texto em chinês e inglês, conformidade com instruções complexas, tarefas subjetivas abertas, multilinguismo e chamadas de ferramentas; o modelo apresenta menos alucinações de conhecimento."
|
|
2578
|
+
},
|
|
2552
2579
|
"qwq": {
|
|
2553
2580
|
"description": "QwQ é um modelo de pesquisa experimental, focado em melhorar a capacidade de raciocínio da IA."
|
|
2554
2581
|
},
|
|
@@ -53,6 +53,9 @@
|
|
|
53
53
|
"Baichuan4-Turbo": {
|
|
54
54
|
"description": "Модель обладает лучшими в стране возможностями, превосходя зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и генерация контента. Также обладает передовыми мультимодальными возможностями и демонстрирует отличные результаты в нескольких авторитетных оценочных тестах."
|
|
55
55
|
},
|
|
56
|
+
"ByteDance-Seed/Seed-OSS-36B-Instruct": {
|
|
57
|
+
"description": "Seed-OSS — это серия открытых крупных языковых моделей, разработанных командой Seed компании ByteDance, специально созданных для мощной обработки длинных контекстов, рассуждений, агентов и универсальных возможностей. Модель Seed-OSS-36B-Instruct из этой серии имеет 36 миллиардов параметров и является моделью с донастройкой по инструкциям, изначально поддерживающей сверхдлинные контексты, что позволяет ей обрабатывать огромные документы или сложные кодовые базы за один раз. Эта модель специально оптимизирована для рассуждений, генерации кода и задач агентов (например, использования инструментов), при этом сохраняя сбалансированные и выдающиеся универсальные способности. Одной из ключевых особенностей модели является функция «Бюджет размышлений» (Thinking Budget), позволяющая пользователям гибко регулировать длину рассуждений по необходимости, что эффективно повышает производительность в реальных приложениях."
|
|
58
|
+
},
|
|
56
59
|
"DeepSeek-R1": {
|
|
57
60
|
"description": "Современная эффективная LLM, специализирующаяся на логическом выводе, математике и программировании."
|
|
58
61
|
},
|
|
@@ -81,7 +84,13 @@
|
|
|
81
84
|
"description": "Поставщик модели: платформа sophnet. DeepSeek V3 Fast — это высокоскоростная версия DeepSeek V3 0324 с высокой пропускной способностью (TPS), полностью не квантизированная, с улучшенными возможностями кода и математики, обеспечивающая более быструю реакцию!"
|
|
82
85
|
},
|
|
83
86
|
"DeepSeek-V3.1": {
|
|
84
|
-
"description": "DeepSeek-V3.1 —
|
|
87
|
+
"description": "DeepSeek-V3.1 — режим без размышлений; DeepSeek-V3.1 — новая гибридная модель рассуждений от DeepSeek, поддерживающая два режима: с размышлениями и без. По сравнению с DeepSeek-R1-0528, эффективность размышлений выше. После посттренировки значительно улучшены использование инструментов агентом и выполнение задач агентов."
|
|
88
|
+
},
|
|
89
|
+
"DeepSeek-V3.1-Fast": {
|
|
90
|
+
"description": "DeepSeek V3.1 Fast — высокопроизводительная версия DeepSeek V3.1 с высокой пропускной способностью (TPS). Гибридный режим размышлений: с изменением шаблона чата одна модель может одновременно поддерживать режимы с размышлениями и без. Более интеллектуальный вызов инструментов: благодаря посттренировке значительно улучшена работа модели с инструментами и выполнение агентских задач."
|
|
91
|
+
},
|
|
92
|
+
"DeepSeek-V3.1-Think": {
|
|
93
|
+
"description": "DeepSeek-V3.1 — режим с размышлениями; DeepSeek-V3.1 — новая гибридная модель рассуждений от DeepSeek, поддерживающая два режима: с размышлениями и без. По сравнению с DeepSeek-R1-0528, эффективность размышлений выше. После посттренировки значительно улучшены использование инструментов агентом и выполнение задач агентов."
|
|
85
94
|
},
|
|
86
95
|
"Doubao-lite-128k": {
|
|
87
96
|
"description": "Doubao-lite обладает исключительной скоростью отклика и лучшим соотношением цена-качество, предоставляя клиентам более гибкие варианты для различных сценариев. Поддерживает вывод и дообучение с контекстным окном в 128k."
|
|
@@ -809,12 +818,6 @@
|
|
|
809
818
|
"command-r7b-12-2024": {
|
|
810
819
|
"description": "command-r7b-12-2024 — это компактная и эффективная обновленная версия, выпущенная в декабре 2024 года. Она демонстрирует отличные результаты в задачах, требующих сложного рассуждения и многократной обработки, таких как RAG, использование инструментов и агентирование."
|
|
811
820
|
},
|
|
812
|
-
"compound-beta": {
|
|
813
|
-
"description": "Compound-beta — это комплексная AI-система, поддерживаемая несколькими открытыми доступными моделями в GroqCloud, которая может интеллектуально и выборочно использовать инструменты для ответа на запросы пользователей."
|
|
814
|
-
},
|
|
815
|
-
"compound-beta-mini": {
|
|
816
|
-
"description": "Compound-beta-mini — это комплексная AI-система, поддерживаемая открытыми доступными моделями в GroqCloud, которая может интеллектуально и выборочно использовать инструменты для ответа на запросы пользователей."
|
|
817
|
-
},
|
|
818
821
|
"computer-use-preview": {
|
|
819
822
|
"description": "Модель computer-use-preview специально разработана для «инструментов использования компьютера» и обучена понимать и выполнять задачи, связанные с компьютером."
|
|
820
823
|
},
|
|
@@ -1055,6 +1058,9 @@
|
|
|
1055
1058
|
"doubao-seed-1.6-thinking": {
|
|
1056
1059
|
"description": "Модель Doubao-Seed-1.6-thinking значительно улучшена в плане мышления, по сравнению с Doubao-1.5-thinking-pro дополнительно повышены базовые способности в программировании, математике и логическом рассуждении, поддерживается визуальное понимание. Поддерживает контекстное окно 256k и максимальную длину вывода до 16k токенов."
|
|
1057
1060
|
},
|
|
1061
|
+
"doubao-seed-1.6-vision": {
|
|
1062
|
+
"description": "Doubao-Seed-1.6-vision — модель глубокого визуального размышления, демонстрирующая более сильные универсальные мультимодальные способности понимания и рассуждения в таких сценариях, как образование, проверка изображений, инспекции и безопасность, а также AI-поиск и ответы на вопросы. Поддерживает окно контекста до 256k и максимальную длину вывода до 64k токенов."
|
|
1063
|
+
},
|
|
1058
1064
|
"doubao-seedream-3-0-t2i-250415": {
|
|
1059
1065
|
"description": "Модель генерации изображений Doubao разработана командой Seed компании ByteDance, поддерживает ввод текста и изображений, обеспечивая высококонтролируемый и качественный опыт генерации изображений на основе текстовых подсказок."
|
|
1060
1066
|
},
|
|
@@ -1400,9 +1406,6 @@
|
|
|
1400
1406
|
"google/gemini-2.5-flash-image-preview": {
|
|
1401
1407
|
"description": "Экспериментальная модель Gemini 2.5 Flash, поддерживающая генерацию изображений."
|
|
1402
1408
|
},
|
|
1403
|
-
"google/gemini-2.5-flash-image-preview:free": {
|
|
1404
|
-
"description": "Экспериментальная модель Gemini 2.5 Flash, поддерживающая генерацию изображений."
|
|
1405
|
-
},
|
|
1406
1409
|
"google/gemini-2.5-flash-preview": {
|
|
1407
1410
|
"description": "Gemini 2.5 Flash — это самая современная основная модель от Google, разработанная для сложного рассуждения, кодирования, математических и научных задач. Она включает встроенную способность \"думать\", что позволяет ей давать ответы с более высокой точностью и детализированной обработкой контекста.\n\nОбратите внимание: эта модель имеет два варианта: с \"думанием\" и без. Цены на вывод значительно различаются в зависимости от того, активирована ли способность думать. Если вы выберете стандартный вариант (без суффикса \":thinking\"), модель явно избегает генерации токенов для размышлений.\n\nЧтобы воспользоваться способностью думать и получать токены для размышлений, вы должны выбрать вариант \":thinking\", что приведет к более высокой цене на вывод размышлений.\n\nКроме того, Gemini 2.5 Flash можно настроить с помощью параметра \"максимальное количество токенов для рассуждения\", как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1408
1411
|
},
|
|
@@ -1442,6 +1445,9 @@
|
|
|
1442
1445
|
"google/gemma-2b-it": {
|
|
1443
1446
|
"description": "Gemma Instruct (2B) предлагает базовые возможности обработки команд, подходящие для легковесных приложений."
|
|
1444
1447
|
},
|
|
1448
|
+
"google/gemma-3-12b-it": {
|
|
1449
|
+
"description": "Gemma 3 12B — открытая языковая модель от Google, установившая новые стандарты эффективности и производительности."
|
|
1450
|
+
},
|
|
1445
1451
|
"google/gemma-3-1b-it": {
|
|
1446
1452
|
"description": "Gemma 3 1B — это открытая языковая модель от Google, установившая новые стандарты в эффективности и производительности."
|
|
1447
1453
|
},
|
|
@@ -1607,6 +1613,12 @@
|
|
|
1607
1613
|
"grok-code-fast-1": {
|
|
1608
1614
|
"description": "Мы рады представить grok-code-fast-1 — быстрый и экономичный модель вывода, которая отлично справляется с кодированием агентов."
|
|
1609
1615
|
},
|
|
1616
|
+
"groq/compound": {
|
|
1617
|
+
"description": "Compound — это комплексная AI-система, поддерживаемая несколькими открытыми моделями, уже доступными в GroqCloud, которая интеллектуально и выборочно использует инструменты для ответа на запросы пользователей."
|
|
1618
|
+
},
|
|
1619
|
+
"groq/compound-mini": {
|
|
1620
|
+
"description": "Compound-mini — это комплексная AI-система, поддерживаемая открытыми моделями, уже доступными в GroqCloud, которая интеллектуально и выборочно использует инструменты для ответа на запросы пользователей."
|
|
1621
|
+
},
|
|
1610
1622
|
"gryphe/mythomax-l2-13b": {
|
|
1611
1623
|
"description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях."
|
|
1612
1624
|
},
|
|
@@ -1662,7 +1674,7 @@
|
|
|
1662
1674
|
"description": "Значительное улучшение способностей в сложной математике, логике и программировании, оптимизация стабильности вывода модели и повышение возможностей работы с длинными текстами."
|
|
1663
1675
|
},
|
|
1664
1676
|
"hunyuan-t1-latest": {
|
|
1665
|
-
"description": "
|
|
1677
|
+
"description": "Значительно улучшает способности основной модели медленного размышления в сложной математике, сложных рассуждениях, сложном кодировании, следовании инструкциям и качестве текстового творчества."
|
|
1666
1678
|
},
|
|
1667
1679
|
"hunyuan-t1-vision": {
|
|
1668
1680
|
"description": "Глубокая мультимодальная модель понимания Hunyuan с нативной цепочкой размышлений для мультимодальных данных, отлично справляется с различными задачами рассуждения на изображениях, значительно превосходя модели быстрого мышления в решении научных задач."
|
|
@@ -1766,6 +1778,9 @@
|
|
|
1766
1778
|
"kimi-k2-0711-preview": {
|
|
1767
1779
|
"description": "kimi-k2 — базовая модель с архитектурой MoE, обладающая мощными возможностями кода и агента, с общим числом параметров 1 триллион и 32 миллиарда активных параметров. В тестах производительности по основным категориям, таким как универсальное знание, программирование, математика и агенты, модель K2 превосходит другие ведущие открытые модели."
|
|
1768
1780
|
},
|
|
1781
|
+
"kimi-k2-0905-preview": {
|
|
1782
|
+
"description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
|
|
1783
|
+
},
|
|
1769
1784
|
"kimi-k2-turbo-preview": {
|
|
1770
1785
|
"description": "kimi-k2 — это базовая модель архитектуры MoE с выдающимися возможностями в области программирования и агентов. Общий объём параметров — 1 трлн, активируемые параметры — 32 млрд. В бенчмарках по основным категориям (общее знание и рассуждение, программирование, математика, агенты и пр.) модель K2 демонстрирует результаты выше, чем у других ведущих открытых моделей."
|
|
1771
1786
|
},
|
|
@@ -2165,9 +2180,18 @@
|
|
|
2165
2180
|
"moonshotai/Kimi-K2-Instruct": {
|
|
2166
2181
|
"description": "Kimi K2 — базовая модель на архитектуре MoE с выдающимися возможностями в кодировании и агентских задачах, с общим числом параметров 1 триллион и 32 миллиардами активируемых параметров. В тестах на универсальное знание, программирование, математику и агентские задачи производительность модели K2 превосходит другие ведущие открытые модели."
|
|
2167
2182
|
},
|
|
2183
|
+
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2184
|
+
"description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
|
|
2185
|
+
},
|
|
2186
|
+
"moonshotai/kimi-k2-0905": {
|
|
2187
|
+
"description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
|
|
2188
|
+
},
|
|
2168
2189
|
"moonshotai/kimi-k2-instruct": {
|
|
2169
2190
|
"description": "kimi-k2 — базовая модель на архитектуре MoE с мощными возможностями кода и агента, общий объем параметров 1 триллион, активные параметры 32 миллиарда. В тестах производительности по основным категориям, таким как общие знания, программирование, математика и агенты, модель K2 превосходит другие популярные открытые модели."
|
|
2170
2191
|
},
|
|
2192
|
+
"moonshotai/kimi-k2-instruct-0905": {
|
|
2193
|
+
"description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
|
|
2194
|
+
},
|
|
2171
2195
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
|
2172
2196
|
"description": "Hermes 2 Pro Llama 3 8B — это обновленная версия Nous Hermes 2, содержащая последние внутренние разработанные наборы данных."
|
|
2173
2197
|
},
|
|
@@ -2549,6 +2573,9 @@
|
|
|
2549
2573
|
"qwen3-coder-plus": {
|
|
2550
2574
|
"description": "Модель кода Tongyi Qianwen. Последняя серия моделей Qwen3-Coder основана на Qwen3 и представляет собой модель генерации кода с мощными возможностями Coding Agent, отлично справляющуюся с вызовом инструментов и взаимодействием с окружением, способную к автономному программированию, обладающую выдающимися кодировочными и универсальными способностями."
|
|
2551
2575
|
},
|
|
2576
|
+
"qwen3-max-preview": {
|
|
2577
|
+
"description": "Предварительная версия модели серии Qwen 3 Max, которая значительно превосходит серию 2.5 по универсальным возможностям, включая понимание текста на китайском и английском языках, выполнение сложных инструкций, способности к субъективным открытым задачам, многоязычность и вызов инструментов; модель демонстрирует меньше искажений знаний."
|
|
2578
|
+
},
|
|
2552
2579
|
"qwq": {
|
|
2553
2580
|
"description": "QwQ — это экспериментальная исследовательская модель, сосредоточенная на повышении возможностей вывода ИИ."
|
|
2554
2581
|
},
|
|
@@ -53,6 +53,9 @@
|
|
|
53
53
|
"Baichuan4-Turbo": {
|
|
54
54
|
"description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
|
|
55
55
|
},
|
|
56
|
+
"ByteDance-Seed/Seed-OSS-36B-Instruct": {
|
|
57
|
+
"description": "Seed-OSS, ByteDance Seed ekibi tarafından geliştirilen, güçlü uzun bağlam işleme, akıl yürütme, ajan (agent) ve genel yetenekler için tasarlanmış bir dizi açık kaynaklı büyük dil modelidir. Bu serideki Seed-OSS-36B-Instruct, 36 milyar parametreye sahip bir talimat ince ayar modelidir ve doğal olarak çok uzun bağlam uzunluğunu destekleyerek, büyük belgeleri veya karmaşık kod tabanlarını tek seferde işleyebilmesini sağlar. Model, akıl yürütme, kod üretimi ve araç kullanımı gibi ajan görevlerinde özel olarak optimize edilmiştir ve dengeli, üstün genel yetenekler sunar. Modelin önemli bir özelliği olan “Düşünme Bütçesi” fonksiyonu, kullanıcıların ihtiyaçlarına göre akıl yürütme uzunluğunu esnek şekilde ayarlamasına olanak tanır ve böylece gerçek uygulamalarda akıl yürütme verimliliğini artırır."
|
|
58
|
+
},
|
|
56
59
|
"DeepSeek-R1": {
|
|
57
60
|
"description": "En gelişmiş verimli LLM, akıl yürütme, matematik ve programlama konularında uzmandır."
|
|
58
61
|
},
|
|
@@ -81,7 +84,13 @@
|
|
|
81
84
|
"description": "Model sağlayıcısı: sophnet platformu. DeepSeek V3 Fast, DeepSeek V3 0324 sürümünün yüksek TPS hızlı versiyonudur, tam performanslı ve kuantize edilmemiştir, kodlama ve matematik yetenekleri daha güçlüdür, yanıt süresi daha hızlıdır!"
|
|
82
85
|
},
|
|
83
86
|
"DeepSeek-V3.1": {
|
|
84
|
-
"description": "DeepSeek-V3.1, DeepSeek
|
|
87
|
+
"description": "DeepSeek-V3.1-Düşünme modu dışı; DeepSeek-V3.1, DeepSeek tarafından yeni sunulan hibrit akıl yürütme modelidir ve düşünme ile düşünmeme olmak üzere iki akıl yürütme modunu destekler. DeepSeek-R1-0528 modeline kıyasla düşünme verimliliği daha yüksektir. Sonrası eğitim optimizasyonları sayesinde, ajan araç kullanımı ve akıllı ajan görevlerinde performans önemli ölçüde artmıştır."
|
|
88
|
+
},
|
|
89
|
+
"DeepSeek-V3.1-Fast": {
|
|
90
|
+
"description": "DeepSeek V3.1 Fast, DeepSeek V3.1 sürümünün yüksek TPS hızlı versiyonudur. Hibrit düşünme modu: Sohbet şablonunu değiştirerek, tek bir model hem düşünme hem de düşünmeme modlarını destekleyebilir. Daha akıllı araç çağrısı: Sonrası eğitim optimizasyonları sayesinde model, araç kullanımı ve ajan görevlerindeki performansını belirgin şekilde artırmıştır."
|
|
91
|
+
},
|
|
92
|
+
"DeepSeek-V3.1-Think": {
|
|
93
|
+
"description": "DeepSeek-V3.1-Düşünme modu; DeepSeek-V3.1, DeepSeek tarafından yeni sunulan hibrit akıl yürütme modelidir ve düşünme ile düşünmeme olmak üzere iki akıl yürütme modunu destekler. DeepSeek-R1-0528 modeline kıyasla düşünme verimliliği daha yüksektir. Sonrası eğitim optimizasyonları sayesinde, ajan araç kullanımı ve akıllı ajan görevlerinde performans önemli ölçüde artmıştır."
|
|
85
94
|
},
|
|
86
95
|
"Doubao-lite-128k": {
|
|
87
96
|
"description": "Doubao-lite, son derece hızlı yanıt süresi ve daha iyi fiyat-performans oranı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 128k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
|
@@ -809,12 +818,6 @@
|
|
|
809
818
|
"command-r7b-12-2024": {
|
|
810
819
|
"description": "command-r7b-12-2024, 2024 yılının Aralık ayında piyasaya sürülen küçük ve verimli bir güncellenmiş versiyondur. RAG, araç kullanımı, ajan gibi karmaşık akıl yürütme ve çok adımlı işlemler gerektiren görevlerde mükemmel performans sergilemektedir."
|
|
811
820
|
},
|
|
812
|
-
"compound-beta": {
|
|
813
|
-
"description": "Compound-beta, GroqCloud'da desteklenen birden fazla açık kullanılabilir modelden güç alan bir bileşik AI sistemidir, kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici bir şekilde kullanabilir."
|
|
814
|
-
},
|
|
815
|
-
"compound-beta-mini": {
|
|
816
|
-
"description": "Compound-beta-mini, GroqCloud'da desteklenen açık kullanılabilir modellerden güç alan bir bileşik AI sistemidir, kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici bir şekilde kullanabilir."
|
|
817
|
-
},
|
|
818
821
|
"computer-use-preview": {
|
|
819
822
|
"description": "computer-use-preview modeli, \"Bilgisayar Kullanım Araçları\" için özel olarak tasarlanmış ve bilgisayarla ilgili görevleri anlama ve yerine getirme konusunda eğitilmiş özel bir modeldir."
|
|
820
823
|
},
|
|
@@ -1055,6 +1058,9 @@
|
|
|
1055
1058
|
"doubao-seed-1.6-thinking": {
|
|
1056
1059
|
"description": "Doubao-Seed-1.6-thinking modeli düşünme yeteneğinde büyük gelişme göstermiştir, Doubao-1.5-thinking-pro ile karşılaştırıldığında Kodlama, Matematik ve mantıksal akıl yürütme gibi temel yeteneklerde daha da iyileşmiştir, görsel anlayışı destekler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
|
|
1057
1060
|
},
|
|
1061
|
+
"doubao-seed-1.6-vision": {
|
|
1062
|
+
"description": "Doubao-Seed-1.6-vision görsel derin düşünme modeli, eğitim, görüntü denetimi, denetim ve güvenlik ile AI arama ve soru-cevap gibi senaryolarda daha güçlü genel çok modlu anlama ve akıl yürütme yetenekleri sergiler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 64k token olabilir."
|
|
1063
|
+
},
|
|
1058
1064
|
"doubao-seedream-3-0-t2i-250415": {
|
|
1059
1065
|
"description": "Doubao görüntü oluşturma modeli, ByteDance Seed ekibi tarafından geliştirilmiştir; metin ve görüntü girişlerini destekler ve yüksek kontrol edilebilirlik ile yüksek kaliteli görüntü üretimi sunar. Metin istemlerine dayalı görüntü oluşturur."
|
|
1060
1066
|
},
|
|
@@ -1400,9 +1406,6 @@
|
|
|
1400
1406
|
"google/gemini-2.5-flash-image-preview": {
|
|
1401
1407
|
"description": "Gemini 2.5 Flash deneysel modeli, görüntü oluşturmayı destekler."
|
|
1402
1408
|
},
|
|
1403
|
-
"google/gemini-2.5-flash-image-preview:free": {
|
|
1404
|
-
"description": "Gemini 2.5 Flash deneysel modeli, görüntü oluşturmayı destekler."
|
|
1405
|
-
},
|
|
1406
1409
|
"google/gemini-2.5-flash-preview": {
|
|
1407
1410
|
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1408
1411
|
},
|
|
@@ -1442,6 +1445,9 @@
|
|
|
1442
1445
|
"google/gemma-2b-it": {
|
|
1443
1446
|
"description": "Gemma Instruct (2B), temel talimat işleme yetenekleri sunar ve hafif uygulamalar için uygundur."
|
|
1444
1447
|
},
|
|
1448
|
+
"google/gemma-3-12b-it": {
|
|
1449
|
+
"description": "Gemma 3 12B, Google tarafından geliştirilen açık kaynaklı bir dil modelidir ve verimlilik ile performansta yeni standartlar belirlemiştir."
|
|
1450
|
+
},
|
|
1445
1451
|
"google/gemma-3-1b-it": {
|
|
1446
1452
|
"description": "Gemma 3 1B, Google tarafından geliştirilen açık kaynaklı bir dil modelidir ve verimlilik ile performansta yeni standartlar belirlemiştir."
|
|
1447
1453
|
},
|
|
@@ -1607,6 +1613,12 @@
|
|
|
1607
1613
|
"grok-code-fast-1": {
|
|
1608
1614
|
"description": "Hızlı ve ekonomik bir çıkarım modeli olan grok-code-fast-1'i sunmaktan mutluluk duyuyoruz; ajan kodlamasında mükemmel performans sergiler."
|
|
1609
1615
|
},
|
|
1616
|
+
"groq/compound": {
|
|
1617
|
+
"description": "Compound, GroqCloud’da desteklenen birden fazla açık erişimli model tarafından desteklenen birleşik bir yapay zeka sistemidir ve kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici şekilde kullanabilir."
|
|
1618
|
+
},
|
|
1619
|
+
"groq/compound-mini": {
|
|
1620
|
+
"description": "Compound-mini, GroqCloud’da desteklenen açık erişimli modeller tarafından desteklenen birleşik bir yapay zeka sistemidir ve kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici şekilde kullanabilir."
|
|
1621
|
+
},
|
|
1610
1622
|
"gryphe/mythomax-l2-13b": {
|
|
1611
1623
|
"description": "MythoMax l2 13B, birden fazla üst düzey modelin birleşimiyle yaratıcı ve zeka odaklı bir dil modelidir."
|
|
1612
1624
|
},
|
|
@@ -1662,7 +1674,7 @@
|
|
|
1662
1674
|
"description": "Zorlu matematik, mantık ve kodlama yeteneklerinde büyük iyileştirmeler sağlar, model çıktı kararlılığını optimize eder ve uzun metin işleme kapasitesini artırır."
|
|
1663
1675
|
},
|
|
1664
1676
|
"hunyuan-t1-latest": {
|
|
1665
|
-
"description": "
|
|
1677
|
+
"description": "Ana modelin yavaş düşünme modelinin yüksek zorlukta matematik, karmaşık akıl yürütme, zor kodlama, talimat uyumu ve metin oluşturma kalitesi gibi yeteneklerinde büyük gelişmeler sağlar."
|
|
1666
1678
|
},
|
|
1667
1679
|
"hunyuan-t1-vision": {
|
|
1668
1680
|
"description": "Hunyuan çok modlu anlayış derin düşünme modeli, çok modlu doğal uzun düşünce zincirini destekler, çeşitli görsel çıkarım senaryolarında uzmandır ve fen bilimleri problemlerinde hızlı düşünme modellerine kıyasla kapsamlı iyileşme sağlar."
|
|
@@ -1766,6 +1778,9 @@
|
|
|
1766
1778
|
"kimi-k2-0711-preview": {
|
|
1767
1779
|
"description": "kimi-k2, son derece güçlü kodlama ve Agent yeteneklerine sahip MoE mimarili temel bir modeldir. Toplam parametre sayısı 1T, aktif parametre sayısı 32B'dir. Genel bilgi çıkarımı, programlama, matematik, Agent gibi ana kategorilerde yapılan kıyaslama testlerinde K2 modeli, diğer önde gelen açık kaynak modelleri geride bırakmıştır."
|
|
1768
1780
|
},
|
|
1781
|
+
"kimi-k2-0905-preview": {
|
|
1782
|
+
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
|
|
1783
|
+
},
|
|
1769
1784
|
"kimi-k2-turbo-preview": {
|
|
1770
1785
|
"description": "kimi-k2, son derece güçlü kod yazma ve Agent yeteneklerine sahip MoE mimarisine dayanan bir temel modeldir; toplam parametre sayısı 1T, aktif (etkin) parametre sayısı 32B. Genel bilgi çıkarımı, programlama, matematik ve Agent gibi ana kategorilerde yapılan karşılaştırmalı performans testlerinde K2 modelinin performansı diğer önde gelen açık kaynak modellerinin üzerindedir."
|
|
1771
1786
|
},
|
|
@@ -2165,9 +2180,18 @@
|
|
|
2165
2180
|
"moonshotai/Kimi-K2-Instruct": {
|
|
2166
2181
|
"description": "Kimi K2, güçlü kodlama ve ajan yeteneklerine sahip MoE mimarili temel modeldir; toplam 1 trilyon parametre, 32 milyar aktif parametreye sahiptir. Genel bilgi çıkarımı, programlama, matematik ve ajan gibi ana kategorilerdeki kıyaslama testlerinde K2 modeli diğer önde gelen açık kaynak modelleri geride bırakır."
|
|
2167
2182
|
},
|
|
2183
|
+
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2184
|
+
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
|
|
2185
|
+
},
|
|
2186
|
+
"moonshotai/kimi-k2-0905": {
|
|
2187
|
+
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
|
|
2188
|
+
},
|
|
2168
2189
|
"moonshotai/kimi-k2-instruct": {
|
|
2169
2190
|
"description": "kimi-k2, güçlü kodlama ve Ajan yeteneklerine sahip MoE mimarili temel bir modeldir, toplam parametre sayısı 1T, aktif parametre sayısı 32B'dir. Genel bilgi çıkarımı, programlama, matematik ve Ajan gibi ana kategorilerde yapılan kıyaslama testlerinde, K2 modeli diğer önde gelen açık kaynak modellerini geride bırakmaktadır."
|
|
2170
2191
|
},
|
|
2192
|
+
"moonshotai/kimi-k2-instruct-0905": {
|
|
2193
|
+
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
|
|
2194
|
+
},
|
|
2171
2195
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
|
2172
2196
|
"description": "Hermes 2 Pro Llama 3 8B, Nous Hermes 2'nin güncellenmiş versiyonudur ve en son iç geliştirme veri setlerini içermektedir."
|
|
2173
2197
|
},
|
|
@@ -2549,6 +2573,9 @@
|
|
|
2549
2573
|
"qwen3-coder-plus": {
|
|
2550
2574
|
"description": "Tongyi Qianwen kod modeli. En yeni Qwen3-Coder serisi modeller, Qwen3 tabanlı kod üretim modelleridir, güçlü Kodlama Ajanı yeteneklerine sahiptir, araç çağrıları ve ortam etkileşiminde uzmandır, bağımsız programlama yapabilir, üstün kodlama yeteneklerinin yanı sıra genel yeteneklere de sahiptir."
|
|
2551
2575
|
},
|
|
2576
|
+
"qwen3-max-preview": {
|
|
2577
|
+
"description": "Tongyi Qianwen 3 serisi Max modelinin önizleme sürümüdür. 2.5 serisine kıyasla genel yeteneklerde büyük gelişmeler göstermiştir; Çince ve İngilizce genel metin anlama, karmaşık talimat uyumu, öznel açık görevler, çok dilli yetenekler ve araç çağrısı yetenekleri belirgin şekilde artmıştır; model bilgi yanılgıları daha azdır."
|
|
2578
|
+
},
|
|
2552
2579
|
"qwq": {
|
|
2553
2580
|
"description": "QwQ, AI akıl yürütme yeteneklerini artırmaya odaklanan deneysel bir araştırma modelidir."
|
|
2554
2581
|
},
|
|
@@ -53,6 +53,9 @@
|
|
|
53
53
|
"Baichuan4-Turbo": {
|
|
54
54
|
"description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài và sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín."
|
|
55
55
|
},
|
|
56
|
+
"ByteDance-Seed/Seed-OSS-36B-Instruct": {
|
|
57
|
+
"description": "Seed-OSS là một loạt các mô hình ngôn ngữ lớn mã nguồn mở do nhóm Seed của ByteDance phát triển, được thiết kế đặc biệt cho khả năng xử lý ngữ cảnh dài mạnh mẽ, suy luận, tác nhân (agent) và năng lực tổng quát. Trong loạt này, Seed-OSS-36B-Instruct là một mô hình tinh chỉnh chỉ thị với 36 tỷ tham số, hỗ trợ ngữ cảnh siêu dài nguyên bản, cho phép xử lý một lượng lớn tài liệu hoặc kho mã phức tạp trong một lần. Mô hình được tối ưu đặc biệt cho các tác vụ suy luận, tạo mã và tác nhân (như sử dụng công cụ), đồng thời duy trì năng lực tổng quát cân bằng và xuất sắc. Một điểm nổi bật của mô hình này là tính năng “Ngân sách suy nghĩ” (Thinking Budget), cho phép người dùng điều chỉnh linh hoạt độ dài suy luận theo nhu cầu, từ đó nâng cao hiệu quả suy luận trong ứng dụng thực tế."
|
|
58
|
+
},
|
|
56
59
|
"DeepSeek-R1": {
|
|
57
60
|
"description": "Mô hình LLM hiệu quả tiên tiến nhất, xuất sắc trong suy luận, toán học và lập trình."
|
|
58
61
|
},
|
|
@@ -81,7 +84,13 @@
|
|
|
81
84
|
"description": "Nhà cung cấp mô hình: nền tảng sophnet. DeepSeek V3 Fast là phiên bản tốc độ cao TPS của DeepSeek V3 0324, không lượng tử hóa, có khả năng mã hóa và toán học mạnh mẽ hơn, phản hồi nhanh hơn!"
|
|
82
85
|
},
|
|
83
86
|
"DeepSeek-V3.1": {
|
|
84
|
-
"description": "DeepSeek-V3.1 là mô hình suy luận
|
|
87
|
+
"description": "DeepSeek-V3.1 - chế độ không suy nghĩ; DeepSeek-V3.1 là mô hình suy luận lai mới của DeepSeek, hỗ trợ hai chế độ suy luận là suy nghĩ và không suy nghĩ, hiệu quả suy nghĩ cao hơn so với DeepSeek-R1-0528. Qua tối ưu hậu huấn luyện, hiệu suất sử dụng công cụ Agent và các tác vụ tác nhân được cải thiện đáng kể."
|
|
88
|
+
},
|
|
89
|
+
"DeepSeek-V3.1-Fast": {
|
|
90
|
+
"description": "DeepSeek V3.1 Fast là phiên bản tốc độ cao TPS của DeepSeek V3.1. Chế độ suy nghĩ lai: thông qua thay đổi mẫu trò chuyện, một mô hình có thể đồng thời hỗ trợ cả chế độ suy nghĩ và không suy nghĩ. Gọi công cụ thông minh hơn: nhờ tối ưu hậu huấn luyện, mô hình thể hiện rõ rệt sự cải thiện trong việc sử dụng công cụ và các tác vụ đại lý."
|
|
91
|
+
},
|
|
92
|
+
"DeepSeek-V3.1-Think": {
|
|
93
|
+
"description": "DeepSeek-V3.1 - chế độ suy nghĩ; DeepSeek-V3.1 là mô hình suy luận lai mới của DeepSeek, hỗ trợ hai chế độ suy luận là suy nghĩ và không suy nghĩ, hiệu quả suy nghĩ cao hơn so với DeepSeek-R1-0528. Qua tối ưu hậu huấn luyện, hiệu suất sử dụng công cụ Agent và các tác vụ tác nhân được cải thiện đáng kể."
|
|
85
94
|
},
|
|
86
95
|
"Doubao-lite-128k": {
|
|
87
96
|
"description": "Doubao-lite sở hữu tốc độ phản hồi tối ưu, hiệu quả chi phí tốt hơn, cung cấp lựa chọn linh hoạt hơn cho các kịch bản khác nhau của khách hàng. Hỗ trợ suy luận và tinh chỉnh với cửa sổ ngữ cảnh 128k."
|
|
@@ -809,12 +818,6 @@
|
|
|
809
818
|
"command-r7b-12-2024": {
|
|
810
819
|
"description": "command-r7b-12-2024 là một phiên bản cập nhật nhỏ gọn và hiệu quả, được phát hành vào tháng 12 năm 2024. Nó thể hiện xuất sắc trong các nhiệm vụ cần suy luận phức tạp và xử lý nhiều bước như RAG, sử dụng công cụ và đại lý."
|
|
811
820
|
},
|
|
812
|
-
"compound-beta": {
|
|
813
|
-
"description": "Compound-beta là một hệ thống AI phức hợp, được hỗ trợ bởi nhiều mô hình có sẵn công khai trong GroqCloud, có khả năng thông minh và chọn lọc sử dụng công cụ để trả lời các truy vấn của người dùng."
|
|
814
|
-
},
|
|
815
|
-
"compound-beta-mini": {
|
|
816
|
-
"description": "Compound-beta-mini là một hệ thống AI phức hợp, được hỗ trợ bởi các mô hình có sẵn công khai trong GroqCloud, có khả năng thông minh và chọn lọc sử dụng công cụ để trả lời các truy vấn của người dùng."
|
|
817
|
-
},
|
|
818
821
|
"computer-use-preview": {
|
|
819
822
|
"description": "Mô hình computer-use-preview được thiết kế chuyên biệt cho “công cụ sử dụng máy tính”, được huấn luyện để hiểu và thực hiện các nhiệm vụ liên quan đến máy tính."
|
|
820
823
|
},
|
|
@@ -1055,6 +1058,9 @@
|
|
|
1055
1058
|
"doubao-seed-1.6-thinking": {
|
|
1056
1059
|
"description": "Mô hình Doubao-Seed-1.6-thinking có khả năng suy nghĩ được tăng cường đáng kể, so với Doubao-1.5-thinking-pro, nâng cao hơn nữa các năng lực cơ bản như lập trình, toán học, suy luận logic, đồng thời hỗ trợ hiểu hình ảnh. Hỗ trợ cửa sổ ngữ cảnh 256k, độ dài đầu ra tối đa 16k tokens."
|
|
1057
1060
|
},
|
|
1061
|
+
"doubao-seed-1.6-vision": {
|
|
1062
|
+
"description": "Doubao-Seed-1.6-vision là mô hình suy nghĩ sâu về thị giác, thể hiện khả năng hiểu và suy luận đa phương thức tổng quát mạnh mẽ hơn trong các kịch bản như giáo dục, kiểm duyệt hình ảnh, kiểm tra và an ninh, cũng như tìm kiếm và hỏi đáp AI. Hỗ trợ cửa sổ ngữ cảnh 256k, độ dài đầu ra tối đa lên đến 64k token."
|
|
1063
|
+
},
|
|
1058
1064
|
"doubao-seedream-3-0-t2i-250415": {
|
|
1059
1065
|
"description": "Mô hình tạo hình ảnh Doubao do đội Seed của ByteDance phát triển, hỗ trợ đầu vào văn bản và hình ảnh, mang lại trải nghiệm tạo hình ảnh chất lượng cao và kiểm soát tốt. Tạo hình ảnh dựa trên từ khóa văn bản."
|
|
1060
1066
|
},
|
|
@@ -1400,9 +1406,6 @@
|
|
|
1400
1406
|
"google/gemini-2.5-flash-image-preview": {
|
|
1401
1407
|
"description": "Mô hình thử nghiệm Gemini 2.5 Flash, hỗ trợ tạo hình ảnh."
|
|
1402
1408
|
},
|
|
1403
|
-
"google/gemini-2.5-flash-image-preview:free": {
|
|
1404
|
-
"description": "Mô hình thử nghiệm Gemini 2.5 Flash, hỗ trợ tạo hình ảnh."
|
|
1405
|
-
},
|
|
1406
1409
|
"google/gemini-2.5-flash-preview": {
|
|
1407
1410
|
"description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được thiết kế cho suy luận nâng cao, lập trình, toán học và các nhiệm vụ khoa học. Nó bao gồm khả năng 'suy nghĩ' tích hợp, cho phép nó cung cấp phản hồi với độ chính xác cao hơn và xử lý ngữ cảnh chi tiết hơn.\n\nLưu ý: Mô hình này có hai biến thể: suy nghĩ và không suy nghĩ. Giá đầu ra có sự khác biệt đáng kể tùy thuộc vào việc khả năng suy nghĩ có được kích hoạt hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố ':thinking'), mô hình sẽ rõ ràng tránh việc tạo ra các token suy nghĩ.\n\nĐể tận dụng khả năng suy nghĩ và nhận các token suy nghĩ, bạn phải chọn biến thể ':thinking', điều này sẽ tạo ra giá đầu ra suy nghĩ cao hơn.\n\nNgoài ra, Gemini 2.5 Flash có thể được cấu hình thông qua tham số 'số token tối đa cho suy luận', như đã mô tả trong tài liệu (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1408
1411
|
},
|
|
@@ -1442,6 +1445,9 @@
|
|
|
1442
1445
|
"google/gemma-2b-it": {
|
|
1443
1446
|
"description": "Gemma Instruct (2B) cung cấp khả năng xử lý chỉ dẫn cơ bản, phù hợp cho các ứng dụng nhẹ."
|
|
1444
1447
|
},
|
|
1448
|
+
"google/gemma-3-12b-it": {
|
|
1449
|
+
"description": "Gemma 3 12B là một mô hình ngôn ngữ mã nguồn mở của Google, thiết lập tiêu chuẩn mới về hiệu quả và hiệu suất."
|
|
1450
|
+
},
|
|
1445
1451
|
"google/gemma-3-1b-it": {
|
|
1446
1452
|
"description": "Gemma 3 1B là một mô hình ngôn ngữ mã nguồn mở của Google, thiết lập tiêu chuẩn mới về hiệu quả và hiệu suất."
|
|
1447
1453
|
},
|
|
@@ -1607,6 +1613,12 @@
|
|
|
1607
1613
|
"grok-code-fast-1": {
|
|
1608
1614
|
"description": "Chúng tôi rất vui mừng giới thiệu grok-code-fast-1, một mô hình suy luận nhanh và tiết kiệm chi phí, thể hiện xuất sắc trong việc mã hóa đại lý."
|
|
1609
1615
|
},
|
|
1616
|
+
"groq/compound": {
|
|
1617
|
+
"description": "Compound là một hệ thống AI tổng hợp, được hỗ trợ bởi nhiều mô hình công khai có sẵn trong GroqCloud, có khả năng sử dụng công cụ một cách thông minh và chọn lọc để trả lời các truy vấn của người dùng."
|
|
1618
|
+
},
|
|
1619
|
+
"groq/compound-mini": {
|
|
1620
|
+
"description": "Compound-mini là một hệ thống AI tổng hợp, được hỗ trợ bởi các mô hình công khai có sẵn trong GroqCloud, có khả năng sử dụng công cụ một cách thông minh và chọn lọc để trả lời các truy vấn của người dùng."
|
|
1621
|
+
},
|
|
1610
1622
|
"gryphe/mythomax-l2-13b": {
|
|
1611
1623
|
"description": "MythoMax l2 13B là mô hình ngôn ngữ kết hợp giữa sáng tạo và trí thông minh, kết hợp nhiều mô hình hàng đầu."
|
|
1612
1624
|
},
|
|
@@ -1662,7 +1674,7 @@
|
|
|
1662
1674
|
"description": "Nâng cao đáng kể khả năng toán học, logic và mã hóa khó, tối ưu độ ổn định đầu ra mô hình, cải thiện khả năng xử lý văn bản dài."
|
|
1663
1675
|
},
|
|
1664
1676
|
"hunyuan-t1-latest": {
|
|
1665
|
-
"description": "
|
|
1677
|
+
"description": "Nâng cao đáng kể năng lực của mô hình chính và mô hình suy nghĩ chậm trong các lĩnh vực toán học khó, suy luận phức tạp, mã hóa khó, tuân thủ chỉ thị và chất lượng sáng tạo văn bản."
|
|
1666
1678
|
},
|
|
1667
1679
|
"hunyuan-t1-vision": {
|
|
1668
1680
|
"description": "Mô hình suy nghĩ sâu đa phương thức Hunyuan, hỗ trợ chuỗi suy nghĩ dài nguyên bản đa phương thức, xuất sắc trong các tình huống suy luận hình ảnh đa dạng, cải thiện toàn diện so với mô hình suy nghĩ nhanh trong các bài toán khoa học tự nhiên."
|
|
@@ -1766,6 +1778,9 @@
|
|
|
1766
1778
|
"kimi-k2-0711-preview": {
|
|
1767
1779
|
"description": "kimi-k2 là mô hình cơ sở kiến trúc MoE với khả năng mã hóa và Agent cực mạnh, tổng số tham số 1T, tham số kích hoạt 32B. Trong các bài kiểm tra hiệu năng chuẩn về suy luận kiến thức chung, lập trình, toán học, Agent và các lĩnh vực chính khác, mô hình K2 vượt trội hơn các mô hình mã nguồn mở phổ biến khác."
|
|
1768
1780
|
},
|
|
1781
|
+
"kimi-k2-0905-preview": {
|
|
1782
|
+
"description": "Mô hình kimi-k2-0905-preview có độ dài ngữ cảnh 256k, sở hữu năng lực Agentic Coding mạnh mẽ hơn, mã front-end đẹp mắt và thực dụng hơn, cùng khả năng hiểu ngữ cảnh tốt hơn."
|
|
1783
|
+
},
|
|
1769
1784
|
"kimi-k2-turbo-preview": {
|
|
1770
1785
|
"description": "kimi-k2 là một mô hình nền tảng kiến trúc MoE với khả năng xử lý mã và Agent rất mạnh, tổng số tham số 1T, tham số kích hoạt 32B. Trong các bài kiểm tra chuẩn về hiệu năng ở các hạng mục chính như suy luận kiến thức tổng quát, lập trình, toán học và Agent, mô hình K2 cho hiệu năng vượt trội so với các mô hình mã nguồn mở phổ biến khác."
|
|
1771
1786
|
},
|
|
@@ -2165,9 +2180,18 @@
|
|
|
2165
2180
|
"moonshotai/Kimi-K2-Instruct": {
|
|
2166
2181
|
"description": "Kimi K2 là mô hình nền tảng kiến trúc MoE có khả năng mã hóa và đại lý vượt trội, tổng tham số 1T, tham số kích hoạt 32B. Trong các bài kiểm tra chuẩn về suy luận kiến thức chung, lập trình, toán học và đại lý, hiệu suất của mô hình K2 vượt trội so với các mô hình mã nguồn mở phổ biến khác."
|
|
2167
2182
|
},
|
|
2183
|
+
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2184
|
+
"description": "Mô hình kimi-k2-0905-preview có độ dài ngữ cảnh 256k, sở hữu năng lực Agentic Coding mạnh mẽ hơn, mã front-end đẹp mắt và thực dụng hơn, cùng khả năng hiểu ngữ cảnh tốt hơn."
|
|
2185
|
+
},
|
|
2186
|
+
"moonshotai/kimi-k2-0905": {
|
|
2187
|
+
"description": "Mô hình kimi-k2-0905-preview có độ dài ngữ cảnh 256k, sở hữu năng lực Agentic Coding mạnh mẽ hơn, mã front-end đẹp mắt và thực dụng hơn, cùng khả năng hiểu ngữ cảnh tốt hơn."
|
|
2188
|
+
},
|
|
2168
2189
|
"moonshotai/kimi-k2-instruct": {
|
|
2169
2190
|
"description": "kimi-k2 là mô hình cơ sở kiến trúc MoE với khả năng mã hóa và Agent cực mạnh, tổng số tham số 1T, tham số kích hoạt 32B. Trong các bài kiểm tra hiệu năng chuẩn về suy luận kiến thức chung, lập trình, toán học, Agent và các loại chính khác, mô hình K2 vượt trội hơn các mô hình mã nguồn mở phổ biến khác."
|
|
2170
2191
|
},
|
|
2192
|
+
"moonshotai/kimi-k2-instruct-0905": {
|
|
2193
|
+
"description": "Mô hình kimi-k2-0905-preview có độ dài ngữ cảnh 256k, sở hữu năng lực Agentic Coding mạnh mẽ hơn, mã front-end đẹp mắt và thực dụng hơn, cùng khả năng hiểu ngữ cảnh tốt hơn."
|
|
2194
|
+
},
|
|
2171
2195
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
|
2172
2196
|
"description": "Hermes 2 Pro Llama 3 8B là phiên bản nâng cấp của Nous Hermes 2, bao gồm bộ dữ liệu phát triển nội bộ mới nhất."
|
|
2173
2197
|
},
|
|
@@ -2549,6 +2573,9 @@
|
|
|
2549
2573
|
"qwen3-coder-plus": {
|
|
2550
2574
|
"description": "Mô hình mã nguồn của Thông Nghĩa Thiên Vấn. Bộ mô hình Qwen3-Coder mới nhất dựa trên Qwen3 là mô hình tạo mã, có khả năng Coding Agent mạnh mẽ, thành thạo gọi công cụ và tương tác môi trường, có thể tự lập trình, vừa xuất sắc về năng lực mã hóa vừa có khả năng tổng quát."
|
|
2551
2575
|
},
|
|
2576
|
+
"qwen3-max-preview": {
|
|
2577
|
+
"description": "Phiên bản xem trước mô hình Max của dòng Qwen 3, so với dòng 2.5 có sự cải thiện lớn về năng lực tổng quát, khả năng hiểu văn bản song ngữ Trung-Anh, tuân thủ chỉ thị phức tạp, thực hiện nhiệm vụ mở chủ quan, đa ngôn ngữ và gọi công cụ đều được tăng cường rõ rệt; mô hình giảm thiểu ảo giác kiến thức."
|
|
2578
|
+
},
|
|
2552
2579
|
"qwq": {
|
|
2553
2580
|
"description": "QwQ là một mô hình nghiên cứu thử nghiệm, tập trung vào việc nâng cao khả năng suy luận của AI."
|
|
2554
2581
|
},
|