@lobehub/chat 1.129.1 → 1.129.3

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (45) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/changelog/v1.json +21 -0
  3. package/locales/ar/models.json +248 -23
  4. package/locales/ar/providers.json +3 -0
  5. package/locales/bg-BG/models.json +248 -23
  6. package/locales/bg-BG/providers.json +3 -0
  7. package/locales/de-DE/models.json +248 -23
  8. package/locales/de-DE/providers.json +3 -0
  9. package/locales/en-US/models.json +248 -23
  10. package/locales/en-US/providers.json +3 -0
  11. package/locales/es-ES/models.json +248 -23
  12. package/locales/es-ES/providers.json +3 -0
  13. package/locales/fa-IR/models.json +248 -23
  14. package/locales/fa-IR/providers.json +3 -0
  15. package/locales/fr-FR/models.json +248 -23
  16. package/locales/fr-FR/providers.json +3 -0
  17. package/locales/it-IT/models.json +248 -23
  18. package/locales/it-IT/providers.json +3 -0
  19. package/locales/ja-JP/models.json +248 -23
  20. package/locales/ja-JP/providers.json +3 -0
  21. package/locales/ko-KR/models.json +248 -23
  22. package/locales/ko-KR/providers.json +3 -0
  23. package/locales/nl-NL/models.json +248 -23
  24. package/locales/nl-NL/providers.json +3 -0
  25. package/locales/pl-PL/models.json +248 -23
  26. package/locales/pl-PL/providers.json +3 -0
  27. package/locales/pt-BR/models.json +248 -23
  28. package/locales/pt-BR/providers.json +3 -0
  29. package/locales/ru-RU/models.json +248 -23
  30. package/locales/ru-RU/providers.json +3 -0
  31. package/locales/tr-TR/models.json +248 -23
  32. package/locales/tr-TR/providers.json +3 -0
  33. package/locales/vi-VN/models.json +248 -23
  34. package/locales/vi-VN/providers.json +3 -0
  35. package/locales/zh-CN/models.json +248 -23
  36. package/locales/zh-CN/providers.json +3 -0
  37. package/locales/zh-TW/models.json +248 -23
  38. package/locales/zh-TW/providers.json +3 -0
  39. package/package.json +1 -1
  40. package/packages/database/migrations/0031_add_agent_index.sql +6 -6
  41. package/packages/database/src/core/migrations.json +3 -3
  42. package/packages/model-runtime/src/core/RouterRuntime/baseRuntimeMap.ts +2 -0
  43. package/packages/model-runtime/src/providers/newapi/index.ts +17 -2
  44. package/packages/model-runtime/src/providers/qwen/createImage.test.ts +110 -0
  45. package/packages/model-runtime/src/providers/qwen/createImage.ts +100 -3
@@ -602,6 +602,33 @@
602
602
  "ai21-labs/AI21-Jamba-1.5-Mini": {
603
603
  "description": "Um modelo multilíngue com 52 bilhões de parâmetros (12 bilhões ativos), oferecendo janela de contexto longa de 256K, chamadas de função, saída estruturada e geração baseada em fatos."
604
604
  },
605
+ "alibaba/qwen-3-14b": {
606
+ "description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
607
+ },
608
+ "alibaba/qwen-3-235b": {
609
+ "description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
610
+ },
611
+ "alibaba/qwen-3-30b": {
612
+ "description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
613
+ },
614
+ "alibaba/qwen-3-32b": {
615
+ "description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
616
+ },
617
+ "alibaba/qwen3-coder": {
618
+ "description": "Qwen3-Coder-480B-A35B-Instruct é o modelo de código mais agente da série Qwen, com desempenho notável em codificação de agentes, uso de navegadores por agentes e outras tarefas básicas de codificação, alcançando resultados comparáveis ao Claude Sonnet."
619
+ },
620
+ "amazon/nova-lite": {
621
+ "description": "Um modelo multimodal de custo muito baixo, que processa entradas de imagem, vídeo e texto com velocidade extremamente rápida."
622
+ },
623
+ "amazon/nova-micro": {
624
+ "description": "Um modelo apenas de texto que oferece respostas com a menor latência a um custo muito baixo."
625
+ },
626
+ "amazon/nova-pro": {
627
+ "description": "Um modelo multimodal altamente capaz, com a melhor combinação de precisão, velocidade e custo, adequado para uma ampla gama de tarefas."
628
+ },
629
+ "amazon/titan-embed-text-v2": {
630
+ "description": "Amazon Titan Text Embeddings V2 é um modelo leve e eficiente de embeddings multilíngues, suportando dimensões de 1024, 512 e 256."
631
+ },
605
632
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
606
633
  "description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio."
607
634
  },
@@ -627,25 +654,28 @@
627
654
  "description": "A versão atualizada do Claude 2, com o dobro da janela de contexto, além de melhorias na confiabilidade, taxa de alucinação e precisão baseada em evidências em documentos longos e contextos RAG."
628
655
  },
629
656
  "anthropic/claude-3-haiku": {
630
- "description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para oferecer respostas quase instantâneas. Ele possui desempenho direcionado rápido e preciso."
657
+ "description": "Claude 3 Haiku é o modelo mais rápido da Anthropic até hoje, projetado para cargas de trabalho empresariais que geralmente envolvem prompts longos. Haiku pode analisar rapidamente grandes volumes de documentos, como arquivos trimestrais, contratos ou casos jurídicos, com custo equivalente à metade de outros modelos em sua classe de desempenho."
631
658
  },
632
659
  "anthropic/claude-3-opus": {
633
- "description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluência e compreensão."
660
+ "description": "Claude 3 Opus é o modelo mais inteligente da Anthropic, com desempenho líder de mercado em tarefas altamente complexas. Ele navega com fluidez excepcional e compreensão humana em prompts abertos e cenários inéditos."
634
661
  },
635
662
  "anthropic/claude-3.5-haiku": {
636
- "description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic. Em comparação com Claude 3 Haiku, Claude 3.5 Haiku apresenta melhorias em várias habilidades e supera o maior modelo da geração anterior, Claude 3 Opus, em muitos testes de inteligência."
663
+ "description": "Claude 3.5 Haiku é a próxima geração do nosso modelo mais rápido. Com velocidade semelhante ao Claude 3 Haiku, o Claude 3.5 Haiku apresenta melhorias em todas as habilidades e supera nosso maior modelo da geração anterior, Claude 3 Opus, em muitos benchmarks de inteligência."
637
664
  },
638
665
  "anthropic/claude-3.5-sonnet": {
639
- "description": "Claude 3.5 Sonnet oferece capacidades que vão além do Opus e uma velocidade superior ao Sonnet, mantendo o mesmo preço do Sonnet. O Sonnet é especialmente habilidoso em programação, ciência de dados, processamento visual e tarefas de agente."
666
+ "description": "Claude 3.5 Sonnet alcança um equilíbrio ideal entre inteligência e velocidade especialmente para cargas de trabalho empresariais. Em comparação com produtos similares, oferece desempenho robusto a um custo menor e é projetado para alta durabilidade em implantações de IA em larga escala."
640
667
  },
641
668
  "anthropic/claude-3.7-sonnet": {
642
- "description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic até agora e é o primeiro modelo de raciocínio misto do mercado. Claude 3.7 Sonnet pode gerar respostas quase instantâneas ou um pensamento gradual prolongado, permitindo que os usuários vejam claramente esses processos. Sonnet é especialmente habilidoso em programação, ciência de dados, processamento visual e tarefas de agente."
669
+ "description": "Claude 3.7 Sonnet é o primeiro modelo de raciocínio híbrido e o mais inteligente da Anthropic até hoje. Ele oferece desempenho de ponta em codificação, geração de conteúdo, análise de dados e tarefas de planejamento, construído sobre as capacidades de engenharia de software e computação do seu predecessor, Claude 3.5 Sonnet."
643
670
  },
644
671
  "anthropic/claude-opus-4": {
645
- "description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluidez e capacidade de compreensão."
672
+ "description": "Claude Opus 4 é o modelo mais poderoso da Anthropic até hoje e o melhor modelo de codificação do mundo, liderando nos benchmarks SWE-bench (72,5%) e Terminal-bench (43,2%). Ele oferece desempenho sustentado para tarefas de longo prazo que exigem esforço concentrado e milhares de etapas, podendo trabalhar continuamente por horas — ampliando significativamente as capacidades dos agentes de IA."
673
+ },
674
+ "anthropic/claude-opus-4.1": {
675
+ "description": "Claude Opus 4.1 é uma alternativa plug-and-play ao Opus 4, oferecendo desempenho e precisão excepcionais para tarefas práticas de codificação e agentes. Ele eleva o desempenho de codificação de ponta para 74,5% no SWE-bench Verified e lida com problemas complexos de múltiplas etapas com maior rigor e atenção aos detalhes."
646
676
  },
647
677
  "anthropic/claude-sonnet-4": {
648
- "description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou um pensamento gradual prolongado, permitindo que os usuários vejam claramente esses processos. Usuários da API também podem controlar detalhadamente o tempo de raciocínio do modelo."
678
+ "description": "Claude Sonnet 4 apresenta melhorias significativas sobre a capacidade líder do setor do Sonnet 3.7, destacando-se em codificação com um desempenho de ponta de 72,7% no SWE-bench. O modelo equilibra desempenho e eficiência, adequado para casos de uso internos e externos, e oferece maior controle sobre as implementações por meio de controlabilidade aprimorada."
649
679
  },
650
680
  "ascend-tribe/pangu-pro-moe": {
651
681
  "description": "Pangu-Pro-MoE 72B-A16B é um modelo de linguagem grande esparso com 72 bilhões de parâmetros e 16 bilhões de parâmetros ativados, baseado na arquitetura Mixture of Experts em grupos (MoGE). Ele agrupa especialistas na fase de seleção e restringe a ativação de um número igual de especialistas dentro de cada grupo para cada token, alcançando equilíbrio na carga dos especialistas e melhorando significativamente a eficiência de implantação do modelo na plataforma Ascend."
@@ -797,6 +827,18 @@
797
827
  "cohere/Cohere-command-r-plus": {
798
828
  "description": "Command R+ é um modelo otimizado de ponta para RAG, projetado para cargas de trabalho empresariais."
799
829
  },
830
+ "cohere/command-a": {
831
+ "description": "Command A é o modelo de maior desempenho da Cohere até hoje, destacando-se no uso de ferramentas, agentes, geração aprimorada por recuperação (RAG) e casos multilíngues. Com um comprimento de contexto de 256K, roda em apenas dois GPUs, oferecendo um aumento de 150% na taxa de transferência em comparação com o Command R+ 08-2024."
832
+ },
833
+ "cohere/command-r": {
834
+ "description": "Command R é um grande modelo de linguagem otimizado para interações de diálogo e tarefas de contexto longo. Ele se posiciona na categoria \"escalável\", equilibrando alto desempenho e forte precisão, permitindo que empresas avancem além da prova de conceito para produção."
835
+ },
836
+ "cohere/command-r-plus": {
837
+ "description": "Command R+ é o mais recente grande modelo de linguagem da Cohere, otimizado para interações de diálogo e tarefas de contexto longo. Seu objetivo é oferecer desempenho excepcional, permitindo que empresas avancem além da prova de conceito para produção."
838
+ },
839
+ "cohere/embed-v4.0": {
840
+ "description": "Um modelo que permite classificar texto, imagens ou conteúdo misto ou convertê-los em embeddings."
841
+ },
800
842
  "command": {
801
843
  "description": "Um modelo de diálogo que segue instruções, apresentando alta qualidade e confiabilidade em tarefas linguísticas, além de um comprimento de contexto mais longo em comparação com nosso modelo de geração básico."
802
844
  },
@@ -975,7 +1017,7 @@
975
1017
  "description": "DeepSeek-V3.1 é um grande modelo híbrido de raciocínio que suporta contexto longo de 128K e troca eficiente de modos, alcançando desempenho e velocidade excepcionais em chamadas de ferramentas, geração de código e tarefas complexas de raciocínio."
976
1018
  },
977
1019
  "deepseek/deepseek-r1": {
978
- "description": "DeepSeek-R1 melhorou significativamente a capacidade de raciocínio do modelo com muito poucos dados rotulados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
1020
+ "description": "O modelo DeepSeek R1 recebeu uma atualização menor, atualmente na versão DeepSeek-R1-0528. Na atualização mais recente, o DeepSeek R1 melhorou significativamente a profundidade e capacidade de raciocínio ao aproveitar recursos computacionais aumentados e introduzir mecanismos de otimização algorítmica pós-treinamento. O modelo apresenta desempenho excelente em benchmarks de matemática, programação e lógica geral, aproximando-se do desempenho de modelos líderes como O3 e Gemini 2.5 Pro."
979
1021
  },
980
1022
  "deepseek/deepseek-r1-0528": {
981
1023
  "description": "DeepSeek-R1 melhora significativamente a capacidade de raciocínio do modelo mesmo com poucos dados anotados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta."
@@ -984,7 +1026,7 @@
984
1026
  "description": "DeepSeek-R1 melhora significativamente a capacidade de raciocínio do modelo mesmo com poucos dados anotados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta."
985
1027
  },
986
1028
  "deepseek/deepseek-r1-distill-llama-70b": {
987
- "description": "DeepSeek R1 Distill Llama 70B é um grande modelo de linguagem baseado no Llama3.3 70B, que utiliza o ajuste fino da saída do DeepSeek R1 para alcançar um desempenho competitivo comparável aos grandes modelos de ponta."
1029
+ "description": "DeepSeek-R1-Distill-Llama-70B é uma variante destilada e mais eficiente do modelo Llama 70B. Mantém desempenho robusto em tarefas de geração de texto, reduzindo o custo computacional para facilitar implantação e pesquisa. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
988
1030
  },
989
1031
  "deepseek/deepseek-r1-distill-llama-8b": {
990
1032
  "description": "DeepSeek R1 Distill Llama 8B é um modelo de linguagem grande destilado baseado no Llama-3.1-8B-Instruct, treinado usando a saída do DeepSeek R1."
@@ -1002,7 +1044,10 @@
1002
1044
  "description": "DeepSeek-R1 melhorou significativamente a capacidade de raciocínio do modelo com muito poucos dados rotulados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
1003
1045
  },
1004
1046
  "deepseek/deepseek-v3": {
1005
- "description": "DeepSeek-V3 alcançou um avanço significativo na velocidade de inferência em comparação com os modelos anteriores. Classificado como o número um entre os modelos de código aberto, pode competir com os modelos fechados mais avançados do mundo. DeepSeek-V3 utiliza a arquitetura de Atenção Multi-Cabeça (MLA) e DeepSeekMoE, que foram amplamente validadas no DeepSeek-V2. Além disso, DeepSeek-V3 introduziu uma estratégia auxiliar sem perdas para balanceamento de carga e definiu objetivos de treinamento de previsão de múltiplos rótulos para obter um desempenho mais forte."
1047
+ "description": "Modelo grande de linguagem universal rápido com capacidades de raciocínio aprimoradas."
1048
+ },
1049
+ "deepseek/deepseek-v3.1-base": {
1050
+ "description": "DeepSeek V3.1 Base é uma versão aprimorada do modelo DeepSeek V3."
1006
1051
  },
1007
1052
  "deepseek/deepseek-v3/community": {
1008
1053
  "description": "DeepSeek-V3 alcançou um avanço significativo na velocidade de inferência em comparação com os modelos anteriores. Classificado como o número um entre os modelos de código aberto, pode competir com os modelos fechados mais avançados do mundo. DeepSeek-V3 utiliza a arquitetura de Atenção Multi-Cabeça (MLA) e DeepSeekMoE, que foram amplamente validadas no DeepSeek-V2. Além disso, DeepSeek-V3 introduziu uma estratégia auxiliar sem perdas para balanceamento de carga e definiu objetivos de treinamento de previsão de múltiplos rótulos para obter um desempenho mais forte."
@@ -1430,18 +1475,27 @@
1430
1475
  "glm-zero-preview": {
1431
1476
  "description": "O GLM-Zero-Preview possui uma poderosa capacidade de raciocínio complexo, destacando-se em áreas como raciocínio lógico, matemática e programação."
1432
1477
  },
1478
+ "google/gemini-2.0-flash": {
1479
+ "description": "Gemini 2.0 Flash oferece funcionalidades de próxima geração e melhorias, incluindo velocidade excepcional, uso integrado de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens."
1480
+ },
1433
1481
  "google/gemini-2.0-flash-001": {
1434
1482
  "description": "Gemini 2.0 Flash oferece funcionalidades e melhorias de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e uma janela de contexto de 1M tokens."
1435
1483
  },
1436
1484
  "google/gemini-2.0-flash-exp:free": {
1437
1485
  "description": "O Gemini 2.0 Flash Experimental é o mais recente modelo de IA multimodal experimental do Google, com melhorias de qualidade em comparação com versões anteriores, especialmente em conhecimento do mundo, código e longos contextos."
1438
1486
  },
1487
+ "google/gemini-2.0-flash-lite": {
1488
+ "description": "Gemini 2.0 Flash Lite oferece funcionalidades de próxima geração e melhorias, incluindo velocidade excepcional, uso integrado de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens."
1489
+ },
1439
1490
  "google/gemini-2.5-flash": {
1440
- "description": "Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para tarefas avançadas de raciocínio, codificação, matemática e ciências. Ele possui uma capacidade embutida de \"pensamento\", permitindo respostas com maior precisão e processamento detalhado do contexto.\n\nObservação: este modelo possui duas variantes: com pensamento e sem pensamento. O preço de saída varia significativamente dependendo se a capacidade de pensamento está ativada. Se você escolher a variante padrão (sem o sufixo \":thinking\"), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara utilizar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante \":thinking\", o que resultará em um preço de saída mais alto para o pensamento.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro \"máximo de tokens para raciocínio\", conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1491
+ "description": "Gemini 2.5 Flash é um modelo de raciocínio que oferece capacidades abrangentes excepcionais. Projetado para equilibrar preço e desempenho, suporta multimodalidade e janela de contexto de 1 milhão de tokens."
1441
1492
  },
1442
1493
  "google/gemini-2.5-flash-image-preview": {
1443
1494
  "description": "Modelo experimental Gemini 2.5 Flash, com suporte para geração de imagens."
1444
1495
  },
1496
+ "google/gemini-2.5-flash-lite": {
1497
+ "description": "Gemini 2.5 Flash-Lite é um modelo equilibrado e de baixa latência, com orçamento de raciocínio configurável e conectividade de ferramentas (por exemplo, pesquisa Google fundamentada e execução de código). Suporta entrada multimodal e oferece janela de contexto de 1 milhão de tokens."
1498
+ },
1445
1499
  "google/gemini-2.5-flash-preview": {
1446
1500
  "description": "O Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, codificação, matemática e tarefas científicas. Ele possui a capacidade de 'pensar' embutida, permitindo que forneça respostas com maior precisão e um tratamento de contexto mais detalhado.\n\nNota: Este modelo possui duas variantes: com e sem 'pensamento'. A precificação da saída varia significativamente dependendo da ativação da capacidade de pensamento. Se você escolher a variante padrão (sem o sufixo ':thinking'), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara aproveitar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante ':thinking', que resultará em uma precificação de saída de pensamento mais alta.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro 'número máximo de tokens para raciocínio', conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1447
1501
  },
@@ -1449,11 +1503,14 @@
1449
1503
  "description": "O Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, codificação, matemática e tarefas científicas. Ele possui a capacidade de 'pensar' embutida, permitindo que forneça respostas com maior precisão e um tratamento de contexto mais detalhado.\n\nNota: Este modelo possui duas variantes: com e sem 'pensamento'. A precificação da saída varia significativamente dependendo da ativação da capacidade de pensamento. Se você escolher a variante padrão (sem o sufixo ':thinking'), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara aproveitar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante ':thinking', que resultará em uma precificação de saída de pensamento mais alta.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro 'número máximo de tokens para raciocínio', conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1450
1504
  },
1451
1505
  "google/gemini-2.5-pro": {
1452
- "description": "Gemini 2.5 Pro é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando contexto extenso."
1506
+ "description": "Gemini 2.5 Pro é nosso modelo Gemini de raciocínio mais avançado, capaz de resolver problemas complexos. Possui janela de contexto de 2 milhões de tokens e suporta entrada multimodal, incluindo texto, imagem, áudio, vídeo e documentos PDF."
1453
1507
  },
1454
1508
  "google/gemini-2.5-pro-preview": {
1455
1509
  "description": "Gemini 2.5 Pro Preview é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando contexto extenso."
1456
1510
  },
1511
+ "google/gemini-embedding-001": {
1512
+ "description": "Modelo de embeddings de última geração com desempenho excelente em tarefas de inglês, multilíngue e código."
1513
+ },
1457
1514
  "google/gemini-flash-1.5": {
1458
1515
  "description": "Gemini 1.5 Flash oferece capacidades de processamento multimodal otimizadas, adequadas para uma variedade de cenários de tarefas complexas."
1459
1516
  },
@@ -1490,6 +1547,12 @@
1490
1547
  "google/gemma-3-27b-it": {
1491
1548
  "description": "Gemma 3 27B é um modelo de linguagem de código aberto do Google, que estabelece novos padrões em eficiência e desempenho."
1492
1549
  },
1550
+ "google/text-embedding-005": {
1551
+ "description": "Modelo de embeddings de texto focado em inglês, otimizado para tarefas de código e linguagem inglesa."
1552
+ },
1553
+ "google/text-multilingual-embedding-002": {
1554
+ "description": "Modelo de embeddings de texto multilíngue otimizado para tarefas cross-linguísticas, suportando múltiplos idiomas."
1555
+ },
1493
1556
  "gpt-3.5-turbo": {
1494
1557
  "description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125."
1495
1558
  },
@@ -1781,6 +1844,9 @@
1781
1844
  "imagen-4.0-ultra-generate-preview-06-06": {
1782
1845
  "description": "Série de modelos de texto para imagem da 4ª geração Imagen, versão Ultra"
1783
1846
  },
1847
+ "inception/mercury-coder-small": {
1848
+ "description": "Mercury Coder Small é a escolha ideal para tarefas de geração, depuração e refatoração de código, com latência mínima."
1849
+ },
1784
1850
  "inclusionAI/Ling-mini-2.0": {
1785
1851
  "description": "Ling-mini-2.0 é um modelo de linguagem grande de alto desempenho e pequeno porte baseado na arquitetura MoE. Ele possui 16 bilhões de parâmetros totais, mas ativa apenas 1,4 bilhão por token (789 milhões não-embedding), alcançando assim uma velocidade de geração extremamente alta. Graças ao design eficiente do MoE e a um grande volume de dados de treinamento de alta qualidade, apesar de ativar apenas 1,4 bilhão de parâmetros, o Ling-mini-2.0 ainda apresenta desempenho de ponta em tarefas downstream, comparável a modelos dense LLM abaixo de 10 bilhões e a modelos MoE de maior escala."
1786
1852
  },
@@ -2057,30 +2123,63 @@
2057
2123
  "meta/Meta-Llama-3.1-8B-Instruct": {
2058
2124
  "description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogo multilíngue, com desempenho superior em benchmarks comuns do setor entre muitos modelos de chat open source e proprietários disponíveis."
2059
2125
  },
2126
+ "meta/llama-3-70b": {
2127
+ "description": "Modelo open source de 70 bilhões de parâmetros ajustado pela Meta para conformidade com instruções. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
2128
+ },
2129
+ "meta/llama-3-8b": {
2130
+ "description": "Modelo open source de 8 bilhões de parâmetros ajustado pela Meta para conformidade com instruções. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
2131
+ },
2060
2132
  "meta/llama-3.1-405b-instruct": {
2061
2133
  "description": "LLM avançado, suporta geração de dados sintéticos, destilação de conhecimento e raciocínio, adequado para chatbots, programação e tarefas de domínio específico."
2062
2134
  },
2135
+ "meta/llama-3.1-70b": {
2136
+ "description": "Versão atualizada do Meta Llama 3 70B Instruct, incluindo extensão do comprimento de contexto para 128K, multilíngue e capacidades de raciocínio aprimoradas."
2137
+ },
2063
2138
  "meta/llama-3.1-70b-instruct": {
2064
2139
  "description": "Capacita diálogos complexos, com excelente compreensão de contexto, capacidade de raciocínio e geração de texto."
2065
2140
  },
2141
+ "meta/llama-3.1-8b": {
2142
+ "description": "Llama 3.1 8B suporta janela de contexto de 128K, tornando-o ideal para interfaces de diálogo em tempo real e análise de dados, oferecendo economia significativa de custos em comparação com modelos maiores. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
2143
+ },
2066
2144
  "meta/llama-3.1-8b-instruct": {
2067
2145
  "description": "Modelo de ponta avançado, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
2068
2146
  },
2147
+ "meta/llama-3.2-11b": {
2148
+ "description": "Modelo de geração de raciocínio visual ajustado por instrução (entrada de texto + imagem / saída de texto), otimizado para reconhecimento visual, raciocínio sobre imagens, geração de legendas e respostas a perguntas gerais sobre imagens."
2149
+ },
2069
2150
  "meta/llama-3.2-11b-vision-instruct": {
2070
2151
  "description": "Modelo de visão-linguagem de ponta, especializado em raciocínio de alta qualidade a partir de imagens."
2071
2152
  },
2153
+ "meta/llama-3.2-1b": {
2154
+ "description": "Modelo apenas de texto, suportando casos de uso em dispositivos, como recuperação de conhecimento local multilíngue, resumo e reescrita."
2155
+ },
2072
2156
  "meta/llama-3.2-1b-instruct": {
2073
2157
  "description": "Modelo de linguagem de ponta avançado e compacto, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
2074
2158
  },
2159
+ "meta/llama-3.2-3b": {
2160
+ "description": "Modelo apenas de texto, cuidadosamente ajustado para suportar casos de uso em dispositivos, como recuperação de conhecimento local multilíngue, resumo e reescrita."
2161
+ },
2075
2162
  "meta/llama-3.2-3b-instruct": {
2076
2163
  "description": "Modelo de linguagem de ponta avançado e compacto, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
2077
2164
  },
2165
+ "meta/llama-3.2-90b": {
2166
+ "description": "Modelo de geração de raciocínio visual ajustado por instrução (entrada de texto + imagem / saída de texto), otimizado para reconhecimento visual, raciocínio sobre imagens, geração de legendas e respostas a perguntas gerais sobre imagens."
2167
+ },
2078
2168
  "meta/llama-3.2-90b-vision-instruct": {
2079
2169
  "description": "Modelo de visão-linguagem de ponta, especializado em raciocínio de alta qualidade a partir de imagens."
2080
2170
  },
2171
+ "meta/llama-3.3-70b": {
2172
+ "description": "Combinação perfeita de desempenho e eficiência. Este modelo suporta IA de diálogo de alto desempenho, projetado para criação de conteúdo, aplicações empresariais e pesquisa, oferecendo capacidades avançadas de compreensão de linguagem, incluindo resumo de texto, classificação, análise de sentimento e geração de código."
2173
+ },
2081
2174
  "meta/llama-3.3-70b-instruct": {
2082
2175
  "description": "Modelo LLM avançado, especializado em raciocínio, matemática, conhecimento geral e chamadas de função."
2083
2176
  },
2177
+ "meta/llama-4-maverick": {
2178
+ "description": "A coleção de modelos Llama 4 é uma IA multimodal nativa, suportando experiências de texto e multimodais. Esses modelos utilizam arquitetura de especialistas mistos para oferecer desempenho líder do setor em compreensão de texto e imagem. Llama 4 Maverick, um modelo de 17 bilhões de parâmetros com 128 especialistas. Atendido pela DeepInfra."
2179
+ },
2180
+ "meta/llama-4-scout": {
2181
+ "description": "A coleção de modelos Llama 4 é uma IA multimodal nativa, suportando experiências de texto e multimodais. Esses modelos utilizam arquitetura de especialistas mistos para oferecer desempenho líder do setor em compreensão de texto e imagem. Llama 4 Scout, um modelo de 17 bilhões de parâmetros com 16 especialistas. Atendido pela DeepInfra."
2182
+ },
2084
2183
  "microsoft/Phi-3-medium-128k-instruct": {
2085
2184
  "description": "O mesmo modelo Phi-3-medium, mas com contexto maior, adequado para RAG ou poucos prompts."
2086
2185
  },
@@ -2156,6 +2255,48 @@
2156
2255
  "mistral-small-latest": {
2157
2256
  "description": "Mistral Small é uma opção de alto custo-benefício, rápida e confiável, adequada para casos de uso como tradução, resumo e análise de sentimentos."
2158
2257
  },
2258
+ "mistral/codestral": {
2259
+ "description": "Mistral Codestral 25.01 é um modelo de codificação de ponta, otimizado para casos de uso de baixa latência e alta frequência. Fluente em mais de 80 linguagens de programação, destaca-se em tarefas como preenchimento intermediário (FIM), correção de código e geração de testes."
2260
+ },
2261
+ "mistral/codestral-embed": {
2262
+ "description": "Modelo de embeddings de código que pode ser incorporado em bancos de dados e repositórios de código para suportar assistentes de codificação."
2263
+ },
2264
+ "mistral/devstral-small": {
2265
+ "description": "Devstral é um grande modelo de linguagem agente para tarefas de engenharia de software, tornando-o uma excelente escolha para agentes de engenharia de software."
2266
+ },
2267
+ "mistral/magistral-medium": {
2268
+ "description": "Pensamento complexo suportado por compreensão profunda, com raciocínio transparente que você pode seguir e verificar. O modelo mantém raciocínio de alta fidelidade em múltiplos idiomas, mesmo ao alternar idiomas no meio da tarefa."
2269
+ },
2270
+ "mistral/magistral-small": {
2271
+ "description": "Pensamento complexo suportado por compreensão profunda, com raciocínio transparente que você pode seguir e verificar. O modelo mantém raciocínio de alta fidelidade em múltiplos idiomas, mesmo ao alternar idiomas no meio da tarefa."
2272
+ },
2273
+ "mistral/ministral-3b": {
2274
+ "description": "Um modelo compacto e eficiente para tarefas em dispositivos, como assistentes inteligentes e análises locais, oferecendo desempenho de baixa latência."
2275
+ },
2276
+ "mistral/ministral-8b": {
2277
+ "description": "Um modelo mais poderoso, com inferência mais rápida e eficiente em memória, ideal para fluxos de trabalho complexos e aplicações de borda exigentes."
2278
+ },
2279
+ "mistral/mistral-embed": {
2280
+ "description": "Modelo universal de embeddings de texto para busca semântica, similaridade, agrupamento e fluxos de trabalho RAG."
2281
+ },
2282
+ "mistral/mistral-large": {
2283
+ "description": "Mistral Large é ideal para tarefas complexas que exigem grandes capacidades de raciocínio ou alta especialização — como geração de texto sintético, geração de código, RAG ou agentes."
2284
+ },
2285
+ "mistral/mistral-saba-24b": {
2286
+ "description": "Mistral Saba 24B é um modelo open source de 24 bilhões de parâmetros desenvolvido pela Mistral.ai. Saba é um modelo especializado treinado para desempenho excepcional em árabe, persa, urdu, hebraico e línguas indianas. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
2287
+ },
2288
+ "mistral/mistral-small": {
2289
+ "description": "Mistral Small é ideal para tarefas simples que podem ser processadas em lote — como classificação, suporte ao cliente ou geração de texto. Oferece excelente desempenho a um preço acessível."
2290
+ },
2291
+ "mistral/mixtral-8x22b-instruct": {
2292
+ "description": "Modelo 8x22b Instruct. 8x22b é um modelo open source de especialistas mistos atendido pela Mistral."
2293
+ },
2294
+ "mistral/pixtral-12b": {
2295
+ "description": "Um modelo de 12 bilhões com capacidades de compreensão de imagem, além de texto."
2296
+ },
2297
+ "mistral/pixtral-large": {
2298
+ "description": "Pixtral Large é o segundo modelo da nossa família multimodal, demonstrando compreensão de imagem em nível de ponta. Especificamente, o modelo pode entender documentos, gráficos e imagens naturais, mantendo a liderança em compreensão de texto do Mistral Large 2."
2299
+ },
2159
2300
  "mistralai/Mistral-7B-Instruct-v0.1": {
2160
2301
  "description": "Mistral (7B) Instruct é conhecido por seu alto desempenho, adequado para diversas tarefas de linguagem."
2161
2302
  },
@@ -2222,12 +2363,21 @@
2222
2363
  "moonshotai/Kimi-K2-Instruct-0905": {
2223
2364
  "description": "Kimi K2-Instruct-0905 é a versão mais recente e poderosa do Kimi K2. Trata-se de um modelo de linguagem de especialistas mistos (MoE) de ponta, com um total de 1 trilhão de parâmetros e 32 bilhões de parâmetros ativados. As principais características deste modelo incluem: inteligência aprimorada para codificação de agentes, demonstrando melhorias significativas em testes de referência públicos e em tarefas reais de codificação de agentes; experiência de codificação front-end melhorada, com avanços tanto na estética quanto na funcionalidade da programação front-end."
2224
2365
  },
2366
+ "moonshotai/kimi-k2": {
2367
+ "description": "Kimi K2 é um modelo de linguagem de especialistas mistos (MoE) em grande escala desenvolvido pela Moonshot AI, com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativos por passagem. Otimizado para capacidades de agente, incluindo uso avançado de ferramentas, raciocínio e síntese de código."
2368
+ },
2225
2369
  "moonshotai/kimi-k2-0905": {
2226
2370
  "description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
2227
2371
  },
2228
2372
  "moonshotai/kimi-k2-instruct-0905": {
2229
2373
  "description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
2230
2374
  },
2375
+ "morph/morph-v3-fast": {
2376
+ "description": "Morph oferece um modelo de IA especializado que aplica rapidamente as alterações de código sugeridas por modelos de ponta como Claude ou GPT-4o aos seus arquivos de código existentes — RÁPIDO - mais de 4500 tokens/segundo. Atua como a etapa final no fluxo de trabalho de codificação de IA. Suporta 16k tokens de entrada e 16k tokens de saída."
2377
+ },
2378
+ "morph/morph-v3-large": {
2379
+ "description": "Morph oferece um modelo de IA especializado que aplica as alterações de código sugeridas por modelos de ponta como Claude ou GPT-4o aos seus arquivos de código existentes — RÁPIDO - mais de 2500 tokens/segundo. Atua como a etapa final no fluxo de trabalho de codificação de IA. Suporta 16k tokens de entrada e 16k tokens de saída."
2380
+ },
2231
2381
  "nousresearch/hermes-2-pro-llama-3-8b": {
2232
2382
  "description": "Hermes 2 Pro Llama 3 8B é uma versão aprimorada do Nous Hermes 2, contendo os conjuntos de dados mais recentes desenvolvidos internamente."
2233
2383
  },
@@ -2294,29 +2444,47 @@
2294
2444
  "open-mixtral-8x7b": {
2295
2445
  "description": "Mixtral 8x7B é um modelo de especialistas esparsos, utilizando múltiplos parâmetros para aumentar a velocidade de raciocínio, adequado para tarefas de geração de linguagem e código."
2296
2446
  },
2447
+ "openai/gpt-3.5-turbo": {
2448
+ "description": "O modelo mais capaz e econômico da série GPT-3.5 da OpenAI, otimizado para fins de chat, mas também com bom desempenho em tarefas tradicionais de completamento."
2449
+ },
2450
+ "openai/gpt-3.5-turbo-instruct": {
2451
+ "description": "Capacidades semelhantes aos modelos da era GPT-3. Compatível com endpoints tradicionais de completamento, em vez de endpoints de completamento de chat."
2452
+ },
2453
+ "openai/gpt-4-turbo": {
2454
+ "description": "O gpt-4-turbo da OpenAI possui amplo conhecimento geral e especialização em domínios, permitindo seguir instruções complexas em linguagem natural e resolver problemas difíceis com precisão. Sua data de corte de conhecimento é abril de 2023, com janela de contexto de 128.000 tokens."
2455
+ },
2297
2456
  "openai/gpt-4.1": {
2298
- "description": "GPT-4.1 é nosso modelo principal para tarefas complexas. Ele é extremamente adequado para resolver problemas interdisciplinares."
2457
+ "description": "GPT 4.1 é o modelo principal da OpenAI, adequado para tarefas complexas. É excelente para resolver problemas interdisciplinares."
2299
2458
  },
2300
2459
  "openai/gpt-4.1-mini": {
2301
- "description": "GPT-4.1 mini oferece um equilíbrio entre inteligência, velocidade e custo, tornando-se um modelo atraente para muitos casos de uso."
2460
+ "description": "GPT 4.1 mini equilibra inteligência, velocidade e custo, tornando-o um modelo atraente para muitos casos de uso."
2302
2461
  },
2303
2462
  "openai/gpt-4.1-nano": {
2304
- "description": "GPT-4.1 nano é o modelo GPT-4.1 mais rápido e com melhor custo-benefício."
2463
+ "description": "GPT-4.1 nano é o modelo GPT 4.1 mais rápido e econômico."
2305
2464
  },
2306
2465
  "openai/gpt-4o": {
2307
- "description": "ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais recente. Combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
2466
+ "description": "GPT-4o da OpenAI possui amplo conhecimento geral e especialização em domínios, capaz de seguir instruções complexas em linguagem natural e resolver problemas difíceis com precisão. Oferece desempenho equivalente ao GPT-4 Turbo com API mais rápida e barata."
2308
2467
  },
2309
2468
  "openai/gpt-4o-mini": {
2310
- "description": "GPT-4o mini é o mais recente modelo da OpenAI, lançado após o GPT-4 Omni, que suporta entrada de texto e imagem e saída de texto. Como seu modelo compacto mais avançado, é muito mais barato do que outros modelos de ponta recentes e custa mais de 60% menos que o GPT-3.5 Turbo. Ele mantém inteligência de ponta, ao mesmo tempo que oferece uma relação custo-benefício significativa. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
2469
+ "description": "GPT-4o mini da OpenAI é seu modelo pequeno mais avançado e econômico. É multimodal (aceita entrada de texto ou imagem e gera texto) e mais inteligente que o gpt-3.5-turbo, mantendo a mesma velocidade."
2470
+ },
2471
+ "openai/gpt-5": {
2472
+ "description": "GPT-5 é o modelo de linguagem principal da OpenAI, excelente em raciocínio complexo, amplo conhecimento do mundo real, tarefas intensivas em código e agentes de múltiplas etapas."
2473
+ },
2474
+ "openai/gpt-5-mini": {
2475
+ "description": "GPT-5 mini é um modelo otimizado para custo, com bom desempenho em tarefas de raciocínio/chat. Oferece o melhor equilíbrio entre velocidade, custo e capacidade."
2476
+ },
2477
+ "openai/gpt-5-nano": {
2478
+ "description": "GPT-5 nano é um modelo de alto rendimento, excelente para tarefas simples de instrução ou classificação."
2311
2479
  },
2312
2480
  "openai/gpt-oss-120b": {
2313
- "description": "OpenAI GPT-OSS 120B é um modelo de linguagem de ponta com 120 bilhões de parâmetros, incorporando funcionalidades de busca no navegador e execução de código, além de possuir capacidades de raciocínio."
2481
+ "description": "Modelo grande de linguagem geral extremamente capaz, com forte capacidade de raciocínio controlável."
2314
2482
  },
2315
2483
  "openai/gpt-oss-20b": {
2316
- "description": "OpenAI GPT-OSS 20B é um modelo de linguagem de ponta com 20 bilhões de parâmetros, incorporando funcionalidades de busca no navegador e execução de código, além de possuir capacidades de raciocínio."
2484
+ "description": "Modelo de linguagem compacto com pesos open source, otimizado para baixa latência e ambientes com recursos limitados, incluindo implantação local e na borda."
2317
2485
  },
2318
2486
  "openai/o1": {
2319
- "description": "o1 é o novo modelo de raciocínio da OpenAI, que suporta entrada de texto e imagem e gera texto, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 200K e data de corte de conhecimento em outubro de 2023."
2487
+ "description": "O o1 da OpenAI é o modelo principal de raciocínio, projetado para problemas complexos que exigem pensamento profundo. Oferece forte capacidade de raciocínio e maior precisão para tarefas complexas de múltiplas etapas."
2320
2488
  },
2321
2489
  "openai/o1-mini": {
2322
2490
  "description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
@@ -2325,23 +2493,44 @@
2325
2493
  "description": "o1 é o novo modelo de raciocínio da OpenAI, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
2326
2494
  },
2327
2495
  "openai/o3": {
2328
- "description": "o3 é um modelo poderoso e versátil, que se destaca em várias áreas. Ele estabelece novos padrões para tarefas de matemática, ciência, programação e raciocínio visual. Também é habilidoso em redação técnica e seguimento de instruções. Os usuários podem utilizá-lo para analisar textos, códigos e imagens, resolvendo problemas complexos em várias etapas."
2496
+ "description": "O o3 da OpenAI é o modelo de raciocínio mais poderoso, estabelecendo novos padrões em codificação, matemática, ciência e percepção visual. É excelente para consultas complexas que exigem análise multifacetada, com vantagens especiais na análise de imagens, gráficos e diagramas."
2329
2497
  },
2330
2498
  "openai/o3-mini": {
2331
- "description": "o3-mini oferece alta inteligência com os mesmos objetivos de custo e latência que o o1-mini."
2499
+ "description": "o3-mini é o mais recente modelo pequeno de raciocínio da OpenAI, oferecendo alta inteligência com os mesmos objetivos de custo e latência do o1-mini."
2332
2500
  },
2333
2501
  "openai/o3-mini-high": {
2334
2502
  "description": "o3-mini de alta capacidade de raciocínio oferece alta inteligência com os mesmos objetivos de custo e latência que o o1-mini."
2335
2503
  },
2336
2504
  "openai/o4-mini": {
2337
- "description": "o4-mini é otimizado para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
2505
+ "description": "O o4-mini da OpenAI oferece raciocínio rápido e econômico, com desempenho excepcional para seu tamanho, especialmente em matemática (melhor desempenho no benchmark AIME), codificação e tarefas visuais."
2338
2506
  },
2339
2507
  "openai/o4-mini-high": {
2340
2508
  "description": "Versão de alto nível de inferência do o4-mini, otimizada para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
2341
2509
  },
2510
+ "openai/text-embedding-3-large": {
2511
+ "description": "O modelo de embeddings mais capaz da OpenAI, adequado para tarefas em inglês e não inglês."
2512
+ },
2513
+ "openai/text-embedding-3-small": {
2514
+ "description": "Versão aprimorada e de melhor desempenho do modelo ada de embeddings da OpenAI."
2515
+ },
2516
+ "openai/text-embedding-ada-002": {
2517
+ "description": "Modelo tradicional de embeddings de texto da OpenAI."
2518
+ },
2342
2519
  "openrouter/auto": {
2343
2520
  "description": "Com base no comprimento do contexto, tema e complexidade, sua solicitação será enviada para Llama 3 70B Instruct, Claude 3.5 Sonnet (autoajustável) ou GPT-4o."
2344
2521
  },
2522
+ "perplexity/sonar": {
2523
+ "description": "Produto leve da Perplexity com capacidade de pesquisa fundamentada, mais rápido e barato que o Sonar Pro."
2524
+ },
2525
+ "perplexity/sonar-pro": {
2526
+ "description": "Produto principal da Perplexity com capacidade de pesquisa fundamentada, suportando consultas avançadas e operações subsequentes."
2527
+ },
2528
+ "perplexity/sonar-reasoning": {
2529
+ "description": "Modelo focado em raciocínio que gera cadeias de pensamento (CoT) nas respostas, oferecendo explicações detalhadas com pesquisa fundamentada."
2530
+ },
2531
+ "perplexity/sonar-reasoning-pro": {
2532
+ "description": "Modelo avançado focado em raciocínio que gera cadeias de pensamento (CoT) nas respostas, oferecendo explicações abrangentes com capacidade de pesquisa aprimorada e múltiplas consultas de pesquisa por solicitação."
2533
+ },
2345
2534
  "phi3": {
2346
2535
  "description": "Phi-3 é um modelo leve e aberto lançado pela Microsoft, adequado para integração eficiente e raciocínio de conhecimento em larga escala."
2347
2536
  },
@@ -2804,6 +2993,12 @@
2804
2993
  "v0-1.5-md": {
2805
2994
  "description": "O modelo v0-1.5-md é adequado para tarefas diárias e geração de interfaces de usuário (UI)"
2806
2995
  },
2996
+ "vercel/v0-1.0-md": {
2997
+ "description": "Acesso ao modelo por trás do v0 para gerar, corrigir e otimizar aplicações web modernas, com raciocínio específico para frameworks e conhecimento atualizado."
2998
+ },
2999
+ "vercel/v0-1.5-md": {
3000
+ "description": "Acesso ao modelo por trás do v0 para gerar, corrigir e otimizar aplicações web modernas, com raciocínio específico para frameworks e conhecimento atualizado."
3001
+ },
2807
3002
  "wan2.2-t2i-flash": {
2808
3003
  "description": "Versão ultrarrápida Wanxiang 2.2, modelo mais recente. Atualizações abrangentes em criatividade, estabilidade e realismo, com alta velocidade de geração e excelente custo-benefício."
2809
3004
  },
@@ -2834,6 +3029,27 @@
2834
3029
  "x1": {
2835
3030
  "description": "O modelo Spark X1 será aprimorado ainda mais, mantendo a liderança em tarefas matemáticas no país, e alcançando resultados em tarefas gerais como raciocínio, geração de texto e compreensão de linguagem que se comparam ao OpenAI o1 e DeepSeek R1."
2836
3031
  },
3032
+ "xai/grok-2": {
3033
+ "description": "Grok 2 é um modelo de linguagem de ponta com capacidades avançadas de raciocínio. Possui habilidades avançadas em chat, codificação e raciocínio, superando Claude 3.5 Sonnet e GPT-4-Turbo no ranking LMSYS."
3034
+ },
3035
+ "xai/grok-2-vision": {
3036
+ "description": "O modelo visual Grok 2 apresenta desempenho excepcional em tarefas baseadas em visão, oferecendo desempenho de ponta em raciocínio matemático visual (MathVista) e perguntas e respostas baseadas em documentos (DocVQA). Ele pode processar diversos tipos de informações visuais, incluindo documentos, gráficos, tabelas, capturas de tela e fotos."
3037
+ },
3038
+ "xai/grok-3": {
3039
+ "description": "Modelo principal da xAI, com desempenho excelente em casos de uso empresariais como extração de dados, codificação e resumo de texto. Possui profundo conhecimento em finanças, saúde, direito e ciências."
3040
+ },
3041
+ "xai/grok-3-fast": {
3042
+ "description": "Modelo principal da xAI, com desempenho excelente em casos de uso empresariais como extração de dados, codificação e resumo de texto. A variante rápida do modelo é atendida em infraestrutura mais veloz, oferecendo tempos de resposta muito mais rápidos que o padrão. O aumento de velocidade tem custo maior por token de saída."
3043
+ },
3044
+ "xai/grok-3-mini": {
3045
+ "description": "Modelo leve da xAI que pensa antes de responder. Ideal para tarefas simples ou baseadas em lógica que não exigem profundo conhecimento de domínio. A trajetória de pensamento bruta é acessível."
3046
+ },
3047
+ "xai/grok-3-mini-fast": {
3048
+ "description": "Modelo leve da xAI que pensa antes de responder. Ideal para tarefas simples ou baseadas em lógica que não exigem profundo conhecimento de domínio. A trajetória de pensamento bruta é acessível. A variante rápida do modelo é atendida em infraestrutura mais veloz, oferecendo tempos de resposta muito mais rápidos que o padrão. O aumento de velocidade tem custo maior por token de saída."
3049
+ },
3050
+ "xai/grok-4": {
3051
+ "description": "O mais recente e melhor modelo principal da xAI, oferecendo desempenho incomparável em linguagem natural, matemática e raciocínio — o competidor perfeito para todas as tarefas."
3052
+ },
2837
3053
  "yi-1.5-34b-chat": {
2838
3054
  "description": "Yi-1.5 é uma versão aprimorada do Yi. Ele usa um corpus de alta qualidade com 500B tokens para continuar o pré-treinamento do Yi e é refinado com 3M amostras de ajuste fino diversificadas."
2839
3055
  },
@@ -2881,5 +3097,14 @@
2881
3097
  },
2882
3098
  "zai-org/GLM-4.5V": {
2883
3099
  "description": "GLM-4.5V é a mais recente geração de modelo de linguagem visual (VLM) lançada pela Zhipu AI (智谱 AI). O modelo é construído sobre o modelo de texto carro‑chefe GLM-4.5-Air, que possui 106 bilhões de parâmetros totais e 12 bilhões de parâmetros de ativação, adotando uma arquitetura de especialistas mistos (MoE) com o objetivo de oferecer desempenho de alto nível a um custo de inferência reduzido. Tecnicamente, o GLM-4.5V dá continuidade à linha do GLM-4.1V-Thinking e introduz inovações como a codificação de posição rotacional 3D (3D-RoPE), que aumentam significativamente a percepção e o raciocínio sobre relações espaciais tridimensionais. Por meio de otimizações nas fases de pré-treinamento, ajuste fino supervisionado e aprendizado por reforço, o modelo é capaz de processar diversos tipos de conteúdo visual — incluindo imagens, vídeos e longos documentos — e alcançou desempenho de ponta entre modelos open-source da mesma categoria em 41 benchmarks multimodais públicos. Além disso, o modelo inclui um interruptor de \"modo de pensamento\", que permite aos usuários alternar de forma flexível entre respostas rápidas e raciocínio aprofundado, equilibrando eficiência e eficácia."
3100
+ },
3101
+ "zai/glm-4.5": {
3102
+ "description": "A série de modelos GLM-4.5 é uma base projetada especificamente para agentes. O modelo principal GLM-4.5 integra 355 bilhões de parâmetros totais (32 bilhões ativos), unificando raciocínio, codificação e capacidades de agente para atender a demandas complexas de aplicações. Como sistema de raciocínio híbrido, oferece modos operacionais duplos."
3103
+ },
3104
+ "zai/glm-4.5-air": {
3105
+ "description": "GLM-4.5 e GLM-4.5-Air são nossos modelos principais mais recentes, projetados especificamente como bases para aplicações de agentes. Ambos utilizam arquitetura de especialistas mistos (MoE). GLM-4.5 possui 355 bilhões de parâmetros totais com 32 bilhões ativos por passagem, enquanto GLM-4.5-Air tem design mais simplificado, com 106 bilhões de parâmetros totais e 12 bilhões ativos."
3106
+ },
3107
+ "zai/glm-4.5v": {
3108
+ "description": "GLM-4.5V é construído sobre o modelo base GLM-4.5-Air, herdando a tecnologia comprovada do GLM-4.1V-Thinking, enquanto alcança escalabilidade eficiente por meio da poderosa arquitetura MoE de 106 bilhões de parâmetros."
2884
3109
  }
2885
3110
  }
@@ -161,6 +161,9 @@
161
161
  "v0": {
162
162
  "description": "v0 é um assistente de programação em par; basta descrever suas ideias em linguagem natural, e ele gerará código e interface de usuário (UI) para o seu projeto"
163
163
  },
164
+ "vercelaigateway": {
165
+ "description": "O Vercel AI Gateway oferece uma API unificada para acessar mais de 100 modelos, permitindo o uso de modelos de vários provedores como OpenAI, Anthropic, Google, entre outros, através de um único endpoint. Suporta configuração de orçamento, monitoramento de uso, balanceamento de carga de requisições e failover."
166
+ },
164
167
  "vertexai": {
165
168
  "description": "A série Gemini do Google é seu modelo de IA mais avançado e versátil, desenvolvido pelo Google DeepMind, projetado para ser multimodal, suportando compreensão e processamento sem costura de texto, código, imagens, áudio e vídeo. Adequado para uma variedade de ambientes, desde data centers até dispositivos móveis, aumentando significativamente a eficiência e a aplicabilidade dos modelos de IA."
166
169
  },