@lobehub/lobehub 2.0.0-next.202 → 2.0.0-next.204

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (60) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/apps/desktop/src/main/controllers/SystemCtr.ts +0 -6
  3. package/apps/desktop/src/main/controllers/__tests__/SystemCtr.test.ts +1 -13
  4. package/apps/desktop/src/main/core/App.ts +19 -1
  5. package/apps/desktop/src/main/core/__tests__/App.test.ts +1 -1
  6. package/apps/desktop/src/main/core/browser/Browser.ts +5 -12
  7. package/apps/desktop/src/main/core/browser/__tests__/Browser.test.ts +10 -16
  8. package/apps/desktop/src/main/core/ui/TrayManager.ts +1 -1
  9. package/apps/desktop/src/main/core/ui/__tests__/TrayManager.test.ts +3 -3
  10. package/changelog/v1.json +18 -0
  11. package/locales/ar/models.json +48 -7
  12. package/locales/ar/providers.json +0 -1
  13. package/locales/bg-BG/models.json +5 -7
  14. package/locales/bg-BG/providers.json +0 -1
  15. package/locales/de-DE/models.json +47 -6
  16. package/locales/de-DE/providers.json +0 -1
  17. package/locales/en-US/models.json +10 -10
  18. package/locales/en-US/providers.json +0 -1
  19. package/locales/es-ES/models.json +36 -10
  20. package/locales/es-ES/providers.json +0 -1
  21. package/locales/fa-IR/models.json +5 -7
  22. package/locales/fa-IR/providers.json +0 -1
  23. package/locales/fr-FR/models.json +36 -7
  24. package/locales/fr-FR/providers.json +0 -1
  25. package/locales/it-IT/models.json +5 -7
  26. package/locales/it-IT/providers.json +0 -1
  27. package/locales/ja-JP/models.json +49 -10
  28. package/locales/ja-JP/providers.json +0 -1
  29. package/locales/ko-KR/models.json +48 -7
  30. package/locales/ko-KR/providers.json +0 -1
  31. package/locales/nl-NL/models.json +4 -4
  32. package/locales/nl-NL/providers.json +0 -1
  33. package/locales/pl-PL/models.json +30 -5
  34. package/locales/pl-PL/providers.json +0 -1
  35. package/locales/pt-BR/models.json +51 -6
  36. package/locales/pt-BR/providers.json +0 -1
  37. package/locales/ru-RU/models.json +5 -7
  38. package/locales/ru-RU/providers.json +0 -1
  39. package/locales/tr-TR/models.json +5 -7
  40. package/locales/tr-TR/providers.json +0 -1
  41. package/locales/vi-VN/models.json +5 -7
  42. package/locales/vi-VN/providers.json +0 -1
  43. package/locales/zh-CN/models.json +61 -6
  44. package/locales/zh-CN/providers.json +0 -1
  45. package/locales/zh-TW/models.json +32 -7
  46. package/locales/zh-TW/providers.json +0 -1
  47. package/package.json +1 -1
  48. package/packages/model-bank/package.json +1 -0
  49. package/packages/model-bank/src/aiModels/index.ts +3 -0
  50. package/packages/model-bank/src/aiModels/xiaomimimo.ts +24 -0
  51. package/packages/model-bank/src/const/modelProvider.ts +1 -0
  52. package/packages/model-bank/src/modelProviders/index.ts +3 -0
  53. package/packages/model-bank/src/modelProviders/xiaomimimo.ts +22 -0
  54. package/packages/model-runtime/src/index.ts +1 -0
  55. package/packages/model-runtime/src/providers/xiaomimimo/index.test.ts +147 -0
  56. package/packages/model-runtime/src/providers/xiaomimimo/index.ts +48 -0
  57. package/packages/model-runtime/src/runtimeMap.ts +2 -0
  58. package/packages/model-runtime/src/utils/modelParse.ts +6 -0
  59. package/src/envs/llm.ts +6 -0
  60. package/src/features/ElectronTitlebar/hooks/useWatchThemeUpdate.ts +7 -2
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
273
273
  "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo carro-chefe Claude 3 Opus em muitos benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, ele apresenta melhorias em diversas habilidades e supera o maior modelo anterior, Claude 3 Opus, em muitos testes de inteligência.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas de agentes.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou raciocínio passo a passo com controle refinado para usuários da API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo com processo visível.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
289
289
  "codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo aprimorado e cadeia de pensamento para tarefas de análise profunda.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo aprimorado e cadeia de pensamento para tarefas de análise profunda.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
358
- "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Em benchmarks públicos, atinge níveis comparáveis ao GPT-5 e é o primeiro a integrar pensamento ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
358
+ "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Ele mantém o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento no meio, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 é um modelo de código MoE de código aberto com desempenho forte em tarefas de programação, comparável ao GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 é um modelo de código MoE de código aberto com desempenho forte em tarefas de programação, comparável ao GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versão completa rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
379
379
  "deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utiliza dados de início a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "O modo de raciocínio do DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
382
382
  "deepseek-v2.description": "DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@@ -413,6 +413,51 @@
413
413
  "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B é destilado do Llama-3.3-70B-Instruct. Como parte da série DeepSeek-R1, é ajustado com amostras geradas pelo DeepSeek-R1 e apresenta desempenho forte em matemática, programação e raciocínio.",
414
414
  "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B é destilado do Qwen2.5-14B e ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, oferecendo raciocínio robusto.",
415
415
  "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B é destilado do Qwen2.5-32B e ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, destacando-se em matemática, programação e raciocínio.",
416
+ "devstral-2:123b.description": "Devstral 2 123B se destaca no uso de ferramentas para explorar bases de código, editar múltiplos arquivos e apoiar agentes de engenharia de software.",
417
+ "doubao-1.5-lite-32k.description": "Doubao-1.5-lite é um novo modelo leve com resposta ultrarrápida, oferecendo qualidade e latência de alto nível.",
418
+ "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k é uma atualização abrangente do Doubao-1.5-Pro, com melhoria de 10% no desempenho geral. Suporta uma janela de contexto de 256k e até 12k tokens de saída, oferecendo maior desempenho, janela ampliada e excelente custo-benefício para casos de uso mais amplos.",
419
+ "doubao-1.5-pro-32k.description": "Doubao-1.5-pro é um modelo carro-chefe de nova geração com melhorias em todas as áreas, destacando-se em conhecimento, programação e raciocínio.",
420
+ "doubao-1.5-thinking-pro-m.description": "Doubao-1.5 é um novo modelo de raciocínio profundo (a versão m inclui raciocínio multimodal nativo) que se destaca em matemática, programação, raciocínio científico e tarefas gerais como escrita criativa. Alcança ou se aproxima de resultados de ponta em benchmarks como AIME 2024, Codeforces e GPQA. Suporta uma janela de contexto de 128k e 16k de saída.",
421
+ "doubao-1.5-thinking-pro.description": "Doubao-1.5 é um novo modelo de raciocínio profundo que se destaca em matemática, programação, raciocínio científico e tarefas gerais como escrita criativa. Alcança ou se aproxima de resultados de ponta em benchmarks como AIME 2024, Codeforces e GPQA. Suporta uma janela de contexto de 128k e 16k de saída.",
422
+ "doubao-1.5-thinking-vision-pro.description": "Um novo modelo visual de raciocínio profundo com compreensão e raciocínio multimodal mais fortes, alcançando resultados SOTA em 37 de 59 benchmarks públicos.",
423
+ "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS é um modelo de agente com foco nativo em interfaces gráficas, interagindo perfeitamente com interfaces por meio de percepção, raciocínio e ação semelhantes aos humanos.",
424
+ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções. Suporta uma janela de contexto de 128k e até 16k tokens de saída.",
425
+ "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções.",
426
+ "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções.",
427
+ "doubao-lite-128k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo escolhas mais flexíveis em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 128k.",
428
+ "doubao-lite-32k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo escolhas mais flexíveis em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 32k.",
429
+ "doubao-lite-4k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo escolhas mais flexíveis em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 4k.",
430
+ "doubao-pro-256k.description": "O modelo carro-chefe com melhor desempenho para tarefas complexas, com resultados fortes em QA com referência, sumarização, criação, classificação de texto e simulação de papéis. Suporta raciocínio e ajuste fino com janela de contexto de 256k.",
431
+ "doubao-pro-32k.description": "O modelo carro-chefe com melhor desempenho para tarefas complexas, com resultados fortes em QA com referência, sumarização, criação, classificação de texto e simulação de papéis. Suporta raciocínio e ajuste fino com janela de contexto de 32k.",
432
+ "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash é um modelo multimodal de raciocínio profundo ultrarrápido com TPOT de até 10ms. Suporta entrada de texto e imagem, supera o modelo lite anterior em compreensão de texto e se equipara a modelos pro concorrentes em visão. Suporta janela de contexto de 256k e até 16k tokens de saída.",
433
+ "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite é um novo modelo multimodal de raciocínio profundo com esforço de raciocínio ajustável (Mínimo, Baixo, Médio, Alto), oferecendo melhor custo-benefício e uma escolha sólida para tarefas comuns, com janela de contexto de até 256k.",
434
+ "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 fortalece significativamente o raciocínio, melhorando ainda mais as habilidades centrais em programação, matemática e raciocínio lógico em relação ao Doubao-1.5-thinking-pro, além de adicionar compreensão visual. Suporta uma janela de contexto de 256k e até 16k tokens de saída.",
435
+ "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision é um modelo visual de raciocínio profundo que oferece compreensão e raciocínio multimodal mais fortes para educação, revisão de imagens, inspeção/segurança e perguntas e respostas com busca por IA. Suporta uma janela de contexto de 256k e até 64k tokens de saída.",
436
+ "doubao-seed-1.6.description": "Doubao-Seed-1.6 é um novo modelo multimodal de raciocínio profundo com modos automático, com raciocínio e sem raciocínio. No modo sem raciocínio, supera significativamente o Doubao-1.5-pro/250115. Suporta uma janela de contexto de 256k e até 16k tokens de saída.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 possui capacidades aprimoradas de compreensão multimodal e de agentes, suportando entrada de texto/imagem/vídeo e cache de contexto, oferecendo desempenho superior em tarefas complexas.",
438
+ "doubao-seed-code.description": "Doubao-Seed-Code é otimizado para programação com agentes, suporta entradas multimodais (texto/imagem/vídeo) e janela de contexto de 256k, compatível com a API da Anthropic, ideal para fluxos de trabalho de programação, compreensão visual e agentes.",
439
+ "doubao-seededit-3-0-i2i-250628.description": "O modelo de imagem Doubao da ByteDance Seed suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Suporta edição de imagem guiada por texto, com tamanhos de saída entre 512 e 1536 no lado maior.",
440
+ "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 é um modelo de geração de imagem da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
441
+ "doubao-seedream-4-0-250828.description": "Seedream 4.0 é um modelo de geração de imagem da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
442
+ "doubao-vision-lite-32k.description": "Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguimento preciso de instruções. Apresenta bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
443
+ "doubao-vision-pro-32k.description": "Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguimento preciso de instruções. Apresenta bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
444
+ "emohaa.description": "Emohaa é um modelo voltado para saúde mental com habilidades profissionais de aconselhamento para ajudar os usuários a compreender questões emocionais.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B é um modelo leve de código aberto para implantação local e personalizada.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B é um modelo de código aberto com grande número de parâmetros e melhor capacidade de compreensão e geração.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B é o modelo MoE ultra-grande da Baidu ERNIE com excelente raciocínio.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview é um modelo de pré-visualização com janela de contexto de 8K para avaliação do ERNIE 4.5.",
449
+ "ernie-4.5-turbo-128k-preview.description": "Pré-visualização do ERNIE 4.5 Turbo 128K com capacidades de nível de lançamento, adequado para integração e testes canário.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K é um modelo geral de alto desempenho com aumento de busca e chamada de ferramentas para QA, programação e cenários com agentes.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K é uma versão de contexto médio para QA, recuperação de base de conhecimento e diálogo de múltiplas voltas.",
452
+ "ernie-4.5-turbo-latest.description": "Última versão do ERNIE 4.5 Turbo com desempenho geral otimizado, ideal como modelo principal de produção.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "Pré-visualização multimodal do ERNIE 4.5 Turbo VL 32K para avaliação da capacidade de visão com contexto longo.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K é uma versão multimodal de contexto médio-longo para compreensão combinada de documentos longos e imagens.",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest é a versão multimodal mais recente com melhor compreensão e raciocínio imagem-texto.",
456
+ "ernie-4.5-turbo-vl-preview.description": "Pré-visualização multimodal do ERNIE 4.5 Turbo VL para compreensão e geração imagem-texto, adequado para QA visual e compreensão de conteúdo.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL é um modelo multimodal maduro para compreensão e reconhecimento imagem-texto em produção.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B é um modelo multimodal de código aberto para compreensão e raciocínio imagem-texto.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking é um modelo carro-chefe nativo totalmente multimodal com modelagem unificada de texto, imagem, áudio e vídeo. Oferece amplas melhorias de capacidade para QA complexo, criação e cenários com agentes.",
460
+ "ernie-5.0-thinking-preview.description": "Pré-visualização do Wenxin 5.0 Thinking, um modelo carro-chefe nativo totalmente multimodal com modelagem unificada de texto, imagem, áudio e vídeo. Oferece amplas melhorias de capacidade para QA complexo, criação e cenários com agentes.",
416
461
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
417
462
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
418
463
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
30
30
  "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
31
31
  "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
32
- "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
33
32
  "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
34
33
  "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
35
34
  "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
272
272
  "claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
273
273
  "claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, демонстрирующая улучшенные навыки и превосходящая предыдущий флагман Claude 3 Opus по многим метрикам.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, она демонстрирует улучшенные навыки и превосходит предыдущую крупнейшую модель Claude 3 Opus по многим интеллектуальным метрикам.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель рассуждения, обеспечивающая как мгновенные ответы, так и углублённое пошаговое мышление с тонкой настройкой.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель рассуждения. Она может мгновенно выдавать ответы или пошагово рассуждать с видимым процессом. Особенно сильна в программировании, анализе данных, компьютерном зрении и задачах для агентов.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, сочетающая молниеносную скорость с возможностью углублённого мышления.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель Haiku от Anthropic, сочетающая молниеносную скорость и расширенные возможности рассуждения.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высокосложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 самая интеллектуальная модель Anthropic на сегодняшний день, обеспечивающая мгновенные ответы или пошаговое мышление с тонкой настройкой для пользователей API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 может выдавать мгновенные ответы или пошаговые рассуждения с наглядным процессом.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
289
289
  "codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
@@ -355,7 +355,6 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями сложного анализа и цепочечного мышления.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями сложного анализа и цепочечного мышления.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается выдающимися результатами в визуальном QA, OCR, понимании документов/таблиц/диаграмм и визуальной привязке.",
358
- "deepseek-chat.description": "DeepSeek V3.2 сочетает в себе рассуждение и длину вывода для повседневных задач вопросов-ответов и агентов. На публичных бенчмарках достигает уровня GPT-5 и первым интегрирует мышление в использование инструментов, лидируя в оценках open-source агентов.",
359
358
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
360
359
  "deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
361
360
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
@@ -378,7 +377,6 @@
378
377
  "deepseek-r1-fast-online.description": "Полная версия DeepSeek R1 с быстрым откликом и поиском в реальном времени, сочетающая возможности масштаба 671B и высокую скорость.",
379
378
  "deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671 миллиардами параметров и поиском в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
380
379
  "deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа обучения с подкреплением и демонстрирует сопоставимую с OpenAI-o1 производительность в задачах математики, программирования и логического вывода.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking — модель глубокого рассуждения, которая генерирует цепочку размышлений перед выводом для повышения точности. Демонстрирует лучшие результаты в соревнованиях и уровень рассуждения, сопоставимый с Gemini-3.0-Pro.",
382
380
  "deepseek-v2.description": "DeepSeek V2 — это эффективная модель MoE для экономичной обработки данных.",
383
381
  "deepseek-v2:236b.description": "DeepSeek V2 236B — модель, ориентированная на программирование, с высокой способностью к генерации кода.",
384
382
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671 миллиардами параметров, обладающая выдающимися возможностями в программировании, техническом анализе, понимании контекста и работе с длинными текстами.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
30
30
  "jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
31
31
  "lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
32
- "lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
33
32
  "minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
34
33
  "mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
35
34
  "modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.",
272
272
  "claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
273
273
  "claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modeli olup, yeteneklerde gelişme sağlar ve birçok ölçüt açısından önceki amiral gemisi Claude 3 Opus'u geride bırakır.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modelidir. Claude 3 Haiku'ya kıyasla yeteneklerinde gelişme gösterir ve birçok zeka testinde önceki en büyük model olan Claude 3 Opus'u geride bırakır.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7, Anthropic'in en zeki modeli olup, pazardaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar veya ayrıntılı düşünme süreçlerini hassas kontrolle destekler.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet, Anthropic'in en zeki modeli olup piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar verebilir veya kullanıcıların adım adım akıl yürütme sürecini görebileceği şekilde uzun açıklamalar sunabilir. Sonnet, özellikle kodlama, veri bilimi, görsel analiz ve ajan görevlerinde güçlüdür.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en zeki Haiku modelidir; yıldırım hızında çalışır ve derinlemesine düşünme yeteneğine sahiptir.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en akıllı Haiku modelidir; yıldırım hızında çalışır ve gelişmiş akıl yürütme yeteneklerine sahiptir.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4, karmaşık görevler için Anthropic'in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstünlük sağlar.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4, Anthropic'in en güçlü modelidir ve yüksek karmaşıklıktaki görevlerde üstün performans, zeka, akıcılık ve anlama kabiliyeti sunar.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4, Anthropic'in bugüne kadarki en zeki modelidir. API kullanıcıları için hassas kontrolle anında yanıtlar veya adım adım düşünme süreçleri sunar.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar verebilir veya görünür bir süreçle adım adım düşünme sunabilir.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic’in bugüne kadarki en zeki modelidir.",
289
289
  "codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
@@ -355,7 +355,6 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir akıl yürütme modelidir.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir akıl yürütme modelidir.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2, yalnızca 4.5B aktif parametreyle güçlü performans sunan, DeepSeekMoE-27B tabanlı MoE görsel-dil modelidir. Görsel Soru-Cevap, OCR, belge/tablo/grafik anlama ve görsel eşleme konularında öne çıkar.",
358
- "deepseek-chat.description": "DeepSeek V3.2, günlük Soru-Cevap ve ajan görevleri için akıl yürütme ve çıktı uzunluğu arasında denge kurar. Kamuya açık kıyaslamalarda GPT-5 seviyelerine ulaşır ve araç kullanımına düşünmeyi entegre eden ilk modeldir; bu da açık kaynaklı ajan değerlendirmelerinde öncülük etmesini sağlar.",
359
358
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar, proje düzeyinde kod tamamlama ve kod parçası doldurma sağlar.",
360
359
  "deepseek-coder-v2.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
361
360
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
@@ -378,7 +377,6 @@
378
377
  "deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenekleri ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.",
379
378
  "deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramalı DeepSeek R1 tam sürüm, güçlü anlama ve üretim sunar.",
380
379
  "deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verisi kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans gösterir.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking, çıktılardan önce düşünce zinciri oluşturarak daha yüksek doğruluk sağlayan derin akıl yürütme modelidir. En iyi yarışma sonuçlarına ulaşır ve akıl yürütme yeteneği Gemini-3.0-Pro ile karşılaştırılabilir düzeydedir.",
382
380
  "deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.",
383
381
  "deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi yeteneklerine sahip DeepSeek’in kod odaklı modelidir.",
384
382
  "deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Büyük model araştırmaları ve araçları üzerine odaklanan açık kaynaklı bir organizasyon. En son modelleri ve algoritmaları erişilebilir kılan verimli ve kullanıcı dostu bir platform sağlar.",
30
30
  "jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.",
31
31
  "lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.",
32
- "lobehub.description": "LobeHub Cloud, yapay zeka modellerine erişmek için resmi API'leri kullanır ve kullanım miktarını model jetonlarına bağlı Krediler ile ölçer.",
33
32
  "minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.",
34
33
  "mistral.description": "Mistral, karmaşık akıl yürütme, çok dilli görevler ve kod üretimi için gelişmiş genel, özel ve araştırma modelleri sunar. Özelleştirilmiş entegrasyonlar için işlev çağrısını destekler.",
35
34
  "modelscope.description": "ModelScope, Alibaba Cloud’un model-hizmet olarak sunduğu platformudur. Geniş bir yapay zeka modeli ve çıkarım hizmeti yelpazesi sunar.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực, kết hợp khả năng hiểu và sinh văn bản mạnh mẽ cho các tình huống sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.",
272
272
  "claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
273
273
  "claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic, cải thiện toàn diện các kỹ năng và vượt qua mô hình hàng đầu trước đó Claude 3 Opus trên nhiều tiêu chuẩn đánh giá.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic. So với Claude 3 Haiku, cải thiện toàn diện về kỹ năng và vượt qua mô hình lớn nhất trước đó Claude 3 Opus trong nhiều bài kiểm tra trí tuệ.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku cung cấp phản hồi nhanh cho các tác vụ nhẹ.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 là mô hình thông minh nhất của Anthropic và là mô hình lai đầu tiên trên thị trường hỗ trợ phản hồi gần như tức thì hoặc duy kéo dài với khả năng kiểm soát chi tiết.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic và là mô hình lai đầu tiên về suy luận trên thị trường. thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng người dùng thể quan sát. Sonnet đặc biệt mạnh về lập trình, khoa học dữ liệu, thị giác máy tính và các tác vụ đại lý.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn và triển khai quy mô lớn đáng tin cậy.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, kết hợp tốc độ chớp nhoáng với khả năng duy sâu.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ cực nhanh khả năng suy luận mở rộng.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu ngôn ngữ.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp cao, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 hình thông minh nhất của Anthropic tính đến hiện tại, cung cấp phản hồi gần như tức thì hoặc duy từng bước kéo dài với khả năng kiểm soát chi tiết dành cho người dùng API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 thể tạo phản hồi gần như tức thì hoặc suy nghĩ từng bước với quy trình hiển thị ràng.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
289
289
  "codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.",
@@ -355,7 +355,6 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 là mô hình lập luận thế hệ mới với khả năng suy luận phức tạp và chuỗi tư duy mạnh mẽ, phù hợp cho các tác vụ phân tích chuyên sâu.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 là mô hình lập luận thế hệ mới với khả năng suy luận phức tạp và chuỗi tư duy mạnh mẽ, phù hợp cho các tác vụ phân tích chuyên sâu.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 là mô hình thị giác-ngôn ngữ MoE dựa trên DeepSeekMoE-27B với kích hoạt thưa, đạt hiệu suất cao chỉ với 4.5B tham số hoạt động. Mô hình vượt trội trong các tác vụ hỏi đáp hình ảnh, OCR, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh.",
358
- "deepseek-chat.description": "DeepSeek V3.2 cân bằng giữa khả năng lập luận và độ dài đầu ra, phù hợp cho hỏi đáp hàng ngày và tác vụ tác nhân. Trên các chuẩn đánh giá công khai, mô hình đạt mức tương đương GPT-5 và là mô hình mã nguồn mở đầu tiên tích hợp tư duy vào việc sử dụng công cụ, dẫn đầu trong các đánh giá tác nhân mã nguồn mở.",
359
358
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B là mô hình ngôn ngữ lập trình được huấn luyện trên 2 nghìn tỷ token (87% mã nguồn, 13% văn bản tiếng Trung/Anh). Mô hình hỗ trợ cửa sổ ngữ cảnh 16K và nhiệm vụ điền vào giữa, cung cấp khả năng hoàn thành mã ở cấp độ dự án và chèn đoạn mã.",
360
359
  "deepseek-coder-v2.description": "DeepSeek Coder V2 là mô hình mã nguồn mở MoE chuyên về lập trình, đạt hiệu suất tương đương GPT-4 Turbo.",
361
360
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 là mô hình mã nguồn mở MoE chuyên về lập trình, đạt hiệu suất tương đương GPT-4 Turbo.",
@@ -378,7 +377,6 @@
378
377
  "deepseek-r1-fast-online.description": "Phiên bản đầy đủ DeepSeek R1 nhanh với tìm kiếm web thời gian thực, kết hợp khả năng 671B và phản hồi nhanh hơn.",
379
378
  "deepseek-r1-online.description": "Phiên bản đầy đủ DeepSeek R1 với 671B tham số và tìm kiếm web thời gian thực, mang lại khả năng hiểu và tạo nội dung mạnh mẽ hơn.",
380
379
  "deepseek-r1.description": "DeepSeek-R1 sử dụng dữ liệu khởi động lạnh trước học tăng cường và đạt hiệu suất tương đương OpenAI-o1 trong toán học, lập trình và lập luận.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking là mô hình lập luận sâu tạo chuỗi tư duy trước khi đưa ra kết quả nhằm tăng độ chính xác, đạt kết quả hàng đầu trong các cuộc thi và khả năng lập luận tương đương Gemini-3.0-Pro.",
382
380
  "deepseek-v2.description": "DeepSeek V2 là mô hình MoE hiệu quả cho xử lý tiết kiệm chi phí.",
383
381
  "deepseek-v2:236b.description": "DeepSeek V2 236B là mô hình tập trung vào mã nguồn của DeepSeek với khả năng tạo mã mạnh mẽ.",
384
382
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật về lập trình, khả năng kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Tổ chức mã nguồn mở tập trung vào nghiên cứu mô hình lớn và công cụ, cung cấp nền tảng hiệu quả, dễ sử dụng để tiếp cận các mô hình và thuật toán tiên tiến.",
30
30
  "jina.description": "Thành lập năm 2020, Jina AI là công ty hàng đầu về AI tìm kiếm. Bộ công cụ tìm kiếm của họ bao gồm mô hình vector, bộ xếp hạng lại và mô hình ngôn ngữ nhỏ để xây dựng ứng dụng tìm kiếm sinh và đa phương thức chất lượng cao.",
31
31
  "lmstudio.description": "LM Studio là ứng dụng máy tính để phát triển và thử nghiệm LLM ngay trên máy của bạn.",
32
- "lobehub.description": "LobeHub Cloud sử dụng API chính thức để truy cập các mô hình AI và tính mức sử dụng bằng Tín dụng dựa trên số lượng token của mô hình.",
33
32
  "minimax.description": "Thành lập năm 2021, MiniMax xây dựng AI đa năng với các mô hình nền tảng đa phương thức, bao gồm mô hình văn bản MoE hàng nghìn tỷ tham số, mô hình giọng nói và thị giác, cùng các ứng dụng như Hailuo AI.",
34
33
  "mistral.description": "Mistral cung cấp các mô hình tổng quát, chuyên biệt và nghiên cứu tiên tiến cho suy luận phức tạp, tác vụ đa ngôn ngữ và tạo mã, với khả năng gọi hàm cho tích hợp tùy chỉnh.",
35
34
  "modelscope.description": "ModelScope là nền tảng mô hình dưới dạng dịch vụ của Alibaba Cloud, cung cấp nhiều mô hình AI và dịch vụ suy luận.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
272
272
  "claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
273
273
  "claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型,在多项技能上实现提升,并在多个基准测试中超越前旗舰 Claude 3 Opus。",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型。相较于 Claude 3 Haiku,其在多项能力上均有提升,并在众多智能基准测试中超越了此前的最大模型 Claude 3 Opus。",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智能的模型,也是市场上首个混合推理模型,支持近乎即时响应或细致的深度思考,并可精细控制。",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智能的模型,也是市场上首个混合推理模型。它既可实现近乎即时的响应,也支持用户可见的逐步推理过程。Sonnet 在编程、数据科学、视觉处理和智能体任务方面表现尤为出色。",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快且最智能的 Haiku 模型,具备闪电般的速度与深度思考能力。",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快、最智能的 Haiku 模型,具备闪电般的响应速度和增强的推理能力。",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今为止最智能的模型,支持近乎即时响应或逐步深入思考,API 用户可实现精细控制。",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 可实现近乎即时的响应,或通过可视化过程进行逐步推理。",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
289
289
  "codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活机制,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位任务。",
358
- "deepseek-chat.description": "DeepSeek V3.2 在推理能力与输出长度之间实现平衡,适用于日常问答与智能体任务。在公开基准测试中达到 GPT-5 水平,并率先将思考能力融入工具使用,在开源智能体评估中表现领先。",
358
+ "deepseek-chat.description": "一款结合通用能力与编程能力的开源模型。它保留了聊天模型的对话能力和编程模型的强大编程能力,并在偏好对齐方面表现更佳。DeepSeek-V2.5 还提升了写作和指令遵循能力。",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练数据达 2T(87% 代码,13% 中英文文本)。引入 16K 上下文窗口与中间填充任务,支持项目级代码补全与片段填充。",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编码模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编码模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支持实时网页搜索,结合 671B 规模能力与更快响应。",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 全量版,具备 671B 参数与实时网页搜索能力,提供更强理解与生成能力。",
380
380
  "deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,数学、编程与推理任务表现可与 OpenAI-o1 相媲美。",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,在输出前生成思维链以提升准确性,在竞赛中表现优异,推理能力可媲美 Gemini-3.0-Pro。",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 推理模式在给出最终答案前输出思维链,以提升准确性。",
382
382
  "deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。",
@@ -471,6 +471,61 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超轻量模型,适用于简单问答、分类与低成本推理。",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文,适用于复杂推理与多轮对话。",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款思考模型预览版,用于评估与测试。",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字节跳动 Seed 团队推出的图像生成模型,支持文本和图像输入,具备高度可控的高质量图像生成能力,可根据文本提示生成图像。",
475
+ "fal-ai/flux-kontext/dev.description": "FLUX.1 模型专注于图像编辑,支持文本和图像输入。",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [专业版] 支持文本和参考图像输入,实现目标区域编辑和复杂场景的整体变换。",
477
+ "fal-ai/flux/krea.description": "Flux Krea [开发版] 是一款图像生成模型,偏好生成更真实自然的图像风格。",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] 是一款拥有 120 亿参数的图像生成模型,专为快速高质量输出而设计。",
479
+ "fal-ai/hunyuan-image/v3.description": "一款强大的原生多模态图像生成模型。",
480
+ "fal-ai/imagen4/preview.description": "来自 Google 的高质量图像生成模型。",
481
+ "fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持通过对话生成和编辑图像。",
482
+ "fal-ai/qwen-image-edit.description": "来自 Qwen 团队的专业图像编辑模型,支持语义和外观编辑,精确处理中英文文本,并实现风格迁移、物体旋转等高质量编辑。",
483
+ "fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具备出色的中文文本渲染能力和多样化视觉风格。",
484
+ "flux-1-schnell.description": "来自 Black Forest Labs 的 120 亿参数文本转图像模型,采用潜在对抗扩散蒸馏技术,在 1-4 步内生成高质量图像。性能媲美闭源模型,采用 Apache-2.0 许可,适用于个人、研究和商业用途。",
485
+ "flux-dev.description": "FLUX.1 [开发版] 是一款开源权重蒸馏模型,仅限非商业用途。在保持接近专业图像质量和指令遵循能力的同时,运行效率更高,资源利用优于同等规模标准模型。",
486
+ "flux-kontext-max.description": "最先进的上下文图像生成与编辑模型,结合文本与图像输入,实现精确且连贯的结果。",
487
+ "flux-kontext-pro.description": "最先进的上下文图像生成与编辑模型,结合文本与图像输入,实现精确且连贯的结果。",
488
+ "flux-merged.description": "FLUX.1-merged 融合了“开发版”中的深度特征与“Schnell”版本的高速优势,拓展性能边界,拓宽应用场景。",
489
+ "flux-pro-1.1-ultra.description": "超高分辨率图像生成,输出达 400 万像素,10 秒内生成清晰图像。",
490
+ "flux-pro-1.1.description": "升级版专业图像生成模型,图像质量卓越,提示词响应精准。",
491
+ "flux-pro.description": "顶级商业图像生成模型,图像质量无与伦比,输出多样丰富。",
492
+ "flux-schnell.description": "FLUX.1 [schnell] 是最先进的开源少步图像生成模型,超越同类竞品,甚至优于 Midjourney v6.0 和 DALL-E 3(高清版)等强大非蒸馏模型。其精调保留了预训练多样性,显著提升视觉质量、指令遵循、尺寸/比例变化、字体处理和输出多样性。",
493
+ "flux.1-schnell.description": "FLUX.1-schnell 是一款高性能图像生成模型,支持快速多风格输出。",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001(调优版)为复杂任务提供稳定、可调的性能。",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002(调优版)为复杂任务提供强大的多模态支持。",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro 是 Google 的高性能 AI 模型,适用于大规模任务。",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 是一款高效的多模态模型,适用于广泛应用场景。",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 是一款高效的多模态模型,适用于大规模部署。",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 是最新实验模型,在文本和多模态应用中表现显著提升。",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B 是一款高效的多模态模型,适用于大规模部署。",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B 是一款高效的多模态模型,适用于广泛应用场景。",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 优化了多模态处理能力,适用于复杂任务。",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash 是 Google 最新的多模态 AI 模型,处理速度快,支持文本、图像和视频输入,适用于高效任务扩展。",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 是一款可扩展的多模态 AI 解决方案,适用于复杂任务。",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 是最新的生产就绪模型,输出质量更高,尤其适用于数学、长上下文和视觉任务。",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 提供强大的多模态处理能力,为应用开发提供更大灵活性。",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 应用了最新优化,提升多模态处理效率。",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro 支持最多 200 万个 token,是一款适用于复杂任务的中型多模态模型。",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash 提供下一代功能,包括卓越速度、原生工具使用、多模态生成和 100 万 token 上下文窗口。",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Gemini 2.0 Flash 实验模型,支持图像生成。",
511
+ "gemini-2.0-flash-exp.description": "Gemini 2.0 Flash 变体,优化成本效率和低延迟。",
512
+ "gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash 变体,优化成本效率和低延迟。",
513
+ "gemini-2.0-flash-lite.description": "Gemini 2.0 Flash 变体,优化成本效率和低延迟。",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash 提供下一代功能,包括卓越速度、原生工具使用、多模态生成和 100 万 token 上下文窗口。",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
517
+ "gemini-2.5-flash-image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview 是 Google 最小、性价比最高的模型,适用于大规模使用。",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite 2025 年 9 月 25 日预览版发布。",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite 是 Google 最小、性价比最高的模型,适用于大规模使用。",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview 是 Google 性价比最高的模型,具备完整能力。",
523
+ "gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash 2025 年 9 月 25 日预览版发布。",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash 是 Google 性价比最高的模型,具备完整能力。",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview 是 Google 最先进的推理模型,擅长代码、数学和 STEM 问题推理,能分析大规模数据集、代码库和长文档。",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview 是 Google 最先进的推理模型,擅长代码、数学和 STEM 问题推理,能分析大规模数据集、代码库和长文档。",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview 是 Google 最先进的推理模型,擅长代码、数学和 STEM 问题推理,能分析大规模数据集、代码库和长文档。",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗舰推理模型,支持长上下文,适用于复杂任务。",
474
529
  "gemini-flash-latest.description": "Latest release of Gemini Flash",
475
530
  "gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
476
531
  "gemini-pro-latest.description": "Latest release of Gemini Pro",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。",
30
30
  "jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
31
31
  "lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
32
- "lobehub.description": "LobeHub Cloud 使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。",
33
32
  "minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI,拥有多模态基础模型,包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
34
33
  "mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。",
35
34
  "modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
272
272
  "claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
273
273
  "claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的次世代最快模型,在多項技能上全面提升,並在多項基準測試中超越前一代旗艦 Claude 3 Opus。",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 最新一代中速度最快的模型。相較於 Claude 3 Haiku,其在多項技能上皆有提升,並在多項智能基準測試中超越先前最大模型 Claude 3 Opus。",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智慧的模型,也是市場上首個混合推理模型,支援即時回應與延伸思考,並提供細緻的控制能力。",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最具智慧的模型,也是市場上首個混合推理模型。它能夠即時回應,或進行可視化的逐步推理。Sonnet 尤其擅長程式設計、資料科學、視覺處理與智能代理任務。",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快且最智慧的 Haiku 模型,具備閃電般的速度與延伸思考能力。",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 最快且最聰明的 Haiku 模型,具備閃電般的速度與延伸推理能力。",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜任務而設,於效能、智慧、流暢度與理解力方面表現卓越。",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜任務而設計,表現出色,具備卓越的智能、流暢度與理解力。",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今最智慧的模型,為 API 使用者提供即時回應或逐步思考的能力,並具備細緻控制功能。",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 能夠即時回應,或進行可視化的逐步思考過程。",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
289
289
  "codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。",
358
- "deepseek-chat.description": "DeepSeek V3.2 在推理與輸出長度之間取得平衡,適用於日常問答與智能代理任務。其公開基準測試達到 GPT-5 水準,並首創將思考整合至工具使用,在開源代理評估中表現領先。",
358
+ "deepseek-chat.description": "一款結合通用與程式能力的開源模型。保留聊天模型的對話能力與程式模型的強大編碼能力,並提升偏好對齊。DeepSeek-V2.5 也在寫作與指令遵循方面有所進步。",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。",
380
380
  "deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,在輸出前先生成思考鏈以提升準確性,在競賽中表現優異,推理能力媲美 Gemini-3.0-Pro。",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 推理模式會在最終答案前輸出思考鏈,以提升準確性。",
382
382
  "deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。",
@@ -456,6 +456,31 @@
456
456
  "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL 預覽版是一款多模態模型,適用於圖文理解與生成,支援視覺問答與內容理解。",
457
457
  "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL 是一款成熟的多模態模型,適用於生產級圖文理解與識別。",
458
458
  "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B 是一款開源多模態模型,支援圖文理解與推理。",
459
+ "ernie-5.0-thinking-latest.description": "文心 5.0 思考版是一款原生全模態旗艦模型,整合文字、圖像、音訊與影片建模,全面升級複雜問答、創作與智能體場景的能力。",
460
+ "ernie-5.0-thinking-preview.description": "文心 5.0 思考預覽版是一款原生全模態旗艦模型,整合文字、圖像、音訊與影片建模,全面升級複雜問答、創作與智能體場景的能力。",
461
+ "ernie-char-8k.description": "ERNIE 角色 8K 是一款面向 IP 角色塑造與長期陪伴對話的角色對話模型。",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE 角色小說 8K 預覽版是一款面向角色與情節創作的模型預覽,用於功能評估與測試。",
463
+ "ernie-char-fiction-8k.description": "ERNIE 角色小說 8K 是一款面向小說與情節創作的角色模型,適合長篇故事生成。",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit 是一款支援擦除、重繪與變體生成的圖像編輯模型。",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K 是一款輕量級通用模型,適用於成本敏感的日常問答與內容生成。",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K 是一款輕量高效能模型,適用於延遲與成本敏感場景。",
467
+ "ernie-novel-8k.description": "ERNIE 小說 8K 專為長篇小說與 IP 情節創作打造,支援多角色敘事。",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K 是一款免 I/O 費用模型,適用於長文本理解與大規模試用。",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K 是一款免費、快速的模型,適合日常聊天與輕量文本任務。",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K 是一款高併發、高價值模型,適用於大規模線上服務與企業應用。",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超輕量模型,適合簡單問答、分類與低成本推理。",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具備 32K 上下文,適合複雜推理與多輪對話。",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 預覽版是一款思考模型預覽,用於評估與測試。",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字節跳動 Seed 團隊推出的圖像生成模型,支援文字與圖像輸入,實現高度可控與高品質的圖像生成,能根據文字提示生成圖像。",
475
+ "fal-ai/flux-kontext/dev.description": "FLUX.1 模型專注於圖像編輯,支援文字與圖像輸入。",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文字與參考圖像輸入,實現目標區域編輯與複雜場景轉換。",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] 是一款圖像生成模型,偏好更真實自然的美學風格。",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] 是一款具備 120 億參數的圖像生成模型,專為快速高品質輸出打造。",
479
+ "fal-ai/hunyuan-image/v3.description": "一款強大的原生多模態圖像生成模型。",
480
+ "fal-ai/imagen4/preview.description": "來自 Google 的高品質圖像生成模型。",
481
+ "fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模態模型,支援透過對話進行圖像生成與編輯。",
482
+ "fal-ai/qwen-image-edit.description": "來自 Qwen 團隊的專業圖像編輯模型,支援語義與外觀編輯,能精準處理中英文文字,並實現風格轉換、物體旋轉等高品質編輯。",
483
+ "fal-ai/qwen-image.description": "來自 Qwen 團隊的強大圖像生成模型,具備優秀的中文文字渲染與多樣化視覺風格。",
459
484
  "gemini-flash-latest.description": "Gemini Flash 最新版本",
460
485
  "gemini-flash-lite-latest.description": "Gemini Flash-Lite 最新版本",
461
486
  "gemini-pro-latest.description": "Gemini Pro 最新版本",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "一個專注於大型模型研究與工具的開源組織,提供高效、易用的平台,讓尖端模型與演算法更易於取得。",
30
30
  "jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。",
31
31
  "lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。",
32
- "lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型,並以與模型代幣相關的點數(Credits)來計算使用量。",
33
32
  "minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI,擁有多模態基礎模型,包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。",
34
33
  "mistral.description": "Mistral 提供先進的通用、專業與研究模型,支援複雜推理、多語言任務與程式碼生成,並支援函式呼叫以實現自訂整合。",
35
34
  "modelscope.description": "ModelScope 是阿里雲的模型即服務平台,提供多樣化的 AI 模型與推理服務。",