@lobehub/lobehub 2.0.8 → 2.0.10

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (69) hide show
  1. package/.github/workflows/sync.yml +3 -3
  2. package/CHANGELOG.md +50 -0
  3. package/changelog/v2.json +14 -0
  4. package/locales/ar/models.json +53 -0
  5. package/locales/ar/setting.json +2 -0
  6. package/locales/ar/subscription.json +2 -0
  7. package/locales/bg-BG/models.json +32 -0
  8. package/locales/bg-BG/setting.json +2 -0
  9. package/locales/bg-BG/subscription.json +2 -0
  10. package/locales/de-DE/models.json +33 -0
  11. package/locales/de-DE/setting.json +2 -0
  12. package/locales/de-DE/subscription.json +2 -0
  13. package/locales/en-US/subscription.json +2 -0
  14. package/locales/es-ES/models.json +65 -0
  15. package/locales/es-ES/setting.json +2 -0
  16. package/locales/es-ES/subscription.json +2 -0
  17. package/locales/fa-IR/models.json +31 -0
  18. package/locales/fa-IR/setting.json +2 -0
  19. package/locales/fa-IR/subscription.json +2 -0
  20. package/locales/fr-FR/models.json +34 -0
  21. package/locales/fr-FR/setting.json +2 -0
  22. package/locales/fr-FR/subscription.json +2 -0
  23. package/locales/it-IT/models.json +37 -0
  24. package/locales/it-IT/setting.json +2 -0
  25. package/locales/it-IT/subscription.json +2 -0
  26. package/locales/ja-JP/models.json +20 -0
  27. package/locales/ja-JP/setting.json +2 -0
  28. package/locales/ja-JP/subscription.json +2 -0
  29. package/locales/ko-KR/models.json +51 -0
  30. package/locales/ko-KR/setting.json +2 -0
  31. package/locales/ko-KR/subscription.json +2 -0
  32. package/locales/nl-NL/models.json +9 -0
  33. package/locales/nl-NL/setting.json +2 -0
  34. package/locales/nl-NL/subscription.json +2 -0
  35. package/locales/pl-PL/models.json +33 -0
  36. package/locales/pl-PL/setting.json +2 -0
  37. package/locales/pl-PL/subscription.json +2 -0
  38. package/locales/pt-BR/models.json +49 -0
  39. package/locales/pt-BR/setting.json +2 -0
  40. package/locales/pt-BR/subscription.json +2 -0
  41. package/locales/ru-RU/models.json +45 -0
  42. package/locales/ru-RU/setting.json +2 -0
  43. package/locales/ru-RU/subscription.json +2 -0
  44. package/locales/tr-TR/models.json +23 -0
  45. package/locales/tr-TR/setting.json +2 -0
  46. package/locales/tr-TR/subscription.json +2 -0
  47. package/locales/vi-VN/models.json +49 -0
  48. package/locales/vi-VN/setting.json +2 -0
  49. package/locales/vi-VN/subscription.json +2 -0
  50. package/locales/zh-CN/subscription.json +2 -0
  51. package/locales/zh-TW/setting.json +2 -0
  52. package/locales/zh-TW/subscription.json +2 -0
  53. package/package.json +1 -1
  54. package/packages/model-bank/src/aiModels/cerebras.ts +2 -22
  55. package/packages/model-bank/src/aiModels/google.ts +1 -44
  56. package/packages/model-bank/src/aiModels/nvidia.ts +12 -16
  57. package/packages/model-bank/src/aiModels/siliconcloud.ts +20 -0
  58. package/packages/model-bank/src/aiModels/volcengine.ts +69 -0
  59. package/packages/model-bank/src/aiModels/wenxin.ts +41 -38
  60. package/packages/model-bank/src/aiModels/zenmux.ts +4 -4
  61. package/packages/model-bank/src/aiModels/zhipu.ts +58 -28
  62. package/packages/model-bank/src/types/aiModel.ts +29 -0
  63. package/packages/model-runtime/src/core/usageConverters/utils/computeChatCost.test.ts +2 -2
  64. package/packages/model-runtime/src/providers/google/createImage.test.ts +12 -12
  65. package/packages/model-runtime/src/providers/openrouter/index.test.ts +102 -0
  66. package/packages/model-runtime/src/providers/openrouter/index.ts +19 -7
  67. package/packages/model-runtime/src/providers/vercelaigateway/index.test.ts +47 -0
  68. package/packages/model-runtime/src/providers/vercelaigateway/index.ts +7 -1
  69. package/src/locales/default/subscription.ts +2 -0
@@ -944,6 +944,15 @@
944
944
  "o4-mini-2025-04-16.description": "o4-mini é um modelo de raciocínio da OpenAI com entrada de texto+imagem e saída de texto, adequado para tarefas complexas que exigem amplo conhecimento, com janela de contexto de 200K.",
945
945
  "o4-mini-deep-research.description": "o4-mini-deep-research é um modelo de pesquisa profunda mais rápido e acessível para tarefas complexas em múltiplas etapas. Pode buscar na web e acessar seus dados via conectores MCP.",
946
946
  "o4-mini.description": "o4-mini é o mais novo modelo pequeno da série o, otimizado para raciocínio rápido e eficaz com alta eficiência em tarefas de codificação e visão.",
947
+ "open-codestral-mamba.description": "Codestral Mamba é um modelo de linguagem Mamba 2 voltado para geração de código, com suporte a tarefas avançadas de programação e raciocínio.",
948
+ "open-mistral-7b.description": "Mistral 7B é compacto, mas de alto desempenho, ideal para processamento em lote e tarefas simples como classificação e geração de texto, com raciocínio sólido.",
949
+ "open-mistral-nemo.description": "Mistral Nemo é um modelo de 12B co-desenvolvido com a Nvidia, oferecendo desempenho robusto em raciocínio e programação com fácil integração.",
950
+ "open-mixtral-8x22b.description": "Mixtral 8x22B é um modelo MoE de grande porte para tarefas complexas, com raciocínio avançado e alta capacidade de processamento.",
951
+ "open-mixtral-8x7b.description": "Mixtral 8x7B é um modelo MoE esparso que acelera a inferência, adequado para tarefas multilíngues e de geração de código.",
952
+ "openai/gpt-3.5-turbo-instruct.description": "Capacidades semelhantes aos modelos da era GPT-3, compatível com endpoints legados de completions em vez de chat.",
953
+ "openai/gpt-3.5-turbo.description": "O modelo GPT-3.5 mais capaz e econômico da OpenAI, otimizado para chat, mas ainda eficaz em completions clássicos.",
954
+ "openai/gpt-4-turbo.description": "O gpt-4-turbo da OpenAI possui amplo conhecimento geral e expertise em domínios, segue instruções complexas em linguagem natural e resolve problemas difíceis com precisão. O corte de conhecimento é abril de 2023, com janela de contexto de 128k.",
955
+ "openai/gpt-4.1-mini.description": "GPT-4.1 Mini oferece menor latência e melhor custo-benefício para cargas de trabalho de contexto médio.",
947
956
  "openai/gpt-4.1-nano.description": "GPT-4.1 Nano é uma opção de custo ultrabaixo e baixa latência para conversas curtas de alta frequência ou tarefas de classificação.",
948
957
  "openai/gpt-4.1.description": "A série GPT-4.1 oferece janelas de contexto maiores e capacidades aprimoradas de engenharia e raciocínio.",
949
958
  "openai/gpt-4o-mini.description": "GPT-4o-mini é uma variante rápida e compacta do GPT-4o para uso multimodal com baixa latência.",
@@ -999,6 +1008,46 @@
999
1008
  "qianfan-singlepicocr.description": "Qianfan SinglePicOCR é um modelo de OCR para imagem única com reconhecimento de caracteres de alta precisão.",
1000
1009
  "qianfan-vl-70b.description": "Qianfan VL 70B é um grande modelo de linguagem visual para compreensão complexa de imagem e texto.",
1001
1010
  "qianfan-vl-8b.description": "Qianfan VL 8B é um modelo leve de linguagem visual para perguntas e respostas e análise de imagem e texto no dia a dia.",
1011
+ "qvq-72b-preview.description": "QVQ-72B-Preview é um modelo experimental da Qwen focado em aprimorar o raciocínio visual.",
1012
+ "qvq-max.description": "O modelo de raciocínio visual Qwen QVQ aceita entrada visual e gera saídas com cadeia de raciocínio, com desempenho superior em matemática, programação, análise visual, criatividade e tarefas gerais.",
1013
+ "qvq-plus.description": "Modelo de raciocínio visual com entrada de imagem e saída com cadeia de raciocínio. A série qvq-plus sucede a qvq-max, oferecendo raciocínio mais rápido com melhor equilíbrio entre qualidade e custo.",
1014
+ "qwen-3-32b.description": "Qwen 3 32B: forte em tarefas multilíngues e de programação, adequado para uso em produção de médio porte.",
1015
+ "qwen-coder-plus.description": "Modelo de código Qwen.",
1016
+ "qwen-coder-turbo-latest.description": "Modelo de código Qwen.",
1017
+ "qwen-coder-turbo.description": "Modelo de código Qwen.",
1018
+ "qwen-flash.description": "Modelo Qwen mais rápido e de menor custo, ideal para tarefas simples.",
1019
+ "qwen-image-edit.description": "Qwen Image Edit é um modelo de imagem para imagem que edita imagens com base em imagens de entrada e comandos de texto, permitindo ajustes precisos e transformações criativas.",
1020
+ "qwen-image.description": "Qwen-Image é um modelo geral de geração de imagens que suporta múltiplos estilos artísticos e renderização complexa de texto, especialmente em chinês e inglês. Suporta layouts em várias linhas, texto em nível de parágrafo e detalhes refinados para composições complexas de texto e imagem.",
1021
+ "qwen-long.description": "Modelo Qwen ultra-grande com contexto longo e suporte a chat em cenários com múltiplos documentos.",
1022
+ "qwen-math-plus-latest.description": "Qwen Math é um modelo de linguagem especializado na resolução de problemas matemáticos.",
1023
+ "qwen-math-plus.description": "Qwen Math é um modelo de linguagem especializado na resolução de problemas matemáticos.",
1024
+ "qwen-math-turbo-latest.description": "Qwen Math é um modelo de linguagem especializado na resolução de problemas matemáticos.",
1025
+ "qwen-math-turbo.description": "Qwen Math é um modelo de linguagem especializado na resolução de problemas matemáticos.",
1026
+ "qwen-max.description": "Modelo Qwen ultra-grande com escala de centenas de bilhões, com suporte a chinês, inglês e outros idiomas; é o modelo de API por trás dos produtos Qwen2.5 atuais.",
1027
+ "qwen-omni-turbo.description": "Os modelos Qwen-Omni aceitam entradas multimodais (vídeo, áudio, imagens, texto) e geram saídas em áudio e texto.",
1028
+ "qwen-plus.description": "Modelo Qwen ultra-grande aprimorado com suporte a chinês, inglês e outros idiomas.",
1029
+ "qwen-turbo.description": "Qwen Turbo não será mais atualizado; substitua pelo Qwen Flash. Modelo Qwen ultra-grande com suporte a chinês, inglês e outros idiomas.",
1030
+ "qwen-vl-chat-v1.description": "Qwen VL permite interações flexíveis, incluindo entrada com múltiplas imagens, perguntas e respostas em múltiplas etapas e tarefas criativas.",
1031
+ "qwen-vl-max-latest.description": "Modelo Qwen de visão e linguagem ultra-grande. Em comparação com a versão aprimorada, melhora ainda mais o raciocínio visual e o seguimento de instruções para percepção e cognição mais fortes.",
1032
+ "qwen-vl-max.description": "Modelo Qwen de visão e linguagem ultra-grande. Em comparação com a versão aprimorada, melhora ainda mais o raciocínio visual e o seguimento de instruções para percepção visual e cognição mais fortes.",
1033
+ "qwen-vl-ocr.description": "Qwen OCR é um modelo de extração de texto para documentos, tabelas, imagens de exames e escrita manual. Suporta chinês, inglês, francês, japonês, coreano, alemão, russo, italiano, vietnamita e árabe.",
1034
+ "qwen-vl-plus-latest.description": "Modelo Qwen de visão e linguagem em larga escala aprimorado, com grandes avanços em reconhecimento de detalhes e texto, suportando resolução acima de um megapixel e proporções arbitrárias.",
1035
+ "qwen-vl-plus.description": "Modelo Qwen de visão e linguagem em larga escala aprimorado, com grandes avanços em reconhecimento de detalhes e texto, suportando resolução acima de um megapixel e proporções arbitrárias.",
1036
+ "qwen-vl-v1.description": "Modelo pré-treinado inicializado a partir do Qwen-7B com módulo de visão adicionado e entrada de imagem com resolução de 448.",
1037
+ "qwen/qwen-2-7b-instruct.description": "Qwen2 é a nova série de LLMs da Qwen. Qwen2 7B é um modelo baseado em transformador que se destaca em compreensão de linguagem, capacidade multilíngue, programação, matemática e raciocínio.",
1038
+ "qwen/qwen-2-7b-instruct:free.description": "Qwen2 é uma nova família de modelos de linguagem de grande porte com melhor compreensão e geração.",
1039
+ "qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL é a iteração mais recente do Qwen-VL, atingindo desempenho de ponta em benchmarks de visão como MathVista, DocVQA, RealWorldQA e MTVQA. Compreende mais de 20 minutos de vídeo para perguntas e respostas, diálogos e criação de conteúdo de alta qualidade. Também lida com raciocínio complexo e tomada de decisão, integrando-se a dispositivos móveis e robôs para agir com base em contexto visual e instruções de texto. Além do inglês e chinês, também lê texto em imagens em diversos idiomas, incluindo a maioria das línguas europeias, japonês, coreano, árabe e vietnamita.",
1040
+ "qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct é um dos lançamentos mais recentes de LLMs da Alibaba Cloud. O modelo de 72B traz melhorias notáveis em programação e matemática, suporta mais de 29 idiomas (incluindo chinês e inglês) e melhora significativamente o seguimento de instruções, compreensão de dados estruturados e geração de saídas estruturadas (especialmente JSON).",
1041
+ "qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct é um dos lançamentos mais recentes de LLMs da Alibaba Cloud. O modelo de 32B traz melhorias notáveis em programação e matemática, suporta mais de 29 idiomas (incluindo chinês e inglês) e melhora significativamente o seguimento de instruções, compreensão de dados estruturados e geração de saídas estruturadas (especialmente JSON).",
1042
+ "qwen/qwen2.5-7b-instruct.description": "Um LLM bilíngue para chinês e inglês com foco em linguagem, programação, matemática e raciocínio.",
1043
+ "qwen/qwen2.5-coder-32b-instruct.description": "Um LLM avançado para geração, raciocínio e correção de código em linguagens de programação populares.",
1044
+ "qwen/qwen2.5-coder-7b-instruct.description": "Um modelo de código robusto de porte médio com contexto de 32K, excelente em programação multilíngue.",
1045
+ "qwen/qwen3-14b.description": "Qwen3-14B é a variante de 14B para raciocínio geral e cenários de chat.",
1046
+ "qwen/qwen3-14b:free.description": "Qwen3-14B é um LLM denso com 14,8B de parâmetros, projetado para raciocínio complexo e chat eficiente. Alterna entre modo de pensamento para matemática, programação e lógica, e modo não-pensante para conversas gerais. Ajustado para seguir instruções, usar ferramentas de agentes e escrita criativa em mais de 100 idiomas e dialetos. Suporta nativamente contexto de 32K e escala até 131K com YaRN.",
1047
+ "qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507 é a variante Instruct da série Qwen3, equilibrando uso multilíngue com cenários de contexto longo.",
1048
+ "qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 é a variante de raciocínio da Qwen3, reforçada para tarefas complexas de matemática e raciocínio.",
1049
+ "qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B é um modelo MoE com 235B parâmetros da Qwen, com 22B ativos por passagem. Alterna entre modo de pensamento para raciocínio complexo, matemática e código, e modo não-pensante para chat eficiente. Oferece raciocínio forte, suporte multilíngue (100+ idiomas/dialetos), seguimento avançado de instruções e uso de ferramentas de agentes. Suporta nativamente contexto de 32K e escala até 131K com YaRN.",
1050
+ "qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B é um modelo MoE com 235B parâmetros da Qwen, com 22B ativos por passagem. Alterna entre modo de pensamento para raciocínio complexo, matemática e código, e modo não-pensante para chat eficiente. Oferece raciocínio forte, suporte multilíngue (100+ idiomas/dialetos), seguimento avançado de instruções e uso de ferramentas de agentes. Suporta nativamente contexto de 32K e escala até 131K com YaRN.",
1002
1051
  "qwen/qwen3-30b-a3b.description": "Qwen3 é a mais recente geração de modelos LLM da série Qwen, com arquiteturas densas e MoE, destacando-se em raciocínio, suporte multilíngue e tarefas avançadas de agentes. Sua capacidade única de alternar entre um modo de pensamento para raciocínio complexo e um modo sem pensamento para conversas eficientes garante desempenho versátil e de alta qualidade.\n\nQwen3 supera significativamente modelos anteriores como QwQ e Qwen2.5, oferecendo excelente desempenho em matemática, programação, raciocínio lógico, escrita criativa e conversas interativas. A variante Qwen3-30B-A3B possui 30,5 bilhões de parâmetros (3,3 bilhões ativos), 48 camadas, 128 especialistas (8 ativos por tarefa) e suporta até 131 mil tokens de contexto com YaRN, estabelecendo um novo padrão para modelos abertos.",
1003
1052
  "qwen/qwen3-30b-a3b:free.description": "Qwen3 é a mais recente geração de modelos LLM da série Qwen, com arquiteturas densas e MoE, destacando-se em raciocínio, suporte multilíngue e tarefas avançadas de agentes. Sua capacidade única de alternar entre um modo de pensamento para raciocínio complexo e um modo sem pensamento para conversas eficientes garante desempenho versátil e de alta qualidade.\n\nQwen3 supera significativamente modelos anteriores como QwQ e Qwen2.5, oferecendo excelente desempenho em matemática, programação, raciocínio lógico, escrita criativa e conversas interativas. A variante Qwen3-30B-A3B possui 30,5 bilhões de parâmetros (3,3 bilhões ativos), 48 camadas, 128 especialistas (8 ativos por tarefa) e suporta até 131 mil tokens de contexto com YaRN, estabelecendo um novo padrão para modelos abertos.",
1004
1053
  "qwen/qwen3-32b.description": "Qwen3-32B é um modelo LLM denso com 32,8 bilhões de parâmetros, otimizado para raciocínio complexo e conversas eficientes. Alterna entre um modo de pensamento para matemática, programação e lógica, e um modo sem pensamento para conversas gerais mais rápidas. Apresenta forte desempenho em seguir instruções, uso de ferramentas por agentes e escrita criativa em mais de 100 idiomas e dialetos. Suporta nativamente 32 mil tokens de contexto e escala até 131 mil com YaRN.",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "Defina o número padrão de imagens geradas ao criar uma nova tarefa no painel de geração de imagens.",
447
447
  "settingImage.defaultCount.label": "Quantidade Padrão de Imagens",
448
448
  "settingImage.defaultCount.title": "Arte com IA",
449
+ "settingModel.enableContextCompression.desc": "Comprime automaticamente mensagens anteriores em resumos quando a conversa ultrapassa 64.000 tokens, economizando de 60% a 80% no uso de tokens",
450
+ "settingModel.enableContextCompression.title": "Ativar Compressão Automática de Contexto",
449
451
  "settingModel.enableMaxTokens.title": "Ativar Limite Máximo de Tokens",
450
452
  "settingModel.enableReasoningEffort.title": "Ativar Ajuste de Esforço de Raciocínio",
451
453
  "settingModel.frequencyPenalty.desc": "Quanto maior o valor, mais diversificado e rico será o vocabulário; quanto menor, mais simples e direto.",
@@ -140,6 +140,8 @@
140
140
  "models.output": "Saída",
141
141
  "models.title": "Modelos",
142
142
  "payDiffPrice": "Pagar Diferença",
143
+ "payDiffPriceApprox": "Aprox.",
144
+ "payDiffPriceTip": "Valor real sujeito à página de pagamento",
143
145
  "payment.error.actions.billing": "Gerenciar Cobrança",
144
146
  "payment.error.actions.home": "Voltar para Início",
145
147
  "payment.error.desc": "ID da assinatura: {{id}} não encontrado. Se tiver dúvidas, entre em contato conosco por e-mail",
@@ -355,6 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается в задачах визуального QA, OCR, понимания документов/таблиц/диаграмм и визуального связывания.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 обеспечивает баланс между логическим мышлением и длиной вывода для повседневных задач вопросов-ответов и агентов. На публичных бенчмарках достигает уровня GPT-5 и первым интегрирует мышление в использование инструментов, лидируя в оценках среди open-source агентов.",
358
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
359
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
360
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
@@ -377,6 +378,7 @@
377
378
  "deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.",
378
379
  "deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
379
380
  "deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking — это модель глубокого рассуждения, которая генерирует цепочку размышлений перед выводом для повышения точности. Демонстрирует выдающиеся результаты в соревнованиях и уровень логики, сопоставимый с Gemini-3.0-Pro.",
380
382
  "deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.",
381
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.",
382
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.",
@@ -470,6 +472,8 @@
470
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K — ультралегкая модель для простых задач Вопрос-Ответ, классификации и недорогого вывода.",
471
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.",
472
474
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.",
475
+ "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, разработанная командой ByteDance Seed, поддерживает редактирование и компоновку нескольких изображений. Обеспечивает улучшенную согласованность объектов, точное следование инструкциям, понимание пространственной логики, эстетическое выражение, макет постеров и дизайн логотипов с высокоточной визуализацией текста и изображений.",
476
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, разработанная ByteDance Seed, поддерживает ввод текста и изображений для высококачественной генерации изображений с высокой степенью управляемости.",
473
477
  "fal-ai/flux-kontext/dev.description": "Модель FLUX.1, ориентированная на редактирование изображений, поддерживает ввод текста и изображений.",
474
478
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] принимает текст и эталонные изображения, позволяя выполнять локальные правки и сложные глобальные трансформации сцены.",
475
479
  "fal-ai/flux/krea.description": "Flux Krea [dev] — модель генерации изображений с эстетическим уклоном в сторону более реалистичных и естественных изображений.",
@@ -477,6 +481,8 @@
477
481
  "fal-ai/hunyuan-image/v3.description": "Мощная нативная мультимодальная модель генерации изображений.",
478
482
  "fal-ai/imagen4/preview.description": "Модель генерации изображений высокого качества от Google.",
479
483
  "fal-ai/nano-banana.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
484
+ "fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантические и визуальные правки, точное редактирование текста на китайском и английском языках, перенос стиля, поворот и многое другое.",
485
+ "fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с высокой точностью отображения китайского текста и разнообразием визуальных стилей.",
480
486
  "flux-1-schnell.description": "Модель преобразования текста в изображение с 12 миллиардами параметров от Black Forest Labs, использующая латентную диффузию с дистилляцией для генерации качественных изображений за 1–4 шага. Конкурирует с закрытыми аналогами и распространяется по лицензии Apache-2.0 для личного, исследовательского и коммерческого использования.",
481
487
  "flux-dev.description": "FLUX.1 [dev] — модель с открытыми весами для некоммерческого использования. Сохраняет почти профессиональное качество изображений и следование инструкциям при более эффективной работе и лучшем использовании ресурсов по сравнению со стандартными моделями аналогичного размера.",
482
488
  "flux-kontext-max.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
@@ -508,6 +514,8 @@
508
514
  "gemini-2.0-flash-lite-001.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
509
515
  "gemini-2.0-flash-lite.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
510
516
  "gemini-2.0-flash.description": "Gemini 2.0 Flash предлагает функции следующего поколения, включая исключительную скорость, нативное использование инструментов, мультимодальную генерацию и контекст до 1 миллиона токенов.",
517
+ "gemini-2.5-flash-image-preview.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, обеспечивающая генерацию и редактирование изображений в диалоговом формате.",
518
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, обеспечивающая генерацию и редактирование изображений в диалоговом формате.",
511
519
  "gemini-2.5-flash-image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
512
520
  "gemini-2.5-flash-image:image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
513
521
  "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview — самая компактная и экономичная модель от Google, предназначенная для масштабного использования.",
@@ -522,6 +530,7 @@
522
530
  "gemini-2.5-pro.description": "Gemini 2.5 Pro — флагманская модель рассуждения от Google с поддержкой длинного контекста для сложных задач.",
523
531
  "gemini-3-flash-preview.description": "Gemini 3 Flash — самая быстрая и интеллектуальная модель, сочетающая передовые ИИ-возможности с точной привязкой к поисковым данным.",
524
532
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google с поддержкой мультимодального диалога.",
533
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google, также поддерживающая мультимодальный чат.",
525
534
  "gemini-3-pro-preview.description": "Gemini 3 Pro — самая мощная агентная модель от Google с поддержкой визуализации и глубокой интерактивности, основанная на передовых возможностях рассуждения.",
526
535
  "gemini-flash-latest.description": "Последний выпуск Gemini Flash",
527
536
  "gemini-flash-lite-latest.description": "Последний выпуск Gemini Flash-Lite",
@@ -738,6 +747,42 @@
738
747
  "jamba-large.description": "Наша самая мощная и продвинутая модель, предназначенная для сложных корпоративных задач с выдающейся производительностью.",
739
748
  "jamba-mini.description": "Самая эффективная модель в своем классе, обеспечивающая баланс между скоростью и качеством при минимальных ресурсах.",
740
749
  "jina-deepsearch-v1.description": "DeepSearch объединяет веб-поиск, чтение и логический анализ для глубокого исследования. Представьте себе агента, который берет вашу исследовательскую задачу, проводит многократный поиск, анализирует и только потом выдает ответ. Этот процесс включает непрерывное исследование, логическое мышление и многогранное решение задач, что принципиально отличается от стандартных LLM, отвечающих на основе предобученных данных или традиционных RAG-систем с одноразовым поиском.",
750
+ "kimi-k2-0711-preview.description": "kimi-k2 — базовая модель MoE с мощными возможностями программирования и агентных задач (1T параметров, 32B активных), превосходящая другие открытые модели в логике, программировании, математике и агентных бенчмарках.",
751
+ "kimi-k2-0905-preview.description": "kimi-k2-0905-preview предлагает окно контекста 256k, улучшенное агентное программирование, более качественный фронтенд-код и лучшее понимание контекста.",
752
+ "kimi-k2-instruct.description": "Kimi K2 Instruct — официальная модель логического мышления от Kimi с поддержкой длинного контекста для кода, вопросов-ответов и других задач.",
753
+ "kimi-k2-thinking-turbo.description": "Высокоскоростной вариант K2 с длинным мышлением, поддержкой контекста 256k, мощной логикой и скоростью вывода 60–100 токенов/сек.",
754
+ "kimi-k2-thinking.description": "kimi-k2-thinking — модель мышления от Moonshot AI с общими агентными и логическими возможностями. Отличается глубоким рассуждением и способна решать сложные задачи с помощью многошагового использования инструментов.",
755
+ "kimi-k2-turbo-preview.description": "kimi-k2 — базовая модель MoE с мощными возможностями программирования и агентных задач (1T параметров, 32B активных), превосходящая другие открытые модели в логике, программировании, математике и агентных бенчмарках.",
756
+ "kimi-k2.description": "Kimi-K2 — базовая модель MoE от Moonshot AI с мощными возможностями программирования и агентных задач, всего 1T параметров и 32B активных. Превосходит другие открытые модели в логике, программировании, математике и агентных задачах.",
757
+ "kimi-k2:1t.description": "Kimi K2 — крупная модель MoE LLM от Moonshot AI с 1T параметров и 32B активных на проход. Оптимизирована для агентных задач, включая продвинутое использование инструментов, логическое мышление и синтез кода.",
758
+ "kimi-latest.description": "Kimi Latest использует новейшую модель Kimi и может включать экспериментальные функции. Поддерживает понимание изображений и автоматически выбирает модели тарификации 8k/32k/128k в зависимости от длины контекста.",
759
+ "kuaishou/kat-coder-pro-v1.description": "KAT-Coder-Pro-V1 (бесплатно на ограниченное время) ориентирован на понимание кода и автоматизацию для эффективных кодирующих агентов.",
760
+ "learnlm-1.5-pro-experimental.description": "LearnLM — экспериментальная специализированная модель, обученная на принципах педагогики для выполнения системных инструкций в образовательных сценариях, выступая в роли эксперта-наставника.",
761
+ "learnlm-2.0-flash-experimental.description": "LearnLM — экспериментальная специализированная модель, обученная на принципах педагогики для выполнения системных инструкций в образовательных сценариях, выступая в роли эксперта-наставника.",
762
+ "lite.description": "Spark Lite — легковесная LLM с ультранизкой задержкой и эффективной обработкой. Полностью бесплатна и поддерживает поиск в интернете в реальном времени. Быстрые ответы хорошо работают на устройствах с низкой вычислительной мощностью и при дообучении модели, обеспечивая высокую экономичность и интеллектуальный опыт, особенно в задачах вопросов-ответов, генерации контента и поиска.",
763
+ "llama-3.1-70b-versatile.description": "Llama 3.1 70B обеспечивает улучшенное логическое мышление для сложных приложений, поддерживая высокую вычислительную нагрузку с высокой эффективностью и точностью.",
764
+ "llama-3.1-8b-instant.description": "Llama 3.1 8B — высокоэффективная модель с быстрой генерацией текста, идеально подходящая для масштабных и экономичных приложений.",
765
+ "llama-3.1-instruct.description": "Модель Llama 3.1, настроенная на выполнение инструкций, оптимизирована для чатов и превосходит многие открытые модели чатов по отраслевым бенчмаркам.",
766
+ "llama-3.2-11b-vision-instruct.description": "Мощное логическое мышление по изображениям высокого разрешения, подходит для приложений визуального понимания.",
767
+ "llama-3.2-11b-vision-preview.description": "Llama 3.2 разработана для задач, сочетающих зрение и текст, превосходно справляется с описанием изображений и визуальными вопросами-ответами, объединяя генерацию языка и визуальное мышление.",
768
+ "llama-3.2-90b-vision-instruct.description": "Продвинутое логическое мышление по изображениям для приложений агентов визуального понимания.",
769
+ "llama-3.2-90b-vision-preview.description": "Llama 3.2 разработана для задач, сочетающих зрение и текст, превосходно справляется с описанием изображений и визуальными вопросами-ответами, объединяя генерацию языка и визуальное мышление.",
770
+ "llama-3.2-vision-instruct.description": "Модель Llama 3.2-Vision, настроенная на выполнение инструкций, оптимизирована для визуального распознавания, логики по изображениям, описания и общих визуальных вопросов-ответов.",
771
+ "llama-3.3-70b-versatile.description": "Meta Llama 3.3 — многоязычная LLM с 70B параметров (ввод/вывод текста), доступна в вариантах предварительного обучения и настройки на инструкции. Вариант, настроенный на инструкции, оптимизирован для многоязычного диалога и превосходит многие открытые и закрытые модели чатов по отраслевым бенчмаркам.",
772
+ "llama-3.3-70b.description": "Llama 3.3 70B: модель среднего и крупного размера, обеспечивающая баланс между логикой и пропускной способностью.",
773
+ "llama-3.3-instruct.description": "Модель Llama 3.3, настроенная на выполнение инструкций, оптимизирована для чатов и превосходит многие открытые модели чатов по отраслевым бенчмаркам.",
774
+ "llama3-70b-8192.description": "Meta Llama 3 70B обеспечивает исключительную обработку сложных задач для требовательных проектов.",
775
+ "llama3-8b-8192.description": "Meta Llama 3 8B демонстрирует высокую логическую производительность в различных сценариях.",
776
+ "llama3-groq-70b-8192-tool-use-preview.description": "Llama 3 Groq 70B Tool Use обеспечивает мощный вызов инструментов для эффективной обработки сложных задач.",
777
+ "llama3-groq-8b-8192-tool-use-preview.description": "Llama 3 Groq 8B Tool Use оптимизирована для эффективного использования инструментов с быстрой параллельной обработкой.",
778
+ "llama3.1-8b.description": "Llama 3.1 8B: компактный вариант Llama с низкой задержкой для легких онлайн-инференций и чатов.",
779
+ "llama3.1.description": "Llama 3.1 — флагманская модель Meta, масштабируемая до 405B параметров для сложных диалогов, многоязычного перевода и анализа данных.",
780
+ "llama3.1:405b.description": "Llama 3.1 — флагманская модель Meta, масштабируемая до 405B параметров для сложных диалогов, многоязычного перевода и анализа данных.",
781
+ "llama3.1:70b.description": "Llama 3.1 — флагманская модель Meta, масштабируемая до 405B параметров для сложных диалогов, многоязычного перевода и анализа данных.",
782
+ "llava-v1.5-7b-4096-preview.description": "LLaVA 1.5 7B объединяет визуальную обработку для генерации сложных выводов на основе визуального ввода.",
783
+ "llava.description": "LLaVA — мультимодальная модель, объединяющая визуальный энкодер и Vicuna для мощного понимания связки зрение-язык.",
784
+ "llava:13b.description": "LLaVA — мультимодальная модель, объединяющая визуальный энкодер и Vicuna для мощного понимания связки зрение-язык.",
785
+ "llava:34b.description": "LLaVA — мультимодальная модель, объединяющая визуальный энкодер и Vicuna для мощного понимания связки зрение-язык.",
741
786
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
742
787
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
743
788
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "Установите количество изображений по умолчанию, создаваемых при запуске новой задачи в панели генерации изображений.",
447
447
  "settingImage.defaultCount.label": "Количество изображений по умолчанию",
448
448
  "settingImage.defaultCount.title": "ИИ-арт",
449
+ "settingModel.enableContextCompression.desc": "Автоматически сжимать историю сообщений в виде кратких сводок, когда диалог превышает 64 000 токенов, экономя 60–80% токенов",
450
+ "settingModel.enableContextCompression.title": "Включить автоматическое сжатие контекста",
449
451
  "settingModel.enableMaxTokens.title": "Включить ограничение токенов",
450
452
  "settingModel.enableReasoningEffort.title": "Включить настройку усилий рассуждения",
451
453
  "settingModel.frequencyPenalty.desc": "Чем выше значение, тем разнообразнее и богаче словарный запас; чем ниже значение, тем проще и прямолинейнее язык.",
@@ -140,6 +140,8 @@
140
140
  "models.output": "Вывод",
141
141
  "models.title": "Модели",
142
142
  "payDiffPrice": "Оплатить разницу",
143
+ "payDiffPriceApprox": "Приблизительно",
144
+ "payDiffPriceTip": "Фактическая сумма указывается на странице оплаты",
143
145
  "payment.error.actions.billing": "Управление оплатой",
144
146
  "payment.error.actions.home": "На главную",
145
147
  "payment.error.desc": "Подписка с ID: {{id}} не найдена. Если у вас есть вопросы, свяжитесь с нами по электронной почте",
@@ -355,6 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2, DeepSeekMoE-27B tabanlı, seyrek etkinleştirme kullanan bir MoE görsel-dil modelidir. Sadece 4.5B aktif parametreyle güçlü performans sunar. Görsel Soru-Cevap, OCR, belge/tablo/grafik anlama ve görsel eşleme konularında öne çıkar.",
358
+ "deepseek-chat.description": "DeepSeek V3.2, günlük soru-cevap ve ajan görevleri için akıl yürütme ve çıktı uzunluğu arasında denge kurar. Genel testlerde GPT-5 seviyelerine ulaşır ve araç kullanımına düşünme sürecini entegre eden ilk modeldir; bu da açık kaynaklı ajan değerlendirmelerinde öne çıkmasını sağlar.",
358
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar; proje düzeyinde kod tamamlama ve kod parçacığı doldurma sağlar.",
359
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
360
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
@@ -377,6 +378,7 @@
377
378
  "deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenek ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.",
378
379
  "deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramasına sahip DeepSeek R1 tam sürüm; güçlü anlama ve üretim sunar.",
379
380
  "deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verileri kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans sunar.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking, çıktılardan önce düşünce zinciri oluşturarak daha yüksek doğruluk sağlayan derin akıl yürütme modelidir. En iyi yarışma sonuçlarına ulaşır ve Gemini-3.0-Pro ile karşılaştırılabilir akıl yürütme yeteneğine sahiptir.",
380
382
  "deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.",
381
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi sunan DeepSeek’in kod odaklı modelidir.",
382
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.",
@@ -470,6 +472,8 @@
470
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K, basit QA, sınıflandırma ve düşük maliyetli çıkarım için ultra hafif bir modeldir.",
471
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K, karmaşık akıl yürütme ve çoklu dönüşlü sohbetler için 32K bağlamlı hızlı düşünme modelidir.",
472
474
  "ernie-x1.1-preview.description": "ERNIE X1.1 Önizleme, değerlendirme ve test için bir düşünme modeli önizlemesidir.",
475
+ "fal-ai/bytedance/seedream/v4.5.description": "ByteDance Seed ekibi tarafından geliştirilen Seedream 4.5, çoklu görsel düzenleme ve kompozisyonu destekler. Geliştirilmiş konu tutarlılığı, talimatlara hassas uyum, mekânsal mantık anlayışı, estetik ifade, afiş yerleşimi ve logo tasarımı gibi özelliklerle yüksek hassasiyetli metin-görsel oluşturma sunar.",
476
+ "fal-ai/bytedance/seedream/v4.description": "ByteDance Seed tarafından geliştirilen Seedream 4.0, metin ve görsel girdileri destekleyerek yönlendirmelerden yüksek kaliteli ve kontrol edilebilir görseller üretir.",
473
477
  "fal-ai/flux-kontext/dev.description": "FLUX.1 modeli, metin ve görsel girdileri destekleyen görsel düzenleme odaklı bir modeldir.",
474
478
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro], metin ve referans görselleri girdi olarak alarak hedefe yönelik yerel düzenlemeler ve karmaşık sahne dönüşümleri sağlar.",
475
479
  "fal-ai/flux/krea.description": "Flux Krea [dev], daha gerçekçi ve doğal görseller üretmeye eğilimli estetik önyargıya sahip bir görsel üretim modelidir.",
@@ -477,6 +481,8 @@
477
481
  "fal-ai/hunyuan-image/v3.description": "Güçlü bir yerel çok modlu görsel üretim modelidir.",
478
482
  "fal-ai/imagen4/preview.description": "Google tarafından geliştirilen yüksek kaliteli görsel üretim modeli.",
479
483
  "fal-ai/nano-banana.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma yoluyla görsel üretim ve düzenleme sağlar.",
484
+ "fal-ai/qwen-image-edit.description": "Qwen ekibinden profesyonel bir görsel düzenleme modeli; anlamsal ve görünüm düzenlemeleri, Çince/İngilizce metin düzenleme, stil aktarımı, döndürme ve daha fazlasını destekler.",
485
+ "fal-ai/qwen-image.description": "Qwen ekibinden güçlü bir görsel üretim modeli; Çince metin oluşturma ve çeşitli görsel stillerde yüksek performans sunar.",
480
486
  "flux-1-schnell.description": "Black Forest Labs tarafından geliştirilen 12 milyar parametreli metinden görsele model. Latent adversarial diffusion distillation yöntemiyle 1-4 adımda yüksek kaliteli görseller üretir. Kapalı kaynaklı alternatiflerle rekabet eder ve kişisel, araştırma ve ticari kullanım için Apache-2.0 lisansı ile sunulur.",
481
487
  "flux-dev.description": "FLUX.1 [dev], açık ağırlıklı ve ticari olmayan kullanım için damıtılmış bir modeldir. Neredeyse profesyonel görsel kalitesini ve yönerge takibini korurken daha verimli çalışır ve aynı boyuttaki standart modellere göre kaynakları daha iyi kullanır.",
482
488
  "flux-kontext-max.description": "Metin ve görselleri birleştirerek hassas ve tutarlı sonuçlar sunan son teknoloji bağlamsal görsel üretim ve düzenleme.",
@@ -508,6 +514,8 @@
508
514
  "gemini-2.0-flash-lite-001.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
509
515
  "gemini-2.0-flash-lite.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
510
516
  "gemini-2.0-flash.description": "Gemini 2.0 Flash, olağanüstü hız, yerel araç kullanımı, çok modlu üretim ve 1M-token bağlam penceresi gibi yeni nesil özellikler sunar.",
517
+ "gemini-2.5-flash-image-preview.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; sohbet tabanlı görsel üretim ve düzenlemeyi mümkün kılar.",
518
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; sohbet tabanlı görsel üretim ve düzenlemeyi mümkün kılar.",
511
519
  "gemini-2.5-flash-image.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma tabanlı görsel üretim ve düzenleme sağlar.",
512
520
  "gemini-2.5-flash-image:image.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma tabanlı görsel üretim ve düzenleme sağlar.",
513
521
  "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview, Google’ın büyük ölçekli kullanım için tasarlanmış en küçük ve en uygun fiyatlı modelidir.",
@@ -522,6 +530,7 @@
522
530
  "gemini-2.5-pro.description": "Gemini 2.5 Pro, Google’ın en gelişmiş akıl yürütme modelidir. Uzun bağlam desteğiyle karmaşık görevleri analiz edebilir.",
523
531
  "gemini-3-flash-preview.description": "Gemini 3 Flash, hız için tasarlanmış en akıllı modeldir. En son yapay zeka zekasını mükemmel arama temellendirmesiyle birleştirir.",
524
532
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro), Google’ın görsel üretim modelidir ve çok modlu sohbeti destekler.",
533
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro), Google’ın görsel üretim modelidir ve çok modlu sohbeti de destekler.",
525
534
  "gemini-3-pro-preview.description": "Gemini 3 Pro, Google’ın en güçlü ajan ve vibe-coding modelidir. En yeni akıl yürütme yeteneklerinin üzerine zengin görseller ve derin etkileşim sunar.",
526
535
  "gemini-flash-latest.description": "Gemini Flash'ın en son sürümü",
527
536
  "gemini-flash-lite-latest.description": "Gemini Flash-Lite'ın en son sürümü",
@@ -803,6 +812,20 @@
803
812
  "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo.description": "Llama 3.1 70B, yüksek yük uygulamaları için hassas şekilde ayarlanmıştır; FP8 kuantizasyonu, karmaşık senaryolar için verimli hesaplama ve doğruluk sağlar.",
804
813
  "meta-llama/Meta-Llama-3.1-70B.description": "Llama 3.1, Meta’nın öncü model ailesidir; karmaşık diyaloglar, çok dilli çeviri ve veri analizi için 405B parametreye kadar ölçeklenebilir.",
805
814
  "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo.description": "Llama 3.1 8B, FP8 kuantizasyonu kullanır, 131.072 bağlam token'ına kadar destekler ve birçok kıyaslamada karmaşık görevler için en iyi açık modeller arasında yer alır.",
815
+ "meta-llama/llama-3-70b-instruct.description": "Llama 3 70B Instruct, yüksek kaliteli diyaloglar için optimize edilmiştir ve insan değerlendirmelerinde güçlü performans sergiler.",
816
+ "meta-llama/llama-3-8b-instruct.description": "Llama 3 8B Instruct, yüksek kaliteli diyaloglar için optimize edilmiştir ve birçok kapalı modeli geride bırakır.",
817
+ "meta-llama/llama-3.1-70b-instruct.description": "Meta’nın en yeni Llama 3.1 serisinden 70B talimat odaklı varyantı, yüksek kaliteli diyaloglar için optimize edilmiştir. Sektör değerlendirmelerinde önde gelen kapalı modellere karşı güçlü performans gösterir. (Yalnızca kurumsal doğrulamalı kullanıcılar için mevcuttur.)",
818
+ "meta-llama/llama-3.1-8b-instruct.description": "Meta’nın en yeni Llama 3.1 serisinden 8B talimat odaklı varyantı, özellikle hızlı ve verimlidir. Sektör değerlendirmelerinde güçlü performans sunar ve birçok önde gelen kapalı modeli geride bırakır. (Yalnızca kurumsal doğrulamalı kullanıcılar için mevcuttur.)",
819
+ "meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 çok dilli desteğe sahiptir ve önde gelen üretken modellerden biridir.",
820
+ "meta-llama/llama-3.2-11b-vision-instruct.description": "LLaMA 3.2, görsel ve metin görevlerini birleştirmek için tasarlanmıştır. Görsel açıklama ve görsel soru-cevapta mükemmeldir; dil üretimi ile görsel akıl yürütme arasında köprü kurar.",
821
+ "meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
822
+ "meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2, görsel ve metin görevlerini birleştirmek için tasarlanmıştır. Görsel açıklama ve görsel soru-cevapta mükemmeldir; dil üretimi ile görsel akıl yürütme arasında köprü kurar.",
823
+ "meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3, en gelişmiş çok dilli açık kaynaklı Llama modelidir; düşük maliyetle neredeyse 405B performansı sunar. Transformer tabanlıdır ve faydalılık ve güvenlik için SFT ve RLHF ile geliştirilmiştir. Talimat odaklı sürüm çok dilli sohbet için optimize edilmiştir ve sektör testlerinde birçok açık ve kapalı sohbet modelini geride bırakır. Bilgi kesimi: Aralık 2023.",
824
+ "meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3, en gelişmiş çok dilli açık kaynaklı Llama modelidir; düşük maliyetle neredeyse 405B performansı sunar. Transformer tabanlıdır ve faydalılık ve güvenlik için SFT ve RLHF ile geliştirilmiştir. Talimat odaklı sürüm çok dilli sohbet için optimize edilmiştir ve sektör testlerinde birçok açık ve kapalı sohbet modelini geride bırakır. Bilgi kesimi: Aralık 2023.",
825
+ "meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct, Llama 3.1 serisinin en büyük ve en güçlü talimat modeli olup, diyalog akıl yürütme ve sentetik veri üretimi için ileri düzeyde bir modeldir. 8B, 70B ve 405B boyutlarında önceden eğitilmiş ve talimatla ayarlanmış çok dilli üretim modelleri içerir (metin girdi/çıktı). Talimatla ayarlanmış metin modelleri çok dilli sohbet için optimize edilmiştir ve sektör testlerinde birçok açık sohbet modelini geride bırakır. Llama 3.1, ticari ve araştırma amaçlı çok dilli kullanım için tasarlanmıştır. Talimat modelleri asistan tarzı sohbet için uygundur; önceden eğitilmiş modeller ise daha geniş doğal dil üretim görevlerine yöneliktir. Llama 3.1 çıktıları, sentetik veri üretimi ve iyileştirme dahil olmak üzere diğer modelleri geliştirmek için de kullanılabilir. Llama 3.1, optimize edilmiş mimariye sahip otoregresif bir Transformer modelidir. Ayarlanmış sürümler, insan tercihleriyle uyumlu hale getirmek için denetimli ince ayar (SFT) ve insan geri bildirimiyle pekiştirmeli öğrenme (RLHF) kullanır.",
826
+ "meta.llama3-1-70b-instruct-v1:0.description": "Genişletilmiş 128K bağlam penceresi, çok dilli destek ve geliştirilmiş akıl yürütme ile güncellenmiş Meta Llama 3.1 70B Instruct. Llama 3.1 çok dilli LLM'ler, 8B, 70B ve 405B boyutlarında önceden eğitilmiş ve talimatla ayarlanmış üretim modellerinden oluşur (metin girdi/çıktı). Talimatla ayarlanmış metin modelleri çok dilli sohbet için optimize edilmiştir ve sektör testlerinde birçok açık sohbet modelini geride bırakır. Llama 3.1, ticari ve araştırma amaçlı çok dilli kullanım için tasarlanmıştır. Talimat modelleri asistan tarzı sohbet için uygundur; önceden eğitilmiş modeller ise daha geniş üretim görevlerine yöneliktir. Llama 3.1 çıktıları, sentetik veri üretimi ve iyileştirme dahil olmak üzere diğer modelleri geliştirmek için de kullanılabilir. Llama 3.1, optimize edilmiş mimariye sahip otoregresif bir Transformer modelidir. Ayarlanmış sürümler, insan tercihleriyle uyumlu hale getirmek için denetimli ince ayar (SFT) ve insan geri bildirimiyle pekiştirmeli öğrenme (RLHF) kullanır.",
827
+ "meta.llama3-1-8b-instruct-v1:0.description": "128K bağlam penceresi, çok dilli destek ve geliştirilmiş akıl yürütme ile güncellenmiş Meta Llama 3.1 8B Instruct. Llama 3.1 ailesi, çok dilli sohbet ve güçlü test performansı için optimize edilmiş 8B, 70B ve 405B talimatla ayarlanmış metin modellerini içerir. Çok dilli ticari ve araştırma kullanımı için tasarlanmıştır; talimat modelleri asistan tarzı sohbet için, önceden eğitilmiş modeller ise daha geniş üretim görevleri için uygundur. Llama 3.1 çıktıları, diğer modelleri geliştirmek için de kullanılabilir (örneğin, sentetik veri ve iyileştirme). Otoregresif bir Transformer modelidir ve faydalılık ve güvenlik için SFT ve RLHF ile hizalanmıştır.",
828
+ "meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir LLM'dir; üretken yapay zeka fikirlerini oluşturmak, denemek ve sorumlu bir şekilde ölçeklendirmek için tasarlanmıştır. Küresel topluluk inovasyonunun temelini oluşturan bu model, içerik üretimi, sohbet yapay zekası, dil anlama, Ar-Ge ve kurumsal uygulamalar için uygundur.",
806
829
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
807
830
  "mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
808
831
  "mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "Görsel oluşturma panelinde yeni bir görev oluştururken varsayılan olarak üretilecek görsel sayısını ayarlayın.",
447
447
  "settingImage.defaultCount.label": "Varsayılan Görsel Sayısı",
448
448
  "settingImage.defaultCount.title": "Yapay Zeka Sanatı",
449
+ "settingModel.enableContextCompression.desc": "Konuşma 64.000 token'ı aştığında geçmiş mesajları otomatik olarak özetlere dönüştürerek %60-80 oranında token tasarrufu sağlar",
450
+ "settingModel.enableContextCompression.title": "Otomatik Bağlam Sıkıştırmayı Etkinleştir",
449
451
  "settingModel.enableMaxTokens.title": "Maksimum Token Sınırını Etkinleştir",
450
452
  "settingModel.enableReasoningEffort.title": "Akıl Yürütme Çabası Ayarını Etkinleştir",
451
453
  "settingModel.frequencyPenalty.desc": "Değer ne kadar yüksekse, kelime dağarcığı o kadar çeşitli ve zengin olur; değer ne kadar düşükse, dil o kadar sade ve doğrudan olur.",
@@ -140,6 +140,8 @@
140
140
  "models.output": "Çıktı",
141
141
  "models.title": "Modeller",
142
142
  "payDiffPrice": "Farkı Öde",
143
+ "payDiffPriceApprox": "Yaklaşık",
144
+ "payDiffPriceTip": "Gerçek tutar ödeme sayfasında geçerlidir",
143
145
  "payment.error.actions.billing": "Fatura Yönetimi",
144
146
  "payment.error.actions.home": "Ana Sayfaya Dön",
145
147
  "payment.error.desc": "Abonelik ID'si: {{id}} bulunamadı. Sorularınız varsa lütfen e-posta yoluyla bizimle iletişime geçin",
@@ -514,6 +514,55 @@
514
514
  "gemini-2.0-flash-lite-001.description": "Biến thể Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp.",
515
515
  "gemini-2.0-flash-lite.description": "Biến thể Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp.",
516
516
  "gemini-2.0-flash.description": "Gemini 2.0 Flash mang đến các tính năng thế hệ mới bao gồm tốc độ vượt trội, sử dụng công cụ gốc, tạo nội dung đa phương thức và cửa sổ ngữ cảnh 1 triệu token.",
517
+ "gemini-2.5-flash-image-preview.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
518
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
519
+ "gemini-2.5-flash-image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
520
+ "gemini-2.5-flash-image:image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
521
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview là mô hình nhỏ nhất và có giá trị tốt nhất của Google, được thiết kế cho các trường hợp sử dụng quy mô lớn.",
522
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Phiên bản xem trước (25 tháng 9, 2025) của Gemini 2.5 Flash-Lite",
523
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite là mô hình nhỏ nhất và có giá trị tốt nhất của Google, được thiết kế cho các trường hợp sử dụng quy mô lớn.",
524
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview là mô hình có giá trị tốt nhất của Google với đầy đủ tính năng.",
525
+ "gemini-2.5-flash-preview-09-2025.description": "Phiên bản xem trước (25 tháng 9, 2025) của Gemini 2.5 Flash",
526
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash là mô hình có giá trị tốt nhất của Google với đầy đủ tính năng.",
527
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview là mô hình suy luận tiên tiến nhất của Google, có khả năng suy luận trên mã, toán học và các vấn đề STEM, cũng như phân tích tập dữ liệu lớn, mã nguồn và tài liệu với ngữ cảnh dài.",
528
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview là mô hình suy luận tiên tiến nhất của Google, có khả năng suy luận trên mã, toán học và các vấn đề STEM, cũng như phân tích tập dữ liệu lớn, mã nguồn và tài liệu với ngữ cảnh dài.",
529
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview là mô hình suy luận tiên tiến nhất của Google, có khả năng suy luận trên mã, toán học và các vấn đề STEM, cũng như phân tích tập dữ liệu lớn, mã nguồn và tài liệu với ngữ cảnh dài.",
530
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro là mô hình suy luận tiên tiến nhất của Google, có khả năng suy luận trên mã, toán học và các vấn đề STEM, cũng như phân tích tập dữ liệu lớn, mã nguồn và tài liệu với ngữ cảnh dài.",
531
+ "gemini-3-flash-preview.description": "Gemini 3 Flash là mô hình thông minh nhất được xây dựng để tối ưu tốc độ, kết hợp trí tuệ tiên tiến với khả năng tìm kiếm chính xác.",
532
+ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)là mô hình tạo hình ảnh của Google, đồng thời hỗ trợ hội thoại đa phương thức.",
533
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo hình ảnh của Google và cũng hỗ trợ trò chuyện đa phương thức.",
534
+ "gemini-3-pro-preview.description": "Gemini 3 Pro là mô hình mạnh mẽ nhất của Google, kết hợp khả năng mã hóa cảm xúc và suy luận tiên tiến, mang đến hình ảnh phong phú và tương tác sâu sắc.",
535
+ "gemini-flash-latest.description": "Phiên bản mới nhất của Gemini Flash",
536
+ "gemini-flash-lite-latest.description": "Phiên bản mới nhất của Gemini Flash-Lite",
537
+ "gemini-pro-latest.description": "Phiên bản mới nhất của Gemini Pro",
538
+ "gemma-7b-it.description": "Gemma 7B là lựa chọn tiết kiệm chi phí cho các tác vụ quy mô nhỏ đến trung bình.",
539
+ "gemma2-9b-it.description": "Gemma 2 9B được tối ưu hóa cho các tác vụ cụ thể và tích hợp công cụ.",
540
+ "gemma2.description": "Gemma 2 là mô hình hiệu quả của Google, phục vụ từ ứng dụng nhỏ đến xử lý dữ liệu phức tạp.",
541
+ "gemma2:27b.description": "Gemma 2 là mô hình hiệu quả của Google, phục vụ từ ứng dụng nhỏ đến xử lý dữ liệu phức tạp.",
542
+ "gemma2:2b.description": "Gemma 2 là mô hình hiệu quả của Google, phục vụ từ ứng dụng nhỏ đến xử lý dữ liệu phức tạp.",
543
+ "generalv3.5.description": "Spark Max là phiên bản đầy đủ tính năng nhất, hỗ trợ tìm kiếm web và nhiều plugin tích hợp. Các khả năng cốt lõi được tối ưu hóa hoàn toàn, vai trò hệ thống và gọi hàm mang lại hiệu suất vượt trội trong các tình huống ứng dụng phức tạp.",
544
+ "generalv3.description": "Spark Pro là mô hình LLM hiệu suất cao được tối ưu cho các lĩnh vực chuyên môn, tập trung vào toán học, lập trình, y tế và giáo dục, với tìm kiếm web và các plugin tích hợp như thời tiết và ngày tháng. Nó mang lại hiệu suất mạnh mẽ và hiệu quả trong hỏi đáp kiến thức phức tạp, hiểu ngôn ngữ và sáng tạo văn bản nâng cao, là lựa chọn lý tưởng cho các trường hợp sử dụng chuyên nghiệp.",
545
+ "glm-4-0520.description": "GLM-4-0520 là phiên bản mô hình mới nhất, được thiết kế cho các tác vụ phức tạp và đa dạng với hiệu suất vượt trội.",
546
+ "glm-4-32b-0414.description": "GLM-4 32B 0414 là mô hình GLM tổng quát hỗ trợ tạo và hiểu văn bản đa nhiệm.",
547
+ "glm-4-9b-chat.description": "GLM-4-9B-Chat thể hiện hiệu suất mạnh mẽ trong ngữ nghĩa, toán học, suy luận, mã hóa và kiến thức. Nó cũng hỗ trợ duyệt web, thực thi mã, gọi công cụ tùy chỉnh và suy luận văn bản dài, hỗ trợ 26 ngôn ngữ bao gồm tiếng Nhật, Hàn và Đức.",
548
+ "glm-4-air-250414.description": "GLM-4-Air là lựa chọn có giá trị cao với hiệu suất gần GLM-4, tốc độ nhanh và chi phí thấp hơn.",
549
+ "glm-4-air.description": "GLM-4-Air là lựa chọn có giá trị cao với hiệu suất gần GLM-4, tốc độ nhanh và chi phí thấp hơn.",
550
+ "glm-4-airx.description": "GLM-4-AirX là biến thể hiệu quả hơn của GLM-4-Air với khả năng suy luận nhanh hơn đến 2.6 lần.",
551
+ "glm-4-alltools.description": "GLM-4-AllTools là mô hình tác tử đa năng được tối ưu hóa cho lập kế hoạch hướng dẫn phức tạp và sử dụng công cụ như duyệt web, giải thích mã và tạo văn bản, phù hợp cho thực thi đa nhiệm.",
552
+ "glm-4-flash-250414.description": "GLM-4-Flash lý tưởng cho các tác vụ đơn giản: nhanh nhất và miễn phí.",
553
+ "glm-4-flash.description": "GLM-4-Flash lý tưởng cho các tác vụ đơn giản: nhanh nhất và miễn phí.",
554
+ "glm-4-flashx.description": "GLM-4-FlashX là phiên bản Flash nâng cao với khả năng suy luận siêu nhanh.",
555
+ "glm-4-long.description": "GLM-4-Long hỗ trợ đầu vào siêu dài cho các tác vụ kiểu ghi nhớ và xử lý tài liệu quy mô lớn.",
556
+ "glm-4-plus.description": "GLM-4-Plus là mô hình cao cấp với trí tuệ vượt trội, xử lý tốt văn bản dài và tác vụ phức tạp, hiệu suất tổng thể được nâng cấp.",
557
+ "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking là mô hình VLM ~10B mạnh nhất hiện nay, bao phủ các tác vụ SOTA như hiểu video, hỏi đáp hình ảnh, giải đề, OCR, đọc tài liệu và biểu đồ, tác tử GUI, lập trình giao diện và liên kết ngữ nghĩa. Với học tăng cường tiên tiến, nó sử dụng suy luận chuỗi tư duy để cải thiện độ chính xác và độ phong phú, vượt trội hơn các mô hình không suy nghĩ truyền thống cả về kết quả và khả năng giải thích.",
558
+ "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking là mô hình VLM ~10B mạnh nhất hiện nay, bao phủ các tác vụ SOTA như hiểu video, hỏi đáp hình ảnh, giải đề, OCR, đọc tài liệu và biểu đồ, tác tử GUI, lập trình giao diện và liên kết ngữ nghĩa. Với học tăng cường tiên tiến, nó sử dụng suy luận chuỗi tư duy để cải thiện độ chính xác và độ phong phú, vượt trội hơn các mô hình không suy nghĩ truyền thống cả về kết quả và khả năng giải thích.",
559
+ "glm-4.5-air.description": "Phiên bản nhẹ của GLM-4.5 cân bằng giữa hiệu suất và chi phí, với chế độ suy nghĩ kết hợp linh hoạt.",
560
+ "glm-4.5-airx.description": "Phiên bản nhanh của GLM-4.5-Air với phản hồi nhanh hơn cho các trường hợp sử dụng quy mô lớn, tốc độ cao.",
561
+ "glm-4.5-flash.description": "Phiên bản miễn phí của GLM-4.5 với hiệu suất mạnh mẽ trong suy luận, mã hóa và tác vụ tác tử.",
562
+ "glm-4.5-x.description": "Phiên bản nhanh của GLM-4.5, mang lại hiệu suất mạnh mẽ với tốc độ tạo lên đến 100 token/giây.",
563
+ "glm-4.5.description": "Mô hình hàng đầu của Zhipu với chế độ suy nghĩ có thể chuyển đổi, cung cấp SOTA mã nguồn mở tổng thể và hỗ trợ ngữ cảnh lên đến 128K.",
564
+ "glm-4.5v.description": "Mô hình suy luận thị giác thế hệ tiếp theo của Zhipu với tổng 106B tham số, 12B hoạt động, đạt SOTA trong các mô hình đa phương thức mã nguồn mở cùng kích thước về hình ảnh, video, hiểu tài liệu và tác vụ GUI.",
565
+ "glm-4.6.description": "GLM-4.6 là mô hình hàng đầu mới nhất của Zhipu (355B), vượt trội hoàn toàn so với các phiên bản trước về mã hóa nâng cao, xử lý văn bản dài, suy luận và khả năng tác tử. Đặc biệt phù hợp với Claude Sonnet 4 về khả năng lập trình, trở thành mô hình mã hóa hàng đầu tại Trung Quốc.",
517
566
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 là một mô hình ngôn ngữ mở dành cho nhà phát triển, nhà nghiên cứu và doanh nghiệp, được thiết kế để hỗ trợ xây dựng, thử nghiệm và mở rộng các ý tưởng AI sinh ngữ một cách có trách nhiệm. Là một phần trong nền tảng đổi mới cộng đồng toàn cầu, mô hình này phù hợp với môi trường có tài nguyên hạn chế, thiết bị biên và yêu cầu thời gian huấn luyện nhanh hơn.",
518
567
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Khả năng suy luận hình ảnh mạnh mẽ trên ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu thị giác.",
519
568
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng tác tử hiểu thị giác.",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "Đặt số lượng hình ảnh mặc định được tạo khi tạo tác vụ mới trong bảng tạo hình ảnh.",
447
447
  "settingImage.defaultCount.label": "Số Lượng Hình Ảnh Mặc Định",
448
448
  "settingImage.defaultCount.title": "Nghệ Thuật AI",
449
+ "settingModel.enableContextCompression.desc": "Tự động nén các tin nhắn lịch sử thành bản tóm tắt khi cuộc trò chuyện vượt quá 64.000 token, giúp tiết kiệm 60-80% lượng token sử dụng",
450
+ "settingModel.enableContextCompression.title": "Bật Tự Động Nén Ngữ Cảnh",
449
451
  "settingModel.enableMaxTokens.title": "Bật Giới Hạn Số Token",
450
452
  "settingModel.enableReasoningEffort.title": "Bật Điều Chỉnh Nỗ Lực Lý Luận",
451
453
  "settingModel.frequencyPenalty.desc": "Giá trị càng cao, từ vựng càng phong phú và đa dạng; giá trị càng thấp, ngôn ngữ càng đơn giản và trực tiếp.",
@@ -140,6 +140,8 @@
140
140
  "models.output": "Đầu ra",
141
141
  "models.title": "Mô hình",
142
142
  "payDiffPrice": "Thanh toán phần chênh lệch",
143
+ "payDiffPriceApprox": "Xấp xỉ",
144
+ "payDiffPriceTip": "Số tiền thực tế sẽ hiển thị trên trang thanh toán",
143
145
  "payment.error.actions.billing": "Quản lý thanh toán",
144
146
  "payment.error.actions.home": "Quay về trang chủ",
145
147
  "payment.error.desc": "Không tìm thấy ID gói đăng ký: {{id}}. Nếu bạn có thắc mắc, vui lòng liên hệ với chúng tôi qua email",
@@ -140,6 +140,8 @@
140
140
  "models.output": "输出",
141
141
  "models.title": "模型",
142
142
  "payDiffPrice": "支付差价",
143
+ "payDiffPriceApprox": "约",
144
+ "payDiffPriceTip": "实际金额以支付页面为准",
143
145
  "payment.error.actions.billing": "账单管理",
144
146
  "payment.error.actions.home": "返回首页",
145
147
  "payment.error.desc": "未找到订阅 ID:{{id}}。如有疑问,请通过电子邮件联系我们",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "設定圖像生成面板在建立新任務時的預設圖片數量。",
447
447
  "settingImage.defaultCount.label": "預設圖片數量",
448
448
  "settingImage.defaultCount.title": "AI 繪圖設定",
449
+ "settingModel.enableContextCompression.desc": "當對話超過 64,000 個標記時,自動將歷史訊息壓縮為摘要,可節省 60-80% 的標記使用量",
450
+ "settingModel.enableContextCompression.title": "啟用自動上下文壓縮",
449
451
  "settingModel.enableMaxTokens.title": "啟用單次回覆限制",
450
452
  "settingModel.enableReasoningEffort.title": "開啟推理強度調整",
451
453
  "settingModel.frequencyPenalty.desc": "值越大,用詞越豐富多樣;值越低,用詞更樸實簡單",
@@ -140,6 +140,8 @@
140
140
  "models.output": "輸出",
141
141
  "models.title": "模型",
142
142
  "payDiffPrice": "支付差額",
143
+ "payDiffPriceApprox": "約",
144
+ "payDiffPriceTip": "實際金額以付款頁面為準",
143
145
  "payment.error.actions.billing": "帳單管理",
144
146
  "payment.error.actions.home": "返回首頁",
145
147
  "payment.error.desc": "找不到訂閱 ID:{{id}}。如有疑問,請透過電子郵件與我們聯繫",
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/lobehub",
3
- "version": "2.0.8",
3
+ "version": "2.0.10",
4
4
  "description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -1,27 +1,6 @@
1
1
  import { AIChatModelCard } from '../types/aiModel';
2
2
 
3
3
  const cerebrasModels: AIChatModelCard[] = [
4
- {
5
- abilities: {
6
- functionCall: true,
7
- reasoning: true,
8
- structuredOutput: true,
9
- },
10
- contextWindowTokens: 131_072,
11
- description:
12
- 'Performs well on coding and reasoning tasks, supports streaming and tool calls, and fits agentic coding and complex reasoning.',
13
- displayName: 'GLM-4.6',
14
- enabled: true,
15
- id: 'zai-glm-4.6',
16
- maxOutput: 40_000,
17
- pricing: {
18
- units: [
19
- { name: 'textInput', rate: 2.25, strategy: 'fixed', unit: 'millionTokens' },
20
- { name: 'textOutput', rate: 2.75, strategy: 'fixed', unit: 'millionTokens' },
21
- ],
22
- },
23
- type: 'chat',
24
- },
25
4
  {
26
5
  abilities: {
27
6
  functionCall: true,
@@ -96,7 +75,8 @@ const cerebrasModels: AIChatModelCard[] = [
96
75
  functionCall: true,
97
76
  },
98
77
  contextWindowTokens: 32_768,
99
- description: 'Llama 3.1 8B: a small, low-latency Llama variant for lightweight online inference and chat.',
78
+ description:
79
+ 'Llama 3.1 8B: a small, low-latency Llama variant for lightweight online inference and chat.',
100
80
  displayName: 'Llama 3.1 8B',
101
81
  id: 'llama3.1-8b',
102
82
  pricing: {