@lobehub/lobehub 2.0.0-next.264 → 2.0.0-next.266

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (157) hide show
  1. package/.github/workflows/manual-build-desktop.yml +16 -37
  2. package/CHANGELOG.md +52 -0
  3. package/apps/desktop/native-deps.config.mjs +19 -3
  4. package/apps/desktop/src/main/controllers/__tests__/SystemCtr.test.ts +13 -0
  5. package/apps/desktop/src/main/utils/permissions.ts +86 -22
  6. package/changelog/v1.json +18 -0
  7. package/locales/ar/chat.json +1 -0
  8. package/locales/ar/modelProvider.json +20 -0
  9. package/locales/ar/models.json +33 -10
  10. package/locales/ar/plugin.json +1 -0
  11. package/locales/ar/providers.json +1 -0
  12. package/locales/ar/setting.json +2 -0
  13. package/locales/bg-BG/chat.json +1 -0
  14. package/locales/bg-BG/modelProvider.json +20 -0
  15. package/locales/bg-BG/models.json +27 -7
  16. package/locales/bg-BG/plugin.json +1 -0
  17. package/locales/bg-BG/providers.json +1 -0
  18. package/locales/bg-BG/setting.json +2 -0
  19. package/locales/de-DE/chat.json +1 -0
  20. package/locales/de-DE/modelProvider.json +20 -0
  21. package/locales/de-DE/models.json +44 -10
  22. package/locales/de-DE/plugin.json +1 -0
  23. package/locales/de-DE/providers.json +1 -0
  24. package/locales/de-DE/setting.json +2 -0
  25. package/locales/en-US/chat.json +1 -0
  26. package/locales/en-US/modelProvider.json +20 -0
  27. package/locales/en-US/models.json +10 -10
  28. package/locales/en-US/providers.json +1 -0
  29. package/locales/en-US/setting.json +2 -1
  30. package/locales/es-ES/chat.json +1 -0
  31. package/locales/es-ES/modelProvider.json +20 -0
  32. package/locales/es-ES/models.json +53 -10
  33. package/locales/es-ES/plugin.json +1 -0
  34. package/locales/es-ES/providers.json +1 -0
  35. package/locales/es-ES/setting.json +2 -0
  36. package/locales/fa-IR/chat.json +1 -0
  37. package/locales/fa-IR/modelProvider.json +20 -0
  38. package/locales/fa-IR/models.json +33 -10
  39. package/locales/fa-IR/plugin.json +1 -0
  40. package/locales/fa-IR/providers.json +1 -0
  41. package/locales/fa-IR/setting.json +2 -0
  42. package/locales/fr-FR/chat.json +1 -0
  43. package/locales/fr-FR/modelProvider.json +20 -0
  44. package/locales/fr-FR/models.json +27 -7
  45. package/locales/fr-FR/plugin.json +1 -0
  46. package/locales/fr-FR/providers.json +1 -0
  47. package/locales/fr-FR/setting.json +2 -0
  48. package/locales/it-IT/chat.json +1 -0
  49. package/locales/it-IT/modelProvider.json +20 -0
  50. package/locales/it-IT/models.json +10 -10
  51. package/locales/it-IT/plugin.json +1 -0
  52. package/locales/it-IT/providers.json +1 -0
  53. package/locales/it-IT/setting.json +2 -0
  54. package/locales/ja-JP/chat.json +1 -0
  55. package/locales/ja-JP/modelProvider.json +20 -0
  56. package/locales/ja-JP/models.json +5 -10
  57. package/locales/ja-JP/plugin.json +1 -0
  58. package/locales/ja-JP/providers.json +1 -0
  59. package/locales/ja-JP/setting.json +2 -0
  60. package/locales/ko-KR/chat.json +1 -0
  61. package/locales/ko-KR/modelProvider.json +20 -0
  62. package/locales/ko-KR/models.json +36 -10
  63. package/locales/ko-KR/plugin.json +1 -0
  64. package/locales/ko-KR/providers.json +1 -0
  65. package/locales/ko-KR/setting.json +2 -0
  66. package/locales/nl-NL/chat.json +1 -0
  67. package/locales/nl-NL/modelProvider.json +20 -0
  68. package/locales/nl-NL/models.json +35 -4
  69. package/locales/nl-NL/plugin.json +1 -0
  70. package/locales/nl-NL/providers.json +1 -0
  71. package/locales/nl-NL/setting.json +2 -0
  72. package/locales/pl-PL/chat.json +1 -0
  73. package/locales/pl-PL/modelProvider.json +20 -0
  74. package/locales/pl-PL/models.json +37 -7
  75. package/locales/pl-PL/plugin.json +1 -0
  76. package/locales/pl-PL/providers.json +1 -0
  77. package/locales/pl-PL/setting.json +2 -0
  78. package/locales/pt-BR/chat.json +1 -0
  79. package/locales/pt-BR/modelProvider.json +20 -0
  80. package/locales/pt-BR/models.json +51 -9
  81. package/locales/pt-BR/plugin.json +1 -0
  82. package/locales/pt-BR/providers.json +1 -0
  83. package/locales/pt-BR/setting.json +2 -0
  84. package/locales/ru-RU/chat.json +1 -0
  85. package/locales/ru-RU/modelProvider.json +20 -0
  86. package/locales/ru-RU/models.json +48 -7
  87. package/locales/ru-RU/plugin.json +1 -0
  88. package/locales/ru-RU/providers.json +1 -0
  89. package/locales/ru-RU/setting.json +2 -0
  90. package/locales/tr-TR/chat.json +1 -0
  91. package/locales/tr-TR/modelProvider.json +20 -0
  92. package/locales/tr-TR/models.json +48 -7
  93. package/locales/tr-TR/plugin.json +1 -0
  94. package/locales/tr-TR/providers.json +1 -0
  95. package/locales/tr-TR/setting.json +2 -0
  96. package/locales/vi-VN/chat.json +1 -0
  97. package/locales/vi-VN/modelProvider.json +20 -0
  98. package/locales/vi-VN/models.json +5 -5
  99. package/locales/vi-VN/plugin.json +1 -0
  100. package/locales/vi-VN/providers.json +1 -0
  101. package/locales/vi-VN/setting.json +2 -0
  102. package/locales/zh-CN/modelProvider.json +20 -20
  103. package/locales/zh-CN/models.json +49 -8
  104. package/locales/zh-CN/providers.json +1 -0
  105. package/locales/zh-CN/setting.json +2 -1
  106. package/locales/zh-TW/chat.json +1 -0
  107. package/locales/zh-TW/modelProvider.json +20 -0
  108. package/locales/zh-TW/models.json +29 -10
  109. package/locales/zh-TW/plugin.json +1 -0
  110. package/locales/zh-TW/providers.json +1 -0
  111. package/locales/zh-TW/setting.json +2 -0
  112. package/package.json +2 -2
  113. package/packages/database/src/models/__tests__/agent.test.ts +165 -4
  114. package/packages/database/src/models/agent.ts +46 -0
  115. package/packages/database/src/repositories/agentGroup/index.test.ts +498 -0
  116. package/packages/database/src/repositories/agentGroup/index.ts +150 -0
  117. package/packages/database/src/repositories/home/__tests__/index.test.ts +113 -1
  118. package/packages/database/src/repositories/home/index.ts +48 -67
  119. package/pnpm-workspace.yaml +1 -0
  120. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Body.tsx +1 -1
  121. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Cron/CronTopicGroup.tsx +84 -0
  122. package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/CronTopicItem.tsx +1 -1
  123. package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/index.tsx +23 -33
  124. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/Item/Editing.tsx +12 -49
  125. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/index.tsx +3 -1
  126. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Editing.tsx +12 -40
  127. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/hooks/useTopicNavigation.ts +5 -1
  128. package/src/app/[variants]/(main)/agent/features/Conversation/MainChatInput/index.tsx +2 -2
  129. package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobCards.tsx +1 -1
  130. package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobForm.tsx +1 -1
  131. package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/AvailableAgentList.tsx +0 -1
  132. package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/index.tsx +5 -1
  133. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/index.tsx +2 -6
  134. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/useDropdownMenu.tsx +100 -0
  135. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentItem/index.tsx +2 -4
  136. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentItem/useDropdownMenu.tsx +149 -0
  137. package/src/app/[variants]/(main)/home/_layout/hooks/index.ts +0 -1
  138. package/src/app/[variants]/(main)/home/features/InputArea/index.tsx +1 -1
  139. package/src/components/InlineRename/index.tsx +121 -0
  140. package/src/features/ChatInput/InputEditor/index.tsx +1 -0
  141. package/src/features/EditorCanvas/DiffAllToolbar.tsx +1 -1
  142. package/src/features/NavPanel/components/NavItem.tsx +1 -1
  143. package/src/locales/default/setting.ts +2 -0
  144. package/src/server/routers/lambda/agent.ts +15 -0
  145. package/src/server/routers/lambda/agentGroup.ts +16 -0
  146. package/src/services/agent.ts +11 -0
  147. package/src/services/chatGroup/index.ts +11 -0
  148. package/src/store/agent/slices/cron/action.ts +108 -0
  149. package/src/store/agent/slices/cron/index.ts +1 -0
  150. package/src/store/agent/store.ts +3 -0
  151. package/src/store/home/slices/sidebarUI/action.test.ts +23 -22
  152. package/src/store/home/slices/sidebarUI/action.ts +37 -9
  153. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/CronTopicList/CronTopicGroup.tsx +0 -74
  154. package/src/app/[variants]/(main)/group/features/ChangelogModal.tsx +0 -11
  155. package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/Item/useDropdownMenu.tsx +0 -62
  156. package/src/app/[variants]/(main)/home/_layout/hooks/useSessionItemMenuItems.tsx +0 -238
  157. package/src/hooks/useFetchCronTopicsWithJobInfo.ts +0 -56
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
273
273
  "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, apresenta melhorias em diversas habilidades e supera o modelo anterior mais avançado, Claude 3 Opus, em muitos testes de inteligência.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo carro-chefe Claude 3 Opus em muitos benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas de agentes.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo com processo visível.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou raciocínio passo a passo com controle refinado para usuários de API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
289
289
  "codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
357
357
  "deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
358
- "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Mantém o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Os benchmarks públicos atingem níveis do GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
359
359
  "deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
360
360
  "deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
379
379
  "deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
380
380
  "deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
381
- "deepseek-reasoner.description": "O modo de raciocínio do DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
383
383
  "deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
384
384
  "deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K é um modelo ultra leve para perguntas e respostas simples, classificação e inferência de baixo custo.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
473
473
  "ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que aceita entradas de texto e imagem, com geração altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desenvolvido pela equipe Seed da ByteDance, aceita entradas de texto e imagem para geração de imagens altamente controlável e de alta qualidade a partir de prompts.",
475
475
  "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.",
480
480
  "fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
482
- "fal-ai/qwen-image-edit.description": "Modelo profissional de edição de imagens da equipe Qwen, com suporte a edições semânticas e visuais, edição precisa de texto em chinês e inglês, e edições de alta qualidade como transferência de estilo e rotação de objetos.",
483
- "fal-ai/qwen-image.description": "Modelo poderoso de geração de imagens da equipe Qwen, com renderização impressionante de texto em chinês e estilos visuais diversos.",
482
+ "fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagem da equipe Qwen, com suporte a edições semânticas e visuais, edição precisa de texto em chinês/inglês, transferência de estilo, rotação e mais.",
483
+ "fal-ai/qwen-image.description": "Um poderoso modelo de geração de imagens da equipe Qwen, com excelente renderização de texto em chinês e estilos visuais diversos.",
484
484
  "flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.",
485
485
  "flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.",
486
486
  "flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
@@ -512,6 +512,48 @@
512
512
  "gemini-2.0-flash-lite-001.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
513
513
  "gemini-2.0-flash-lite.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
514
514
  "gemini-2.0-flash.description": "Gemini 2.0 Flash oferece recursos de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview é o menor e mais econômico modelo do Google, projetado para uso em larga escala.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Versão de prévia (25 de setembro de 2025) do Gemini 2.5 Flash-Lite",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite é o menor e mais econômico modelo do Google, projetado para uso em larga escala.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview é o modelo com melhor custo-benefício do Google, com capacidades completas.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "Versão de prévia (25 de setembro de 2025) do Gemini 2.5 Flash",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash é o modelo com melhor custo-benefício do Google, com capacidades completas.",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
529
+ "gemini-3-flash-preview.description": "Gemini 3 Flash é o modelo mais inteligente já criado para velocidade, combinando inteligência de ponta com excelente integração de busca.",
530
+ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a conversas multimodais.",
531
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a conversas multimodais.",
532
+ "gemini-3-pro-preview.description": "Gemini 3 Pro é o agente mais poderoso do Google, com capacidades de codificação emocional e visuais aprimoradas, além de raciocínio de última geração.",
533
+ "gemini-flash-latest.description": "Última versão do Gemini Flash",
534
+ "gemini-flash-lite-latest.description": "Última versão do Gemini Flash-Lite",
535
+ "gemini-pro-latest.description": "Última versão do Gemini Pro",
536
+ "gemma-7b-it.description": "Gemma 7B é uma opção econômica para tarefas de pequena a média escala.",
537
+ "gemma2-9b-it.description": "Gemma 2 9B é otimizado para tarefas específicas e integração com ferramentas.",
538
+ "gemma2.description": "Gemma 2 é o modelo eficiente do Google, cobrindo desde aplicativos simples até processamento de dados complexos.",
539
+ "gemma2:27b.description": "Gemma 2 é o modelo eficiente do Google, cobrindo desde aplicativos simples até processamento de dados complexos.",
540
+ "gemma2:2b.description": "Gemma 2 é o modelo eficiente do Google, cobrindo desde aplicativos simples até processamento de dados complexos.",
541
+ "generalv3.5.description": "Spark Max é a versão mais completa, com suporte a busca na web e diversos plugins integrados. Suas capacidades otimizadas, papéis de sistema e chamadas de função oferecem desempenho excelente em cenários de aplicação complexos.",
542
+ "generalv3.description": "Spark Pro é um LLM de alto desempenho otimizado para domínios profissionais, com foco em matemática, programação, saúde e educação. Inclui busca na web e plugins integrados como clima e data. Oferece desempenho forte e eficiente em perguntas e respostas complexas, compreensão de linguagem e criação avançada de texto, sendo ideal para usos profissionais.",
543
+ "glm-4-0520.description": "GLM-4-0520 é a versão mais recente do modelo, projetado para tarefas altamente complexas e diversas, com desempenho excelente.",
544
+ "glm-4-32b-0414.description": "GLM-4 32B 0414 é um modelo GLM geral com suporte à geração e compreensão de texto multitarefa.",
545
+ "glm-4-9b-chat.description": "GLM-4-9B-Chat tem desempenho forte em semântica, matemática, raciocínio, código e conhecimento. Também oferece navegação na web, execução de código, chamadas de ferramentas personalizadas e raciocínio com textos longos, com suporte a 26 idiomas, incluindo japonês, coreano e alemão.",
546
+ "glm-4-air-250414.description": "GLM-4-Air é uma opção de alto valor com desempenho próximo ao GLM-4, velocidade rápida e menor custo.",
547
+ "glm-4-air.description": "GLM-4-Air é uma opção de alto valor com desempenho próximo ao GLM-4, velocidade rápida e menor custo.",
548
+ "glm-4-airx.description": "GLM-4-AirX é uma variante mais eficiente do GLM-4-Air, com raciocínio até 2,6x mais rápido.",
549
+ "glm-4-alltools.description": "GLM-4-AllTools é um modelo de agente versátil otimizado para planejamento de instruções complexas e uso de ferramentas como navegação na web, explicação de código e geração de texto, adequado para execução multitarefa.",
550
+ "glm-4-flash-250414.description": "GLM-4-Flash é ideal para tarefas simples: o mais rápido e gratuito.",
551
+ "glm-4-flash.description": "GLM-4-Flash é ideal para tarefas simples: o mais rápido e gratuito.",
552
+ "glm-4-flashx.description": "GLM-4-FlashX é uma versão aprimorada do Flash com raciocínio ultrarrápido.",
553
+ "glm-4-long.description": "GLM-4-Long oferece suporte a entradas ultralongas para tarefas de memória e processamento de documentos em larga escala.",
554
+ "glm-4-plus.description": "GLM-4-Plus é um modelo carro-chefe de alta inteligência com forte capacidade para textos longos e tarefas complexas, além de desempenho geral aprimorado.",
555
+ "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking é o modelo VLM de ~10B mais forte conhecido, cobrindo tarefas SOTA como compreensão de vídeo, perguntas visuais, resolução de problemas, OCR, leitura de documentos e gráficos, agentes de interface gráfica, codificação frontend e grounding. Supera até o Qwen2.5-VL-72B, 8x maior, em muitas tarefas. Com RL avançado, usa raciocínio em cadeia para melhorar precisão e riqueza, superando modelos tradicionais sem raciocínio em resultados e explicabilidade.",
556
+ "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking é o modelo VLM de ~10B mais forte conhecido, cobrindo tarefas SOTA como compreensão de vídeo, perguntas visuais, resolução de problemas, OCR, leitura de documentos e gráficos, agentes de interface gráfica, codificação frontend e grounding. Supera até o Qwen2.5-VL-72B, 8x maior, em muitas tarefas. Com RL avançado, usa raciocínio em cadeia para melhorar precisão e riqueza, superando modelos tradicionais sem raciocínio em resultados e explicabilidade.",
515
557
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
516
558
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
517
559
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Nenhum resultado",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Sistema Local",
95
+ "builtins.lobe-notebook.actions.collapse": "Recolher",
95
96
  "builtins.lobe-notebook.actions.copy": "Copiar",
96
97
  "builtins.lobe-notebook.actions.creating": "Criando documento...",
97
98
  "builtins.lobe-notebook.actions.edit": "Editar",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
30
30
  "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
31
31
  "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
32
+ "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
32
33
  "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
33
34
  "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
34
35
  "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "Máximo de Execuções",
34
34
  "agentCronJobs.name": "Nome da Tarefa",
35
35
  "agentCronJobs.never": "Nunca",
36
+ "agentCronJobs.noExecutionResults": "Nenhum resultado de execução",
36
37
  "agentCronJobs.remainingExecutions": "Restantes: {{count}}",
37
38
  "agentCronJobs.save": "Salvar",
38
39
  "agentCronJobs.schedule": "Agendar",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "Intervalo de Tempo",
43
44
  "agentCronJobs.title": "Tarefas Agendadas",
44
45
  "agentCronJobs.unlimited": "Ilimitado",
46
+ "agentCronJobs.unnamedTask": "Tarefa sem nome",
45
47
  "agentCronJobs.updateSuccess": "Tarefa agendada atualizada com sucesso",
46
48
  "agentCronJobs.weekdays": "Dias da Semana",
47
49
  "agentInfoDescription.basic.avatar": "Avatar",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "Интенсивность мышления",
64
64
  "extendParams.textVerbosity.title": "Уровень детализации текста",
65
65
  "extendParams.thinking.title": "Переключатель глубокого мышления",
66
+ "extendParams.thinkingBudget.title": "Бюджет на размышления",
66
67
  "extendParams.thinkingLevel.title": "Уровень мышления",
67
68
  "extendParams.title": "Расширенные функции модели",
68
69
  "extendParams.urlContext.desc": "При включении веб-ссылки будут автоматически анализироваться для извлечения содержимого страницы",
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "Имя развертывания модели",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "Введите отображаемое имя модели, например, ChatGPT, GPT-4 и т.д.",
196
196
  "providerModels.item.modelConfig.displayName.title": "Отображаемое имя модели",
197
+ "providerModels.item.modelConfig.extendParams.extra": "Выберите расширенные параметры, поддерживаемые моделью. Наведите курсор на опцию, чтобы просмотреть элементы управления. Неверные настройки могут привести к сбоям запроса.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Для моделей Claude; может снизить стоимость и ускорить ответы.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Для моделей Claude, DeepSeek и других с поддержкой рассуждений; активирует более глубокое мышление.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Для серии GPT-5; управляет интенсивностью рассуждений.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Для серии GPT-5.1; управляет интенсивностью рассуждений.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Для серии GPT-5.2 Pro; управляет интенсивностью рассуждений.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Для серии GPT-5.2; управляет интенсивностью рассуждений.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Для моделей генерации изображений Gemini; управляет соотношением сторон создаваемых изображений.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Для моделей генерации изображений Gemini 3; управляет разрешением создаваемых изображений.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Для моделей Claude, Qwen3 и аналогичных; управляет бюджетом токенов для рассуждений.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Для моделей OpenAI и других с поддержкой рассуждений; управляет усилиями на рассуждение.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Для серии GPT-5+; управляет подробностью вывода.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "Для некоторых моделей Doubao; позволяет модели решать, нужно ли углублённое мышление.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Для серии Gemini; управляет бюджетом на размышления.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Для моделей Gemini 3 Flash Preview; управляет глубиной размышлений.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Для моделей Gemini 3 Pro Preview; управляет глубиной размышлений.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Для серии Gemini; поддерживает предоставление контекста по URL.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "Выберите параметры для активации",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "Предпросмотр недоступен",
216
+ "providerModels.item.modelConfig.extendParams.title": "Расширенные параметры",
197
217
  "providerModels.item.modelConfig.files.extra": "Текущая реализация загрузки файлов является временным решением, предназначенным только для экспериментов. Полноценная поддержка загрузки будет добавлена позже.",
198
218
  "providerModels.item.modelConfig.files.title": "Поддержка загрузки файлов",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "Эта настройка активирует возможность модели использовать инструменты. Однако фактическая поддержка зависит от самой модели. Пожалуйста, протестируйте самостоятельно.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
272
272
  "claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
273
273
  "claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, она демонстрирует улучшенные навыки и превосходит предыдущую крупнейшую модель Claude 3 Opus по многим интеллектуальным метрикам.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, улучшенная по множеству навыков и превосходящая предыдущий флагман Claude 3 Opus по многим бенчмаркам.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель рассуждения. Она способна выдавать почти мгновенные ответы или пошаговые рассуждения, видимые пользователю. Особенно сильна в программировании, анализе данных, компьютерном зрении и задачах агентов.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 — самая интеллектуальная модель от Anthropic и первая гибридная модель рассуждения на рынке, обеспечивающая мгновенные ответы или углублённое мышление с тонкой настройкой.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель серии Haiku от Anthropic, сочетающая молниеносную скорость и расширенные возможности рассуждения.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, сочетающая молниеносную скорость и способность к длительному размышлению.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для сверхсложных задач, демонстрирующая выдающиеся результаты в производительности, интеллекте, беглости и понимании.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 способен выдавать почти мгновенные ответы или пошаговое мышление с видимым процессом рассуждения.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 самая интеллектуальная модель Anthropic на сегодняшний день, предлагающая мгновенные ответы или пошаговое размышление с тонкой настройкой для пользователей API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
289
289
  "codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается в задачах визуального QA, OCR, понимания документов/таблиц/диаграмм и визуального связывания.",
358
- "deepseek-chat.description": "Новая модель с открытым исходным кодом, сочетающая общие и программные способности. Сохраняет диалоговые возможности и сильные навыки кодирования, улучшая соответствие предпочтениям. DeepSeek-V2.5 также улучшает письмо и следование инструкциям.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 сочетает в себе логическое мышление и длину вывода для повседневных задач вопросов-ответов и агентов. На публичных бенчмарках достигает уровня GPT-5 и первым интегрирует мышление в использование инструментов, лидируя в оценках open-source агентов.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.",
379
379
  "deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.",
381
- "deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выводит цепочку рассуждений перед финальным ответом для повышения точности.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking — модель глубокого рассуждения, которая генерирует цепочку размышлений перед выводом для повышения точности, демонстрируя лучшие результаты в соревнованиях и уровень рассуждения, сопоставимый с Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.",
@@ -471,6 +471,47 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K — ультралегкая модель для простых задач Вопрос-Ответ, классификации и недорогого вывода.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 от ByteDance Seed поддерживает ввод текста и изображений для высококачественной и управляемой генерации изображений по подсказкам.",
475
+ "fal-ai/flux-kontext/dev.description": "Модель FLUX.1, ориентированная на редактирование изображений, поддерживает ввод текста и изображений.",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] принимает текст и эталонные изображения, позволяя выполнять локальные правки и сложные глобальные трансформации сцены.",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] — модель генерации изображений с эстетическим уклоном в сторону более реалистичных и естественных изображений.",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] — модель генерации изображений с 12 миллиардами параметров, созданная для быстрой и качественной генерации.",
479
+ "fal-ai/hunyuan-image/v3.description": "Мощная нативная мультимодальная модель генерации изображений.",
480
+ "fal-ai/imagen4/preview.description": "Модель генерации изображений высокого качества от Google.",
481
+ "fal-ai/nano-banana.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
482
+ "fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантические и визуальные правки, точное редактирование текста на китайском/английском, перенос стиля, поворот и многое другое.",
483
+ "fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с отличной отрисовкой китайского текста и разнообразными визуальными стилями.",
484
+ "flux-1-schnell.description": "Модель преобразования текста в изображение с 12 миллиардами параметров от Black Forest Labs, использующая латентную диффузию с дистилляцией для генерации качественных изображений за 1–4 шага. Конкурирует с закрытыми аналогами и распространяется по лицензии Apache-2.0 для личного, исследовательского и коммерческого использования.",
485
+ "flux-dev.description": "FLUX.1 [dev] — модель с открытыми весами для некоммерческого использования. Сохраняет почти профессиональное качество изображений и следование инструкциям при более эффективной работе и лучшем использовании ресурсов по сравнению со стандартными моделями аналогичного размера.",
486
+ "flux-kontext-max.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
487
+ "flux-kontext-pro.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
488
+ "flux-merged.description": "FLUX.1-merged объединяет глубокие возможности, исследованные в «DEV», с высокой скоростью «Schnell», расширяя границы производительности и области применения.",
489
+ "flux-pro-1.1-ultra.description": "Генерация изображений сверхвысокого разрешения с выходом 4 МП, создаёт чёткие изображения за 10 секунд.",
490
+ "flux-pro-1.1.description": "Обновлённая профессиональная модель генерации изображений с отличным качеством и точным следованием подсказкам.",
491
+ "flux-pro.description": "Коммерческая модель генерации изображений высшего уровня с непревзойдённым качеством и разнообразием результатов.",
492
+ "flux-schnell.description": "FLUX.1 [schnell] — самая продвинутая open-source модель с малым числом шагов, превосходящая аналогичные модели и даже сильные недистиллированные модели, такие как Midjourney v6.0 и DALL-E 3 (HD). Тщательно настроена для сохранения разнообразия предобучения, значительно улучшая визуальное качество, следование инструкциям, вариативность размеров/пропорций, работу со шрифтами и разнообразие вывода.",
493
+ "flux.1-schnell.description": "FLUX.1-schnell — высокопроизводительная модель генерации изображений для быстрой генерации в разных стилях.",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) обеспечивает стабильную и настраиваемую производительность для сложных задач.",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) обеспечивает мощную мультимодальную поддержку для сложных задач.",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro — высокопроизводительная модель ИИ от Google, предназначенная для масштабирования широкого спектра задач.",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 — эффективная мультимодальная модель для масштабируемого применения.",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 — эффективная мультимодальная модель, созданная для широкого внедрения.",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 — новейшая экспериментальная модель с заметными улучшениями в текстовых и мультимодальных сценариях.",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B — эффективная мультимодальная модель, созданная для широкого внедрения.",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B — эффективная мультимодальная модель для масштабируемого применения.",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 обеспечивает оптимизированную мультимодальную обработку для сложных задач.",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash — новейшая мультимодальная модель ИИ от Google с быстрой обработкой, поддержкой текста, изображений и видео для эффективного масштабирования задач.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 — масштабируемое мультимодальное ИИ-решение для сложных задач.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 — новейшая модель, готовая к производству, с более качественным выводом, особенно в математике, длинном контексте и визуальных задачах.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 обеспечивает мощную мультимодальную обработку с большей гибкостью для разработки приложений.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 использует последние оптимизации для более эффективной мультимодальной обработки.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro поддерживает до 2 миллионов токенов, являясь идеальной мультимодальной моделью среднего размера для сложных задач.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash предлагает функции следующего поколения, включая исключительную скорость, нативное использование инструментов, мультимодальную генерацию и контекст до 1 миллиона токенов.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Экспериментальная модель Gemini 2.0 Flash с поддержкой генерации изображений.",
511
+ "gemini-2.0-flash-exp.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
512
+ "gemini-2.0-flash-lite-001.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
513
+ "gemini-2.0-flash-lite.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash предлагает функции следующего поколения, включая исключительную скорость, нативное использование инструментов, мультимодальную генерацию и контекст до 1 миллиона токенов.",
474
515
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
475
516
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
476
517
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Нет результатов",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Локальная система",
95
+ "builtins.lobe-notebook.actions.collapse": "Свернуть",
95
96
  "builtins.lobe-notebook.actions.copy": "Копировать",
96
97
  "builtins.lobe-notebook.actions.creating": "Создание документа...",
97
98
  "builtins.lobe-notebook.actions.edit": "Редактировать",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
30
30
  "jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
31
31
  "lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
32
+ "lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
32
33
  "minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
33
34
  "mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
34
35
  "modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",
@@ -33,6 +33,7 @@
33
33
  "agentCronJobs.maxExecutions": "Максимум запусков",
34
34
  "agentCronJobs.name": "Название задачи",
35
35
  "agentCronJobs.never": "Никогда",
36
+ "agentCronJobs.noExecutionResults": "Результаты выполнения отсутствуют",
36
37
  "agentCronJobs.remainingExecutions": "Осталось: {{count}}",
37
38
  "agentCronJobs.save": "Сохранить",
38
39
  "agentCronJobs.schedule": "Расписание",
@@ -42,6 +43,7 @@
42
43
  "agentCronJobs.timeRange": "Промежуток времени",
43
44
  "agentCronJobs.title": "Запланированные задачи",
44
45
  "agentCronJobs.unlimited": "Неограниченно",
46
+ "agentCronJobs.unnamedTask": "Безымянная задача",
45
47
  "agentCronJobs.updateSuccess": "Запланированная задача успешно обновлена",
46
48
  "agentCronJobs.weekdays": "Будние дни",
47
49
  "agentInfoDescription.basic.avatar": "Аватар",
@@ -63,6 +63,7 @@
63
63
  "extendParams.reasoningEffort.title": "Düşünme Yoğunluğu",
64
64
  "extendParams.textVerbosity.title": "Çıktı Metni Ayrıntı Düzeyi",
65
65
  "extendParams.thinking.title": "Derin Düşünme Anahtarı",
66
+ "extendParams.thinkingBudget.title": "Düşünme Bütçesi",
66
67
  "extendParams.thinkingLevel.title": "Düşünme Seviyesi",
67
68
  "extendParams.title": "Model Genişletme Özellikleri",
68
69
  "extendParams.urlContext.desc": "Etkinleştirildiğinde, web bağlantıları otomatik olarak çözülerek gerçek sayfa içeriği alınır",
@@ -194,6 +194,26 @@
194
194
  "providerModels.item.modelConfig.deployName.title": "Model Dağıtım Adı",
195
195
  "providerModels.item.modelConfig.displayName.placeholder": "Modelin görünen adını girin, örn. ChatGPT, GPT-4 vb.",
196
196
  "providerModels.item.modelConfig.displayName.title": "Model Görünen Adı",
197
+ "providerModels.item.modelConfig.extendParams.extra": "Model tarafından desteklenen gelişmiş parametreleri seçin. Kontrolleri önizlemek için bir seçeneğin üzerine gelin. Hatalı yapılandırmalar istek hatalarına neden olabilir.",
198
+ "providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Claude modelleri için; maliyeti azaltabilir ve yanıtları hızlandırabilir.",
199
+ "providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Claude, DeepSeek ve diğer akıl yürütme modelleri için; daha derin düşünmeyi etkinleştirir.",
200
+ "providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "GPT-5 serisi için; akıl yürütme yoğunluğunu kontrol eder.",
201
+ "providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "GPT-5.1 serisi için; akıl yürütme yoğunluğunu kontrol eder.",
202
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "GPT-5.2 Pro serisi için; akıl yürütme yoğunluğunu kontrol eder.",
203
+ "providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "GPT-5.2 serisi için; akıl yürütme yoğunluğunu kontrol eder.",
204
+ "providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Gemini görsel üretim modelleri için; oluşturulan görsellerin en-boy oranını kontrol eder.",
205
+ "providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Gemini 3 görsel üretim modelleri için; oluşturulan görsellerin çözünürlüğünü kontrol eder.",
206
+ "providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Claude, Qwen3 ve benzeri modeller için; akıl yürütme için ayrılan token bütçesini kontrol eder.",
207
+ "providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "OpenAI ve akıl yürütme yeteneğine sahip diğer modeller için; akıl yürütme çabasını kontrol eder.",
208
+ "providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "GPT-5+ serisi için; çıktıdaki ayrıntı düzeyini kontrol eder.",
209
+ "providerModels.item.modelConfig.extendParams.options.thinking.hint": "Bazı Doubao modelleri için; modelin derin düşünme gerekip gerekmediğine karar vermesine izin verir.",
210
+ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Gemini serisi için; düşünme bütçesini kontrol eder.",
211
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Gemini 3 Flash Önizleme modelleri için; düşünme derinliğini kontrol eder.",
212
+ "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Gemini 3 Pro Önizleme modelleri için; düşünme derinliğini kontrol eder.",
213
+ "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Gemini serisi için; URL bağlamı sağlamayı destekler.",
214
+ "providerModels.item.modelConfig.extendParams.placeholder": "Etkinleştirilecek gelişmiş parametreleri seçin",
215
+ "providerModels.item.modelConfig.extendParams.previewFallback": "Önizleme kullanılamıyor",
216
+ "providerModels.item.modelConfig.extendParams.title": "Gelişmiş Parametreler",
197
217
  "providerModels.item.modelConfig.files.extra": "Mevcut dosya yükleme uygulaması geçici bir çözümdür, yalnızca kişisel denemeler için uygundur. Gelecekteki sürümlerde tam dosya yükleme desteği gelecektir.",
198
218
  "providerModels.item.modelConfig.files.title": "Dosya Yükleme Desteği",
199
219
  "providerModels.item.modelConfig.functionCall.extra": "Bu yapılandırma yalnızca modelin araç kullanma yeteneğini etkinleştirir. Ancak modelin araçları gerçekten kullanıp kullanamayacağı tamamen modele bağlıdır; lütfen kendiniz test edin.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.",
272
272
  "claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
273
273
  "claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modelidir. Claude 3 Haiku'ya kıyasla yeteneklerinde gelişme gösterir ve birçok zeka testinde önceki en büyük model olan Claude 3 Opus'u geride bırakır.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modeli olup, yeteneklerde gelişme sağlar ve birçok ölçüt açısından önceki amiral gemisi Claude 3 Opus'u geride bırakır.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet, Anthropic'in en zeki modeli olup piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar verebilir veya kullanıcıların adım adım akıl yürütme sürecini görebileceği şekilde uzun açıklamalar sunabilir. Sonnet özellikle kodlama, veri bilimi, görsel analiz ve ajan görevlerinde güçlüdür.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7, Anthropic'in en zeki modeli olup, pazardaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar veya ayrıntılı düşünme süreçleri için ince ayarlı kontrol sunar.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en akıllı Haiku modelidir; yıldırım hızında çalışır ve gelişmiş akıl yürütme yeteneklerine sahiptir.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en zeki Haiku modelidir; yıldırım hızında çalışır ve derinlemesine düşünme yeteneğine sahiptir.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4, Anthropic'in en güçlü modelidir; yüksek karmaşıklıktaki görevlerde üstün performans, zeka, akıcılık ve anlama kabiliyeti sunar.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4, karmaşık görevler için Anthropic'in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstünlük sağlar.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar veya adım adım düşünme süreciyle görünür şekilde uzun açıklamalar üretebilir.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4, Anthropic'in bugüne kadarki en zeki modelidir. API kullanıcıları için ince ayarlı kontrolle anında yanıtlar veya adım adım düşünme sunar.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic’in bugüne kadarki en zeki modelidir.",
289
289
  "codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2, DeepSeekMoE-27B tabanlı, seyrek etkinleştirme kullanan bir MoE görsel-dil modelidir. Sadece 4.5B aktif parametreyle güçlü performans sunar. Görsel Soru-Cevap, OCR, belge/tablo/grafik anlama ve görsel eşleme konularında öne çıkar.",
358
- "deepseek-chat.description": "Genel ve kodlama yeteneklerini birleştiren yeni bir açık kaynak modeli. Sohbet modelinin genel diyalog yeteneklerini ve kodlayıcı modelin güçlü kodlama becerilerini korur, tercih uyumunu geliştirir. DeepSeek-V2.5 ayrıca yazma ve talimatları takip etme konusunda da gelişmiştir.",
358
+ "deepseek-chat.description": "DeepSeek V3.2, günlük Soru-Cevap ve ajan görevleri için akıl yürütme ve çıktı uzunluğu arasında denge kurar. Kamuya açık ölçütlerde GPT-5 seviyelerine ulaşır ve araç kullanımına düşünmeyi entegre eden ilk modeldir. Açık kaynaklı ajan değerlendirmelerinde öne çıkar.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar; proje düzeyinde kod tamamlama ve kod parçacığı doldurma sağlar.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenek ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.",
379
379
  "deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramasına sahip DeepSeek R1 tam sürüm; güçlü anlama ve üretim sunar.",
380
380
  "deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verileri kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans sunar.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 düşünme modu, doğruluğu artırmak için nihai cevaptan önce düşünce zinciri üretir.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking, çıktılardan önce düşünce zinciri oluşturarak daha yüksek doğruluk sağlayan derin akıl yürütme modelidir. En iyi yarışma sonuçlarına sahiptir ve akıl yürütme yeteneği Gemini-3.0-Pro ile karşılaştırılabilir düzeydedir.",
382
382
  "deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi sunan DeepSeek’in kod odaklı modelidir.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.",
@@ -471,6 +471,47 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K, basit QA, sınıflandırma ve düşük maliyetli çıkarım için ultra hafif bir modeldir.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K, karmaşık akıl yürütme ve çoklu dönüşlü sohbetler için 32K bağlamlı hızlı düşünme modelidir.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Önizleme, değerlendirme ve test için bir düşünme modeli önizlemesidir.",
474
+ "fal-ai/bytedance/seedream/v4.description": "ByteDance Seed tarafından geliştirilen Seedream 4.0, metin ve görsel girdileri destekleyerek istemlerden yüksek kaliteli ve kontrol edilebilir görseller üretir.",
475
+ "fal-ai/flux-kontext/dev.description": "FLUX.1 modeli, metin ve görsel girdileri destekleyen görsel düzenleme odaklı bir modeldir.",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro], metin ve referans görselleri girdi olarak alarak hedefe yönelik yerel düzenlemeler ve karmaşık sahne dönüşümleri sağlar.",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev], daha gerçekçi ve doğal görseller üretmeye eğilimli estetik önyargıya sahip bir görsel üretim modelidir.",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell], hızlı ve yüksek kaliteli çıktı için tasarlanmış 12 milyar parametreli bir görsel üretim modelidir.",
479
+ "fal-ai/hunyuan-image/v3.description": "Güçlü bir yerel çok modlu görsel üretim modelidir.",
480
+ "fal-ai/imagen4/preview.description": "Google tarafından geliştirilen yüksek kaliteli görsel üretim modeli.",
481
+ "fal-ai/nano-banana.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma yoluyla görsel üretim ve düzenleme sağlar.",
482
+ "fal-ai/qwen-image-edit.description": "Qwen ekibi tarafından geliştirilen profesyonel bir görsel düzenleme modelidir. Anlamsal ve görünüm düzenlemeleri, hassas Çince/İngilizce metin düzenleme, stil aktarımı, döndürme ve daha fazlasını destekler.",
483
+ "fal-ai/qwen-image.description": "Qwen ekibinden güçlü bir görsel üretim modeli; Çince metin işleme ve çeşitli görsel stillerde başarılıdır.",
484
+ "flux-1-schnell.description": "Black Forest Labs tarafından geliştirilen 12 milyar parametreli metinden görsele model. Latent adversarial diffusion distillation yöntemiyle 1-4 adımda yüksek kaliteli görseller üretir. Kapalı kaynaklı alternatiflerle rekabet eder ve kişisel, araştırma ve ticari kullanım için Apache-2.0 lisansı ile sunulur.",
485
+ "flux-dev.description": "FLUX.1 [dev], açık ağırlıklı ve ticari olmayan kullanım için damıtılmış bir modeldir. Neredeyse profesyonel görsel kalitesini ve yönerge takibini korurken daha verimli çalışır ve aynı boyuttaki standart modellere göre kaynakları daha iyi kullanır.",
486
+ "flux-kontext-max.description": "Metin ve görselleri birleştirerek hassas ve tutarlı sonuçlar sunan son teknoloji bağlamsal görsel üretim ve düzenleme.",
487
+ "flux-kontext-pro.description": "Metin ve görselleri birleştirerek hassas ve tutarlı sonuçlar sunan son teknoloji bağlamsal görsel üretim ve düzenleme.",
488
+ "flux-merged.description": "FLUX.1-merged, \"DEV\" sürümündeki derin özellikleri \"Schnell\" sürümünün yüksek hız avantajlarıyla birleştirerek performans sınırlarını genişletir ve uygulama alanlarını artırır.",
489
+ "flux-pro-1.1-ultra.description": "10 saniyede net 4MP çözünürlükte ultra yüksek çözünürlüklü görsel üretimi.",
490
+ "flux-pro-1.1.description": "Mükemmel görsel kalitesi ve hassas istem uyumu sunan yükseltilmiş profesyonel seviye görsel üretim modeli.",
491
+ "flux-pro.description": "Eşsiz görsel kalitesi ve çeşitli çıktılar sunan üst düzey ticari görsel üretim modeli.",
492
+ "flux-schnell.description": "FLUX.1 [schnell], en gelişmiş açık kaynaklı az adımlı modeldir. Midjourney v6.0 ve DALL-E 3 (HD) gibi güçlü damıtılmamış modelleri bile geride bırakır. Ön eğitim çeşitliliğini koruyacak şekilde hassas ayarlanmıştır ve görsel kalite, yönerge takibi, boyut/oran çeşitliliği, yazı tipi işleme ve çıktı çeşitliliğinde önemli gelişmeler sağlar.",
493
+ "flux.1-schnell.description": "FLUX.1-schnell, hızlı çok stilli çıktılar için yüksek performanslı bir görsel üretim modelidir.",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Ayarlı), karmaşık görevler için istikrarlı ve ayarlanabilir performans sunar.",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Ayarlı), karmaşık görevler için güçlü çok modlu destek sağlar.",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro, geniş görev ölçeklendirmesi için tasarlanmış Google’ın yüksek performanslı yapay zeka modelidir.",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001, geniş uygulama ölçeklendirmesi için verimli bir çok modlu modeldir.",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002, geniş dağıtım için tasarlanmış verimli bir çok modlu modeldir.",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924, metin ve çok modlu kullanım senaryolarında önemli kazanımlar sağlayan en yeni deneysel modeldir.",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B, geniş dağıtım için tasarlanmış verimli bir çok modlu modeldir.",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B, geniş uygulama ölçeklendirmesi için verimli bir çok modlu modeldir.",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827, karmaşık görevler için optimize edilmiş çok modlu işlem sunar.",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash, Google’ın en yeni çok modlu yapay zeka modelidir. Metin, görsel ve video girdilerini destekleyerek görevler arasında verimli ölçeklendirme sağlar.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001, karmaşık görevler için ölçeklenebilir çok modlu yapay zeka çözümüdür.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002, özellikle matematik, uzun bağlam ve görsel görevlerde daha yüksek kaliteli çıktı sunan en yeni üretime hazır modeldir.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801, uygulama geliştirme için daha fazla esneklikle güçlü çok modlu işlem sunar.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827, daha verimli çok modlu işlem için en son optimizasyonları uygular.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro, 2 milyon token'a kadar destek sunar ve karmaşık görevler için ideal orta boyutlu çok modlu modeldir.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash, olağanüstü hız, yerel araç kullanımı, çok modlu üretim ve 1M-token bağlam penceresi gibi yeni nesil özellikler sunar.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Görsel üretim desteği sunan deneysel Gemini 2.0 Flash modeli.",
511
+ "gemini-2.0-flash-exp.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
512
+ "gemini-2.0-flash-lite-001.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
513
+ "gemini-2.0-flash-lite.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash, olağanüstü hız, yerel araç kullanımı, çok modlu üretim ve 1M-token bağlam penceresi gibi yeni nesil özellikler sunar.",
474
515
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
475
516
  "mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
476
517
  "mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
@@ -92,6 +92,7 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Sonuç yok",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Yerel Sistem",
95
+ "builtins.lobe-notebook.actions.collapse": "Daralt",
95
96
  "builtins.lobe-notebook.actions.copy": "Kopyala",
96
97
  "builtins.lobe-notebook.actions.creating": "Belge oluşturuluyor...",
97
98
  "builtins.lobe-notebook.actions.edit": "Düzenle",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Büyük model araştırmaları ve araçları üzerine odaklanan açık kaynaklı bir organizasyon. En son modelleri ve algoritmaları erişilebilir kılan verimli ve kullanıcı dostu bir platform sağlar.",
30
30
  "jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.",
31
31
  "lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.",
32
+ "lobehub.description": "LobeHub Cloud, yapay zeka modellerine erişmek için resmi API'leri kullanır ve kullanım miktarını model jetonlarına bağlı Krediler ile ölçer.",
32
33
  "minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.",
33
34
  "mistral.description": "Mistral, karmaşık akıl yürütme, çok dilli görevler ve kod üretimi için gelişmiş genel, özel ve araştırma modelleri sunar. Özelleştirilmiş entegrasyonlar için işlev çağrısını destekler.",
34
35
  "modelscope.description": "ModelScope, Alibaba Cloud’un model-hizmet olarak sunduğu platformudur. Geniş bir yapay zeka modeli ve çıkarım hizmeti yelpazesi sunar.",