@lobehub/chat 1.81.2 → 1.81.4

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (154) hide show
  1. package/CHANGELOG.md +59 -0
  2. package/changelog/v1.json +21 -0
  3. package/locales/ar/common.json +2 -0
  4. package/locales/ar/electron.json +32 -0
  5. package/locales/ar/models.json +126 -3
  6. package/locales/ar/plugin.json +1 -0
  7. package/locales/ar/tool.json +25 -0
  8. package/locales/bg-BG/common.json +2 -0
  9. package/locales/bg-BG/electron.json +32 -0
  10. package/locales/bg-BG/models.json +126 -3
  11. package/locales/bg-BG/plugin.json +1 -0
  12. package/locales/bg-BG/tool.json +25 -0
  13. package/locales/de-DE/common.json +2 -0
  14. package/locales/de-DE/electron.json +32 -0
  15. package/locales/de-DE/models.json +126 -3
  16. package/locales/de-DE/plugin.json +1 -0
  17. package/locales/de-DE/tool.json +25 -0
  18. package/locales/en-US/common.json +2 -0
  19. package/locales/en-US/electron.json +32 -0
  20. package/locales/en-US/models.json +126 -3
  21. package/locales/en-US/plugin.json +1 -0
  22. package/locales/en-US/tool.json +25 -0
  23. package/locales/es-ES/common.json +2 -0
  24. package/locales/es-ES/electron.json +32 -0
  25. package/locales/es-ES/models.json +126 -3
  26. package/locales/es-ES/plugin.json +1 -0
  27. package/locales/es-ES/tool.json +25 -0
  28. package/locales/fa-IR/common.json +2 -0
  29. package/locales/fa-IR/electron.json +32 -0
  30. package/locales/fa-IR/models.json +126 -3
  31. package/locales/fa-IR/plugin.json +1 -0
  32. package/locales/fa-IR/tool.json +25 -0
  33. package/locales/fr-FR/common.json +2 -0
  34. package/locales/fr-FR/electron.json +32 -0
  35. package/locales/fr-FR/models.json +126 -3
  36. package/locales/fr-FR/plugin.json +1 -0
  37. package/locales/fr-FR/tool.json +25 -0
  38. package/locales/it-IT/common.json +2 -0
  39. package/locales/it-IT/electron.json +32 -0
  40. package/locales/it-IT/models.json +126 -3
  41. package/locales/it-IT/plugin.json +1 -0
  42. package/locales/it-IT/tool.json +25 -0
  43. package/locales/ja-JP/common.json +2 -0
  44. package/locales/ja-JP/electron.json +32 -0
  45. package/locales/ja-JP/models.json +126 -3
  46. package/locales/ja-JP/plugin.json +1 -0
  47. package/locales/ja-JP/tool.json +25 -0
  48. package/locales/ko-KR/common.json +2 -0
  49. package/locales/ko-KR/electron.json +32 -0
  50. package/locales/ko-KR/models.json +126 -3
  51. package/locales/ko-KR/plugin.json +1 -0
  52. package/locales/ko-KR/tool.json +25 -0
  53. package/locales/nl-NL/common.json +2 -0
  54. package/locales/nl-NL/electron.json +32 -0
  55. package/locales/nl-NL/models.json +126 -3
  56. package/locales/nl-NL/plugin.json +1 -0
  57. package/locales/nl-NL/tool.json +25 -0
  58. package/locales/pl-PL/common.json +2 -0
  59. package/locales/pl-PL/electron.json +32 -0
  60. package/locales/pl-PL/models.json +126 -3
  61. package/locales/pl-PL/plugin.json +1 -0
  62. package/locales/pl-PL/tool.json +25 -0
  63. package/locales/pt-BR/common.json +2 -0
  64. package/locales/pt-BR/electron.json +32 -0
  65. package/locales/pt-BR/models.json +126 -3
  66. package/locales/pt-BR/plugin.json +1 -0
  67. package/locales/pt-BR/tool.json +25 -0
  68. package/locales/ru-RU/common.json +2 -0
  69. package/locales/ru-RU/electron.json +32 -0
  70. package/locales/ru-RU/models.json +126 -3
  71. package/locales/ru-RU/plugin.json +1 -0
  72. package/locales/ru-RU/tool.json +25 -0
  73. package/locales/tr-TR/common.json +2 -0
  74. package/locales/tr-TR/electron.json +32 -0
  75. package/locales/tr-TR/models.json +126 -3
  76. package/locales/tr-TR/plugin.json +1 -0
  77. package/locales/tr-TR/tool.json +25 -0
  78. package/locales/vi-VN/common.json +2 -0
  79. package/locales/vi-VN/electron.json +32 -0
  80. package/locales/vi-VN/models.json +126 -3
  81. package/locales/vi-VN/plugin.json +1 -0
  82. package/locales/vi-VN/tool.json +25 -0
  83. package/locales/zh-CN/common.json +2 -0
  84. package/locales/zh-CN/electron.json +32 -0
  85. package/locales/zh-CN/models.json +131 -8
  86. package/locales/zh-CN/plugin.json +1 -0
  87. package/locales/zh-CN/tool.json +25 -0
  88. package/locales/zh-TW/common.json +2 -0
  89. package/locales/zh-TW/electron.json +32 -0
  90. package/locales/zh-TW/models.json +126 -3
  91. package/locales/zh-TW/plugin.json +1 -0
  92. package/locales/zh-TW/tool.json +25 -0
  93. package/package.json +3 -2
  94. package/packages/electron-client-ipc/src/events/index.ts +5 -5
  95. package/packages/electron-client-ipc/src/events/localFile.ts +22 -0
  96. package/packages/electron-client-ipc/src/events/{file.ts → upload.ts} +1 -1
  97. package/packages/electron-client-ipc/src/types/index.ts +2 -1
  98. package/packages/electron-client-ipc/src/types/localFile.ts +52 -0
  99. package/scripts/prebuild.mts +5 -1
  100. package/src/app/(backend)/trpc/desktop/[trpc]/route.ts +26 -0
  101. package/src/config/aiModels/cloudflare.ts +41 -37
  102. package/src/config/aiModels/github.ts +90 -0
  103. package/src/config/aiModels/google.ts +25 -0
  104. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ObjectEntity.tsx +81 -0
  105. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ValueCell.tsx +43 -0
  106. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/index.tsx +120 -0
  107. package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +75 -2
  108. package/src/features/Conversation/Messages/Assistant/Tool/Render/KeyValueEditor.tsx +214 -0
  109. package/src/features/User/UserPanel/useMenu.tsx +8 -1
  110. package/src/libs/agent-runtime/google/index.ts +3 -0
  111. package/src/libs/trpc/client/desktop.ts +14 -0
  112. package/src/locales/default/common.ts +2 -0
  113. package/src/locales/default/electron.ts +34 -0
  114. package/src/locales/default/index.ts +2 -0
  115. package/src/locales/default/tool.ts +25 -0
  116. package/src/server/routers/desktop/index.ts +9 -0
  117. package/src/server/routers/desktop/pgTable.ts +43 -0
  118. package/src/services/electron/autoUpdate.ts +17 -0
  119. package/src/services/electron/file.ts +31 -0
  120. package/src/services/electron/localFileService.ts +39 -0
  121. package/src/services/electron/remoteServer.ts +40 -0
  122. package/src/store/chat/index.ts +1 -1
  123. package/src/store/chat/slices/builtinTool/actions/index.ts +3 -1
  124. package/src/store/chat/slices/builtinTool/actions/localFile.ts +129 -0
  125. package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
  126. package/src/store/chat/slices/builtinTool/selectors.ts +2 -0
  127. package/src/store/chat/slices/plugin/action.ts +3 -3
  128. package/src/store/chat/store.ts +2 -0
  129. package/src/store/electron/actions/sync.ts +117 -0
  130. package/src/store/electron/index.ts +1 -0
  131. package/src/store/electron/initialState.ts +18 -0
  132. package/src/store/electron/selectors/index.ts +1 -0
  133. package/src/store/electron/selectors/sync.ts +9 -0
  134. package/src/store/electron/store.ts +29 -0
  135. package/src/tools/index.ts +8 -0
  136. package/src/tools/local-files/Render/ListFiles/Result.tsx +42 -0
  137. package/src/tools/local-files/Render/ListFiles/index.tsx +68 -0
  138. package/src/tools/local-files/Render/ReadLocalFile/ReadFileSkeleton.tsx +50 -0
  139. package/src/tools/local-files/Render/ReadLocalFile/ReadFileView.tsx +197 -0
  140. package/src/tools/local-files/Render/ReadLocalFile/index.tsx +31 -0
  141. package/src/tools/local-files/Render/ReadLocalFile/style.ts +37 -0
  142. package/src/tools/local-files/Render/SearchFiles/Result.tsx +42 -0
  143. package/src/tools/local-files/Render/SearchFiles/SearchQuery/SearchView.tsx +77 -0
  144. package/src/tools/local-files/Render/SearchFiles/SearchQuery/index.tsx +72 -0
  145. package/src/tools/local-files/Render/SearchFiles/index.tsx +32 -0
  146. package/src/tools/local-files/Render/index.tsx +36 -0
  147. package/src/tools/local-files/components/FileItem.tsx +117 -0
  148. package/src/tools/local-files/index.ts +149 -0
  149. package/src/tools/local-files/systemRole.ts +46 -0
  150. package/src/tools/local-files/type.ts +33 -0
  151. package/src/tools/renders.ts +3 -0
  152. package/packages/electron-client-ipc/src/events/search.ts +0 -4
  153. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments.tsx +0 -165
  154. /package/packages/electron-client-ipc/src/types/{file.ts → upload.ts} +0 -0
@@ -5,9 +5,15 @@
5
5
  "01-ai/yi-1.5-9b-chat": {
6
6
  "description": "Zero Um, o mais recente modelo de ajuste fino de código aberto, com 9 bilhões de parâmetros, suporta múltiplos cenários de diálogo, com dados de treinamento de alta qualidade, alinhados às preferências humanas."
7
7
  },
8
+ "360/deepseek-r1": {
9
+ "description": "【Versão implantada 360】DeepSeek-R1 utilizou amplamente técnicas de aprendizado por reforço na fase de pós-treinamento, melhorando significativamente a capacidade de inferência do modelo com apenas poucos dados rotulados. Em tarefas de matemática, código e raciocínio em linguagem natural, seu desempenho é comparável à versão oficial OpenAI o1."
10
+ },
8
11
  "360gpt-pro": {
9
12
  "description": "360GPT Pro, como um membro importante da série de modelos de IA da 360, atende a diversas aplicações de linguagem natural com sua capacidade eficiente de processamento de texto, suportando compreensão de longos textos e diálogos em múltiplas rodadas."
10
13
  },
14
+ "360gpt-pro-trans": {
15
+ "description": "Modelo dedicado à tradução, otimizado com ajuste fino profundo, com resultados de tradução líderes."
16
+ },
11
17
  "360gpt-turbo": {
12
18
  "description": "360GPT Turbo oferece poderosas capacidades de computação e diálogo, com excelente compreensão semântica e eficiência de geração, sendo a solução ideal de assistente inteligente para empresas e desenvolvedores."
13
19
  },
@@ -62,6 +68,18 @@
62
68
  "DeepSeek-R1-Distill-Qwen-7B": {
63
69
  "description": "Modelo de destilação DeepSeek-R1 baseado no Qwen2.5-Math-7B, otimizado para desempenho de inferência através de aprendizado por reforço e dados de inicialização fria, modelo de código aberto que redefine os padrões de múltiplas tarefas."
64
70
  },
71
+ "DeepSeek-V3": {
72
+ "description": "DeepSeek-V3 é um modelo MoE desenvolvido internamente pela DeepSeek. Os resultados de várias avaliações do DeepSeek-V3 superaram outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, e seu desempenho é comparável aos melhores modelos fechados do mundo, como GPT-4o e Claude-3.5-Sonnet."
73
+ },
74
+ "Doubao-1.5-thinking-pro": {
75
+ "description": "Doubao-1.5 é um novo modelo de pensamento profundo, destacando-se em áreas profissionais como matemática, programação e raciocínio científico, bem como em tarefas gerais de redação criativa, alcançando ou se aproximando do nível de liderança da indústria em várias referências de prestígio, como AIME 2024, Codeforces e GPQA. Suporta uma janela de contexto de 128k e saída de 16k."
76
+ },
77
+ "Doubao-1.5-thinking-pro-vision": {
78
+ "description": "Doubao-1.5 é um novo modelo de pensamento profundo, destacando-se em áreas profissionais como matemática, programação e raciocínio científico, bem como em tarefas gerais de redação criativa, alcançando ou se aproximando do nível de liderança da indústria em várias referências de prestígio, como AIME 2024, Codeforces e GPQA. Suporta uma janela de contexto de 128k e saída de 16k."
79
+ },
80
+ "Doubao-1.5-vision-pro": {
81
+ "description": "Doubao-1.5-vision-pro é um modelo multimodal atualizado, suportando reconhecimento de imagens de qualquer resolução e proporções extremas, melhorando a capacidade de raciocínio visual, reconhecimento de documentos, compreensão de informações detalhadas e seguimento de instruções."
82
+ },
65
83
  "Doubao-1.5-vision-pro-32k": {
66
84
  "description": "Doubao-1.5-vision-pro é um modelo multimodal de grande porte totalmente atualizado, que suporta reconhecimento de imagens em qualquer resolução e proporções extremas, melhorando a capacidade de raciocínio visual, reconhecimento de documentos, compreensão de informações detalhadas e seguimento de instruções."
67
85
  },
@@ -341,6 +359,15 @@
341
359
  "SenseChat-Vision": {
342
360
  "description": "Modelo da versão mais recente (V5.5), suporta entrada de múltiplas imagens, otimizando completamente as capacidades básicas do modelo, com grandes melhorias em reconhecimento de atributos de objetos, relações espaciais, reconhecimento de eventos, compreensão de cenários, reconhecimento de emoções, raciocínio lógico e compreensão e geração de texto."
343
361
  },
362
+ "SenseNova-V6-Pro": {
363
+ "description": "Realizar a unificação nativa de capacidades de imagem, texto e vídeo, superando as limitações tradicionais da multimodalidade discreta, conquistando o título duplo nas avaliações OpenCompass e SuperCLUE."
364
+ },
365
+ "SenseNova-V6-Reasoner": {
366
+ "description": "Equilibrar raciocínio visual e linguístico profundo, realizando um pensamento lento e uma inferência profunda, apresentando um processo completo de cadeia de pensamento."
367
+ },
368
+ "SenseNova-V6-Turbo": {
369
+ "description": "Realizar a unificação nativa de capacidades de imagem, texto e vídeo, superando as limitações tradicionais da multimodalidade discreta, liderando amplamente em dimensões centrais como capacidades básicas multimodais e linguísticas, combinando rigor acadêmico e prático, e alcançando repetidamente o nível da primeira divisão em várias avaliações nacionais e internacionais."
370
+ },
344
371
  "Skylark2-lite-8k": {
345
372
  "description": "Modelo de segunda geração Skylark, o modelo Skylark2-lite possui alta velocidade de resposta, adequado para cenários que exigem alta capacidade de resposta, sensíveis ao custo e com baixa exigência de precisão do modelo, com uma janela de contexto de 8k."
346
373
  },
@@ -356,6 +383,21 @@
356
383
  "Skylark2-pro-turbo-8k": {
357
384
  "description": "Modelo de segunda geração Skylark, o Skylark2-pro-turbo-8k proporciona raciocínio mais rápido e menor custo, com uma janela de contexto de 8k."
358
385
  },
386
+ "THUDM/GLM-4-32B-0414": {
387
+ "description": "GLM-4-32B-0414 é a nova geração de modelo de código aberto da série GLM, com 32 bilhões de parâmetros. O desempenho deste modelo é comparável ao da série GPT da OpenAI e da série V3/R1 da DeepSeek."
388
+ },
389
+ "THUDM/GLM-4-9B-0414": {
390
+ "description": "GLM-4-9B-0414 é um modelo compacto da série GLM, com 9 bilhões de parâmetros. Este modelo herda as características técnicas da série GLM-4-32B, mas oferece uma opção de implantação mais leve. Apesar de seu tamanho menor, o GLM-4-9B-0414 ainda demonstra habilidades excepcionais em tarefas de geração de código, design de páginas da web, geração de gráficos SVG e redação baseada em pesquisa."
391
+ },
392
+ "THUDM/GLM-Z1-32B-0414": {
393
+ "description": "GLM-Z1-32B-0414 é um modelo de inferência com capacidade de pensamento profundo. Este modelo é baseado no GLM-4-32B-0414, desenvolvido através de inicialização a frio e aprendizado por reforço expandido, e foi treinado adicionalmente em tarefas de matemática, código e lógica. Em comparação com o modelo base, o GLM-Z1-32B-0414 melhorou significativamente suas habilidades matemáticas e capacidade de resolver tarefas complexas."
394
+ },
395
+ "THUDM/GLM-Z1-9B-0414": {
396
+ "description": "GLM-Z1-9B-0414 é um modelo compacto da série GLM, com apenas 9 bilhões de parâmetros, mas mantendo a tradição de código aberto enquanto exibe habilidades impressionantes. Apesar de seu tamanho menor, este modelo ainda se destaca em raciocínio matemático e tarefas gerais, com desempenho geral em nível de liderança entre modelos de código aberto de tamanho semelhante."
397
+ },
398
+ "THUDM/GLM-Z1-Rumination-32B-0414": {
399
+ "description": "GLM-Z1-Rumination-32B-0414 é um modelo de inferência profunda com capacidade de reflexão (comparável ao Deep Research da OpenAI). Diferente dos modelos típicos de pensamento profundo, o modelo de reflexão utiliza um tempo mais longo de pensamento profundo para resolver problemas mais abertos e complexos."
400
+ },
359
401
  "THUDM/chatglm3-6b": {
360
402
  "description": "ChatGLM3-6B é um modelo de código aberto da série ChatGLM, desenvolvido pela Zhipu AI. Este modelo mantém as excelentes características da geração anterior, como fluência no diálogo e baixo custo de implantação, enquanto introduz novos recursos. Ele utiliza dados de treinamento mais variados, um número de passos de treinamento mais robusto e uma estratégia de treinamento mais razoável, destacando-se entre modelos pré-treinados abaixo de 10B. O ChatGLM3-6B suporta diálogos de múltiplas rodadas, chamadas de ferramentas, execução de código e tarefas de agente em cenários complexos. Além do modelo de diálogo, também foram lançados o modelo base ChatGLM-6B-Base e o modelo de diálogo de longo texto ChatGLM3-6B-32K. Este modelo está completamente aberto para pesquisa acadêmica e permite uso comercial gratuito após registro."
361
403
  },
@@ -521,6 +563,9 @@
521
563
  "charglm-3": {
522
564
  "description": "O CharGLM-3 é projetado para interpretação de personagens e companhia emocional, suportando memória de múltiplas rodadas e diálogos personalizados, com ampla aplicação."
523
565
  },
566
+ "charglm-4": {
567
+ "description": "CharGLM-4 é projetado para interpretação de personagens e companhia emocional, suportando memória de múltiplas rodadas de longa duração e diálogos personalizados, com ampla aplicação."
568
+ },
524
569
  "chatglm3": {
525
570
  "description": "ChatGLM3 é um modelo de código fechado desenvolvido pela AI Zhipu em colaboração com o laboratório KEG da Tsinghua. Após um pré-treinamento extenso com identificadores em chinês e inglês, e um alinhamento com as preferências humanas, o modelo apresenta melhorias de 16%, 36% e 280% em MMLU, C-Eval e GSM8K, respectivamente, em comparação com a primeira geração. Ele lidera o ranking de tarefas em chinês C-Eval. É ideal para cenários que exigem alto nível de conhecimento, capacidade de raciocínio e criatividade, como redação de textos publicitários, escrita de romances, redação de conteúdo informativo e geração de código."
526
571
  },
@@ -632,9 +677,18 @@
632
677
  "command-r-plus-04-2024": {
633
678
  "description": "O Command R+ é um modelo de diálogo que segue instruções, apresentando maior qualidade e confiabilidade em tarefas linguísticas, além de um comprimento de contexto mais longo em comparação com modelos anteriores. É mais adequado para fluxos de trabalho complexos de RAG e uso de ferramentas em múltiplas etapas."
634
679
  },
680
+ "command-r-plus-08-2024": {
681
+ "description": "Command R+ é um modelo de diálogo que segue instruções, apresentando maior qualidade e confiabilidade em tarefas de linguagem, além de ter um comprimento de contexto mais longo em comparação com modelos anteriores. É mais adequado para fluxos de trabalho RAG complexos e uso de ferramentas em múltiplas etapas."
682
+ },
635
683
  "command-r7b-12-2024": {
636
684
  "description": "O command-r7b-12-2024 é uma versão compacta e eficiente, lançada em dezembro de 2024. Ele se destaca em tarefas que exigem raciocínio complexo e processamento em múltiplas etapas, como RAG, uso de ferramentas e agentes."
637
685
  },
686
+ "compound-beta": {
687
+ "description": "Compound-beta é um sistema de IA composto, suportado por vários modelos abertos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder a consultas dos usuários."
688
+ },
689
+ "compound-beta-mini": {
690
+ "description": "Compound-beta-mini é um sistema de IA composto, suportado por modelos abertos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder a consultas dos usuários."
691
+ },
638
692
  "dall-e-2": {
639
693
  "description": "O segundo modelo DALL·E, suporta geração de imagens mais realistas e precisas, com resolução quatro vezes maior que a da primeira geração."
640
694
  },
@@ -779,6 +833,18 @@
779
833
  "deepseek/deepseek-v3/community": {
780
834
  "description": "DeepSeek-V3 alcançou um avanço significativo na velocidade de inferência em comparação com os modelos anteriores. Classificado como o número um entre os modelos de código aberto, pode competir com os modelos fechados mais avançados do mundo. DeepSeek-V3 utiliza a arquitetura de Atenção Multi-Cabeça (MLA) e DeepSeekMoE, que foram amplamente validadas no DeepSeek-V2. Além disso, DeepSeek-V3 introduziu uma estratégia auxiliar sem perdas para balanceamento de carga e definiu objetivos de treinamento de previsão de múltiplos rótulos para obter um desempenho mais forte."
781
835
  },
836
+ "deepseek_r1": {
837
+ "description": "DeepSeek-R1 é um modelo de inferência impulsionado por aprendizado por reforço (RL), que resolve problemas de repetitividade e legibilidade no modelo. Antes do RL, o DeepSeek-R1 introduziu dados de inicialização a frio, otimizando ainda mais o desempenho de inferência. Ele se compara ao OpenAI-o1 em tarefas de matemática, código e raciocínio, e, através de métodos de treinamento cuidadosamente projetados, melhorou o desempenho geral."
838
+ },
839
+ "deepseek_r1_distill_llama_70b": {
840
+ "description": "DeepSeek-R1-Distill-Llama-70B é um modelo obtido através do treinamento de destilação do Llama-3.3-70B-Instruct. Este modelo é parte da série DeepSeek-R1 e, através do uso de amostras geradas pelo DeepSeek-R1, demonstrou desempenho excepcional em matemática, programação e raciocínio."
841
+ },
842
+ "deepseek_r1_distill_qwen_14b": {
843
+ "description": "DeepSeek-R1-Distill-Qwen-14B é um modelo obtido através da destilação de conhecimento do Qwen2.5-14B. Este modelo foi ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, demonstrando excelente capacidade de inferência."
844
+ },
845
+ "deepseek_r1_distill_qwen_32b": {
846
+ "description": "DeepSeek-R1-Distill-Qwen-32B é um modelo obtido através da destilação de conhecimento do Qwen2.5-32B. Este modelo foi ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, demonstrando desempenho excepcional em várias áreas, incluindo matemática, programação e raciocínio."
847
+ },
782
848
  "doubao-1.5-lite-32k": {
783
849
  "description": "Doubao-1.5-lite é a nova geração de modelo leve, com velocidade de resposta extrema, alcançando níveis de desempenho e latência de classe mundial."
784
850
  },
@@ -788,6 +854,9 @@
788
854
  "doubao-1.5-pro-32k": {
789
855
  "description": "Doubao-1.5-pro é a nova geração de modelo principal, com desempenho totalmente aprimorado, destacando-se em conhecimento, código, raciocínio, entre outros aspectos."
790
856
  },
857
+ "doubao-1.5-vision-lite": {
858
+ "description": "Doubao-1.5-vision-lite é um modelo multimodal atualizado, suportando reconhecimento de imagens de qualquer resolução e proporções extremas, melhorando a capacidade de raciocínio visual, reconhecimento de documentos, compreensão de informações detalhadas e seguimento de instruções. Suporta uma janela de contexto de 128k, com comprimento de saída de até 16k tokens."
859
+ },
791
860
  "emohaa": {
792
861
  "description": "O Emohaa é um modelo psicológico com capacidade de consultoria profissional, ajudando os usuários a entender questões emocionais."
793
862
  },
@@ -953,6 +1022,9 @@
953
1022
  "glm-4-air": {
954
1023
  "description": "O GLM-4-Air é uma versão econômica, com desempenho próximo ao GLM-4, oferecendo alta velocidade a um preço acessível."
955
1024
  },
1025
+ "glm-4-air-250414": {
1026
+ "description": "GLM-4-Air é uma versão de bom custo-benefício, com desempenho próximo ao GLM-4, oferecendo alta velocidade a um preço acessível."
1027
+ },
956
1028
  "glm-4-airx": {
957
1029
  "description": "O GLM-4-AirX oferece uma versão eficiente do GLM-4-Air, com velocidade de inferência até 2,6 vezes mais rápida."
958
1030
  },
@@ -962,6 +1034,9 @@
962
1034
  "glm-4-flash": {
963
1035
  "description": "O GLM-4-Flash é a escolha ideal para tarefas simples, com a maior velocidade e o preço mais acessível."
964
1036
  },
1037
+ "glm-4-flash-250414": {
1038
+ "description": "GLM-4-Flash é a escolha ideal para tarefas simples, sendo a mais rápida e gratuita."
1039
+ },
965
1040
  "glm-4-flashx": {
966
1041
  "description": "GLM-4-FlashX é uma versão aprimorada do Flash, com velocidade de inferência super rápida."
967
1042
  },
@@ -980,6 +1055,18 @@
980
1055
  "glm-4v-plus": {
981
1056
  "description": "O GLM-4V-Plus possui a capacidade de entender conteúdo de vídeo e múltiplas imagens, adequado para tarefas multimodais."
982
1057
  },
1058
+ "glm-4v-plus-0111": {
1059
+ "description": "GLM-4V-Plus possui capacidade de compreensão de conteúdo de vídeo e múltiplas imagens, adequado para tarefas multimodais."
1060
+ },
1061
+ "glm-z1-air": {
1062
+ "description": "Modelo de inferência: possui forte capacidade de inferência, adequado para tarefas que exigem raciocínio profundo."
1063
+ },
1064
+ "glm-z1-airx": {
1065
+ "description": "Inferência ultrarrápida: com velocidade de inferência super rápida e forte efeito de raciocínio."
1066
+ },
1067
+ "glm-z1-flash": {
1068
+ "description": "A série GLM-Z1 possui forte capacidade de raciocínio complexo, destacando-se em raciocínio lógico, matemática e programação. O comprimento máximo do contexto é de 32K."
1069
+ },
983
1070
  "glm-zero-preview": {
984
1071
  "description": "O GLM-Zero-Preview possui uma poderosa capacidade de raciocínio complexo, destacando-se em áreas como raciocínio lógico, matemática e programação."
985
1072
  },
@@ -1199,12 +1286,15 @@
1199
1286
  "hunyuan-turbos-20250226": {
1200
1287
  "description": "Versão fixa do hunyuan-TurboS pv2.1.2 com atualização do token de treinamento; aprimoramento das capacidades de raciocínio em matemática/lógica/código; melhoria da experiência em chinês e inglês, incluindo criação de texto, compreensão de texto, perguntas e respostas de conhecimento, conversas informais, entre outros."
1201
1288
  },
1202
- "hunyuan-turbos-20250313": {
1203
- "description": "Estilo unificado para etapas de resolução de problemas matemáticos, fortalecendo perguntas e respostas matemáticas em múltiplas rodadas. Otimização do estilo de resposta para criação de texto, removendo o 'sabor' de IA e aumentando a eloquência."
1204
- },
1205
1289
  "hunyuan-turbos-latest": {
1206
1290
  "description": "A versão mais recente do hunyuan-TurboS, o modelo de grande porte da Hunyuan, possui uma capacidade de raciocínio mais forte e uma experiência aprimorada."
1207
1291
  },
1292
+ "hunyuan-turbos-longtext-128k-20250325": {
1293
+ "description": "Especializado em tarefas de texto longo, como resumos de documentos e perguntas sobre documentos, também possui a capacidade de lidar com tarefas gerais de geração de texto. Destaca-se na análise e geração de textos longos, atendendo efetivamente a demandas complexas e detalhadas."
1294
+ },
1295
+ "hunyuan-turbos-vision": {
1296
+ "description": "Este modelo é adequado para cenários de compreensão de texto e imagem, sendo um novo modelo de linguagem visual de última geração baseado na tecnologia turbos da Hunyuan, focando em tarefas relacionadas à compreensão de texto e imagem, incluindo reconhecimento de entidades baseadas em imagens, perguntas e respostas de conhecimento, criação de textos e resolução de problemas por meio de fotos, com melhorias abrangentes em comparação com a geração anterior."
1297
+ },
1208
1298
  "hunyuan-vision": {
1209
1299
  "description": "O mais recente modelo multimodal Hunyuan, que suporta a entrada de imagens e texto para gerar conteúdo textual."
1210
1300
  },
@@ -1223,6 +1313,12 @@
1223
1313
  "internlm3-latest": {
1224
1314
  "description": "Nossa mais recente série de modelos, com desempenho de inferência excepcional, liderando entre modelos de código aberto de mesma escala. Aponta por padrão para nossa mais recente série de modelos InternLM3."
1225
1315
  },
1316
+ "jamba-large": {
1317
+ "description": "Nosso modelo mais poderoso e avançado, projetado para lidar com tarefas complexas em nível empresarial, com desempenho excepcional."
1318
+ },
1319
+ "jamba-mini": {
1320
+ "description": "O modelo mais eficiente da sua categoria, equilibrando velocidade e qualidade, com um tamanho menor."
1321
+ },
1226
1322
  "jina-deepsearch-v1": {
1227
1323
  "description": "A busca profunda combina pesquisa na web, leitura e raciocínio para realizar investigações abrangentes. Você pode vê-la como um agente que aceita suas tarefas de pesquisa - ela realizará uma busca extensa e passará por várias iterações antes de fornecer uma resposta. Esse processo envolve pesquisa contínua, raciocínio e resolução de problemas sob diferentes ângulos. Isso é fundamentalmente diferente de gerar respostas diretamente a partir de dados pré-treinados de grandes modelos padrão e de sistemas RAG tradicionais que dependem de buscas superficiais únicas."
1228
1324
  },
@@ -1568,9 +1664,18 @@
1568
1664
  "o1-preview": {
1569
1665
  "description": "o1 é o novo modelo de raciocínio da OpenAI, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
1570
1666
  },
1667
+ "o3": {
1668
+ "description": "o3 é um modelo versátil e poderoso, com excelente desempenho em várias áreas. Ele estabelece novos padrões para tarefas de matemática, ciência, programação e raciocínio visual. Também é bom em redação técnica e seguimento de instruções. Os usuários podem utilizá-lo para analisar textos, códigos e imagens, resolvendo problemas complexos em múltiplas etapas."
1669
+ },
1571
1670
  "o3-mini": {
1572
1671
  "description": "o3-mini é nosso mais recente modelo de inferência em miniatura, oferecendo alta inteligência com os mesmos custos e metas de latência que o o1-mini."
1573
1672
  },
1673
+ "o3-mini-high": {
1674
+ "description": "Versão de alto nível de inferência do o3-mini, oferecendo alta inteligência com os mesmos custos e metas de latência do o1-mini."
1675
+ },
1676
+ "o4-mini": {
1677
+ "description": "o4-mini é nosso mais recente modelo compacto da série o. Ele é otimizado para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
1678
+ },
1574
1679
  "open-codestral-mamba": {
1575
1680
  "description": "Codestral Mamba é um modelo de linguagem Mamba 2 focado em geração de código, oferecendo forte suporte para tarefas avançadas de codificação e raciocínio."
1576
1681
  },
@@ -1598,6 +1703,12 @@
1598
1703
  "openai/o1-preview": {
1599
1704
  "description": "o1 é o novo modelo de raciocínio da OpenAI, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
1600
1705
  },
1706
+ "openai/o4-mini": {
1707
+ "description": "o4-mini é otimizado para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
1708
+ },
1709
+ "openai/o4-mini-high": {
1710
+ "description": "Versão de alto nível de inferência do o4-mini, otimizada para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
1711
+ },
1601
1712
  "openrouter/auto": {
1602
1713
  "description": "Com base no comprimento do contexto, tema e complexidade, sua solicitação será enviada para Llama 3 70B Instruct, Claude 3.5 Sonnet (autoajustável) ou GPT-4o."
1603
1714
  },
@@ -1793,6 +1904,9 @@
1793
1904
  "qwq-plus-latest": {
1794
1905
  "description": "Modelo de inferência QwQ treinado com base no modelo Qwen2.5, que melhorou significativamente a capacidade de inferência do modelo através de aprendizado por reforço. Os indicadores principais do modelo, como código matemático (AIME 24/25, LiveCodeBench) e alguns indicadores gerais (IFEval, LiveBench, etc.), alcançaram o nível do DeepSeek-R1 versão completa."
1795
1906
  },
1907
+ "qwq_32b": {
1908
+ "description": "Modelo de inferência de tamanho médio da série Qwen. Comparado a modelos tradicionais de ajuste de instruções, o QwQ, com suas capacidades de pensamento e raciocínio, pode melhorar significativamente o desempenho em tarefas de downstream, especialmente na resolução de problemas difíceis."
1909
+ },
1796
1910
  "r1-1776": {
1797
1911
  "description": "R1-1776 é uma versão do modelo DeepSeek R1, treinada posteriormente para fornecer informações factuais não filtradas e imparciais."
1798
1912
  },
@@ -1853,12 +1967,21 @@
1853
1967
  "step-2-16k": {
1854
1968
  "description": "Suporta interações de contexto em larga escala, adequado para cenários de diálogo complexos."
1855
1969
  },
1970
+ "step-2-16k-exp": {
1971
+ "description": "Versão experimental do modelo step-2, contendo os recursos mais recentes, em atualização contínua. Não é recomendado para uso em ambientes de produção formal."
1972
+ },
1856
1973
  "step-2-mini": {
1857
1974
  "description": "Um modelo de grande escala de alta velocidade baseado na nova arquitetura de atenção auto-desenvolvida MFA, alcançando resultados semelhantes ao step1 com um custo muito baixo, enquanto mantém uma maior taxa de transferência e um tempo de resposta mais rápido. Capaz de lidar com tarefas gerais, possui especialização em habilidades de codificação."
1858
1975
  },
1976
+ "step-r1-v-mini": {
1977
+ "description": "Este modelo é um grande modelo de inferência com forte capacidade de compreensão de imagens, capaz de processar informações de imagem e texto, gerando conteúdo textual após um profundo raciocínio. O modelo se destaca no campo do raciocínio visual, além de possuir habilidades de raciocínio matemático, código e texto de primeira linha. O comprimento do contexto é de 100k."
1978
+ },
1859
1979
  "taichu_llm": {
1860
1980
  "description": "O modelo de linguagem Taichu possui uma forte capacidade de compreensão de linguagem, além de habilidades em criação de texto, perguntas e respostas, programação de código, cálculos matemáticos, raciocínio lógico, análise de sentimentos e resumo de texto. Inova ao combinar pré-treinamento com grandes dados e conhecimento rico de múltiplas fontes, aprimorando continuamente a tecnologia de algoritmos e absorvendo novos conhecimentos de vocabulário, estrutura, gramática e semântica de grandes volumes de dados textuais, proporcionando aos usuários informações e serviços mais convenientes e uma experiência mais inteligente."
1861
1981
  },
1982
+ "taichu_o1": {
1983
+ "description": "taichu_o1 é um novo grande modelo de inferência de próxima geração, que realiza cadeias de pensamento humano por meio de interações multimodais e aprendizado por reforço, suportando deduções de decisões complexas, enquanto exibe caminhos de raciocínio modeláveis com alta precisão de saída, adequado para análise de estratégias e raciocínio profundo."
1984
+ },
1862
1985
  "taichu_vl": {
1863
1986
  "description": "Integra capacidades de compreensão de imagens, transferência de conhecimento e atribuição lógica, destacando-se na área de perguntas e respostas baseadas em texto e imagem."
1864
1987
  },
@@ -5,6 +5,7 @@
5
5
  "off": "Desativar Depuração",
6
6
  "on": "Ver Informações de Chamada de Plugin",
7
7
  "payload": "carga do plugin",
8
+ "pluginState": "Estado do plugin",
8
9
  "response": "Resposta",
9
10
  "tool_call": "solicitação de chamada de ferramenta"
10
11
  },
@@ -7,6 +7,20 @@
7
7
  "images": "Imagens:",
8
8
  "prompt": "Palavra-chave"
9
9
  },
10
+ "localFiles": {
11
+ "file": "Arquivo",
12
+ "folder": "Pasta",
13
+ "open": "Abrir",
14
+ "openFile": "Abrir arquivo",
15
+ "openFolder": "Abrir pasta",
16
+ "read": {
17
+ "more": "Ver mais"
18
+ },
19
+ "readFile": "Ler arquivo",
20
+ "readFileError": "Falha ao ler o arquivo, verifique se o caminho do arquivo está correto",
21
+ "readFiles": "Ler arquivos",
22
+ "readFilesError": "Falha ao ler os arquivos, verifique se o caminho do arquivo está correto"
23
+ },
10
24
  "search": {
11
25
  "createNewSearch": "Criar nova pesquisa",
12
26
  "emptyResult": "Nenhum resultado encontrado, por favor, modifique as palavras-chave e tente novamente",
@@ -44,5 +58,16 @@
44
58
  "summary": "Resumo",
45
59
  "summaryTooltip": "Resumir o conteúdo atual",
46
60
  "viewMoreResults": "Ver mais {{results}} resultados"
61
+ },
62
+ "updateArgs": {
63
+ "duplicateKeyError": "A chave do campo deve ser única",
64
+ "form": {
65
+ "add": "Adicionar um item",
66
+ "key": "Chave do campo",
67
+ "value": "Valor do campo"
68
+ },
69
+ "formValidationFailed": "Falha na validação do formulário, verifique o formato dos parâmetros",
70
+ "keyRequired": "A chave do campo não pode estar vazia",
71
+ "stringifyError": "Não foi possível serializar os parâmetros, verifique o formato dos parâmetros"
47
72
  }
48
73
  }
@@ -284,6 +284,8 @@
284
284
  "rename": "Переименовать",
285
285
  "reset": "Сброс",
286
286
  "retry": "Повторить",
287
+ "run": "Запуск",
288
+ "save": "Сохранить",
287
289
  "send": "Отправить",
288
290
  "setting": "Настройка",
289
291
  "share": "Поделиться",
@@ -0,0 +1,32 @@
1
+ {
2
+ "remoteServer": {
3
+ "authError": "Ошибка авторизации: {{error}}",
4
+ "authPending": "Пожалуйста, завершите авторизацию в браузере",
5
+ "configDesc": "Подключение к удаленному серверу LobeChat для включения синхронизации данных",
6
+ "configError": "Ошибка конфигурации",
7
+ "configTitle": "Настройка облачной синхронизации",
8
+ "connect": "Подключиться и авторизоваться",
9
+ "connected": "Подключено",
10
+ "disconnect": "Отключиться",
11
+ "disconnectError": "Ошибка отключения",
12
+ "disconnected": "Не подключено",
13
+ "fetchError": "Ошибка получения конфигурации",
14
+ "invalidUrl": "Пожалуйста, введите действительный URL-адрес",
15
+ "serverUrl": "Адрес сервера",
16
+ "statusConnected": "Подключено",
17
+ "statusDisconnected": "Не подключено",
18
+ "urlRequired": "Пожалуйста, введите адрес сервера"
19
+ },
20
+ "updater": {
21
+ "downloadingUpdate": "Загрузка обновления",
22
+ "downloadingUpdateDesc": "Обновление загружается, пожалуйста, подождите...",
23
+ "later": "Обновить позже",
24
+ "newVersionAvailable": "Доступна новая версия",
25
+ "newVersionAvailableDesc": "Обнаружена новая версия {{version}}, хотите скачать сейчас?",
26
+ "restartAndInstall": "Перезагрузить и установить",
27
+ "updateError": "Ошибка обновления",
28
+ "updateReady": "Обновление готово",
29
+ "updateReadyDesc": "Lobe Chat {{version}} загружен, перезагрузите приложение для завершения установки.",
30
+ "upgradeNow": "Обновить сейчас"
31
+ }
32
+ }