@lobehub/chat 1.76.1 → 1.77.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (131) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/common.json +13 -2
  4. package/locales/ar/error.json +10 -0
  5. package/locales/ar/models.json +9 -6
  6. package/locales/ar/setting.json +28 -0
  7. package/locales/bg-BG/common.json +13 -2
  8. package/locales/bg-BG/error.json +10 -0
  9. package/locales/bg-BG/models.json +9 -6
  10. package/locales/bg-BG/setting.json +28 -0
  11. package/locales/de-DE/common.json +13 -2
  12. package/locales/de-DE/error.json +10 -0
  13. package/locales/de-DE/models.json +9 -6
  14. package/locales/de-DE/setting.json +28 -0
  15. package/locales/en-US/common.json +13 -2
  16. package/locales/en-US/error.json +10 -0
  17. package/locales/en-US/models.json +9 -6
  18. package/locales/en-US/setting.json +28 -0
  19. package/locales/es-ES/common.json +13 -2
  20. package/locales/es-ES/error.json +10 -0
  21. package/locales/es-ES/models.json +9 -6
  22. package/locales/es-ES/setting.json +28 -0
  23. package/locales/fa-IR/common.json +13 -2
  24. package/locales/fa-IR/error.json +10 -0
  25. package/locales/fa-IR/models.json +9 -6
  26. package/locales/fa-IR/setting.json +28 -0
  27. package/locales/fr-FR/common.json +13 -2
  28. package/locales/fr-FR/error.json +10 -0
  29. package/locales/fr-FR/models.json +9 -6
  30. package/locales/fr-FR/setting.json +28 -0
  31. package/locales/it-IT/common.json +13 -2
  32. package/locales/it-IT/error.json +10 -0
  33. package/locales/it-IT/models.json +9 -6
  34. package/locales/it-IT/setting.json +28 -0
  35. package/locales/ja-JP/common.json +13 -2
  36. package/locales/ja-JP/error.json +10 -0
  37. package/locales/ja-JP/models.json +9 -6
  38. package/locales/ja-JP/setting.json +28 -0
  39. package/locales/ko-KR/common.json +13 -2
  40. package/locales/ko-KR/error.json +10 -0
  41. package/locales/ko-KR/models.json +9 -6
  42. package/locales/ko-KR/setting.json +28 -0
  43. package/locales/nl-NL/common.json +13 -2
  44. package/locales/nl-NL/error.json +10 -0
  45. package/locales/nl-NL/models.json +9 -6
  46. package/locales/nl-NL/setting.json +28 -0
  47. package/locales/pl-PL/common.json +13 -2
  48. package/locales/pl-PL/error.json +10 -0
  49. package/locales/pl-PL/models.json +9 -6
  50. package/locales/pl-PL/setting.json +28 -0
  51. package/locales/pt-BR/common.json +13 -2
  52. package/locales/pt-BR/error.json +10 -0
  53. package/locales/pt-BR/models.json +9 -6
  54. package/locales/pt-BR/setting.json +28 -0
  55. package/locales/ru-RU/common.json +13 -2
  56. package/locales/ru-RU/error.json +10 -0
  57. package/locales/ru-RU/models.json +9 -6
  58. package/locales/ru-RU/setting.json +28 -0
  59. package/locales/tr-TR/common.json +13 -2
  60. package/locales/tr-TR/error.json +10 -0
  61. package/locales/tr-TR/models.json +9 -6
  62. package/locales/tr-TR/setting.json +28 -0
  63. package/locales/vi-VN/common.json +13 -2
  64. package/locales/vi-VN/error.json +10 -0
  65. package/locales/vi-VN/models.json +9 -6
  66. package/locales/vi-VN/setting.json +28 -0
  67. package/locales/zh-CN/common.json +13 -2
  68. package/locales/zh-CN/error.json +10 -0
  69. package/locales/zh-CN/models.json +10 -7
  70. package/locales/zh-CN/setting.json +28 -0
  71. package/locales/zh-TW/common.json +13 -2
  72. package/locales/zh-TW/error.json +10 -0
  73. package/locales/zh-TW/models.json +9 -6
  74. package/locales/zh-TW/setting.json +28 -0
  75. package/package.json +1 -1
  76. package/src/app/[variants]/(main)/(mobile)/me/data/features/Category.tsx +2 -2
  77. package/src/app/[variants]/(main)/chat/features/Migration/UpgradeButton.tsx +2 -1
  78. package/src/app/[variants]/(main)/settings/common/features/Common.tsx +0 -44
  79. package/src/app/[variants]/(main)/settings/hooks/useCategory.tsx +40 -14
  80. package/src/app/[variants]/(main)/settings/storage/Advanced.tsx +108 -0
  81. package/src/app/[variants]/(main)/settings/storage/IndexedDBStorage.tsx +55 -0
  82. package/src/app/[variants]/(main)/settings/storage/page.tsx +17 -0
  83. package/src/components/GroupIcon/index.tsx +25 -0
  84. package/src/components/IndexCard/index.tsx +143 -0
  85. package/src/components/ProgressItem/index.tsx +75 -0
  86. package/src/database/models/__tests__/session.test.ts +21 -0
  87. package/src/database/repositories/dataExporter/index.test.ts +330 -0
  88. package/src/database/repositories/dataExporter/index.ts +216 -0
  89. package/src/database/repositories/dataImporter/__tests__/fixtures/agents.json +65 -0
  90. package/src/database/repositories/dataImporter/__tests__/fixtures/agentsToSessions.json +541 -0
  91. package/src/database/repositories/dataImporter/__tests__/fixtures/topic.json +269 -0
  92. package/src/database/repositories/dataImporter/__tests__/fixtures/userSettings.json +18 -0
  93. package/src/database/repositories/dataImporter/__tests__/fixtures/with-client-id.json +778 -0
  94. package/src/database/repositories/dataImporter/__tests__/index.test.ts +120 -880
  95. package/src/database/repositories/dataImporter/deprecated/__tests__/index.test.ts +940 -0
  96. package/src/database/repositories/dataImporter/deprecated/index.ts +326 -0
  97. package/src/database/repositories/dataImporter/index.ts +684 -289
  98. package/src/database/server/models/session.ts +85 -9
  99. package/src/features/DataImporter/ImportDetail.tsx +203 -0
  100. package/src/features/DataImporter/SuccessResult.tsx +22 -6
  101. package/src/features/DataImporter/_deprecated.ts +43 -0
  102. package/src/features/DataImporter/config.ts +21 -0
  103. package/src/features/DataImporter/index.tsx +112 -31
  104. package/src/features/DevPanel/PostgresViewer/DataTable/index.tsx +6 -0
  105. package/src/features/User/UserPanel/useMenu.tsx +1 -36
  106. package/src/features/User/__tests__/useMenu.test.tsx +0 -2
  107. package/src/locales/default/common.ts +12 -1
  108. package/src/locales/default/error.ts +10 -0
  109. package/src/locales/default/setting.ts +28 -0
  110. package/src/server/routers/lambda/exporter.ts +25 -0
  111. package/src/server/routers/lambda/importer.ts +19 -3
  112. package/src/server/routers/lambda/index.ts +2 -0
  113. package/src/services/config.ts +80 -135
  114. package/src/services/export/_deprecated.ts +155 -0
  115. package/src/services/export/client.ts +15 -0
  116. package/src/services/export/index.ts +6 -0
  117. package/src/services/export/server.ts +9 -0
  118. package/src/services/export/type.ts +5 -0
  119. package/src/services/import/_deprecated.ts +42 -1
  120. package/src/services/import/client.test.ts +1 -1
  121. package/src/services/import/client.ts +30 -1
  122. package/src/services/import/server.ts +70 -2
  123. package/src/services/import/type.ts +10 -0
  124. package/src/store/global/initialState.ts +1 -0
  125. package/src/types/export.ts +11 -0
  126. package/src/types/exportConfig.ts +2 -0
  127. package/src/types/importer.ts +15 -0
  128. package/src/utils/client/exportFile.ts +21 -0
  129. package/vitest.config.ts +1 -1
  130. package/src/utils/config.ts +0 -109
  131. /package/src/database/repositories/dataImporter/{__tests__ → deprecated/__tests__}/fixtures/messages.json +0 -0
@@ -221,6 +221,9 @@
221
221
  "Pro/deepseek-ai/DeepSeek-V3": {
222
222
  "description": "DeepSeek-V3 é um modelo de linguagem com 671 bilhões de parâmetros, utilizando uma arquitetura de especialistas mistos (MoE) com atenção potencial de múltiplas cabeças (MLA) e uma estratégia de balanceamento de carga sem perda auxiliar, otimizando a eficiência de inferência e treinamento. Pré-treinado em 14,8 trilhões de tokens de alta qualidade, e ajustado por supervisão e aprendizado por reforço, o DeepSeek-V3 supera outros modelos de código aberto, aproximando-se de modelos fechados líderes."
223
223
  },
224
+ "Pro/deepseek-ai/DeepSeek-V3-1226": {
225
+ "description": "DeepSeek-V3 é um modelo de linguagem híbrido de especialistas (MoE) com 671 bilhões de parâmetros, utilizando atenção latente multi-cabeça (MLA) e a arquitetura DeepSeekMoE, combinando uma estratégia de balanceamento de carga sem perda auxiliar para otimizar a eficiência de inferência e treinamento. Pré-treinado em 14,8 trilhões de tokens de alta qualidade, e passando por ajuste fino supervisionado e aprendizado por reforço, o DeepSeek-V3 supera outros modelos de código aberto em desempenho, aproximando-se de modelos fechados líderes."
226
+ },
224
227
  "QwQ-32B-Preview": {
225
228
  "description": "O QwQ-32B-Preview é um modelo de processamento de linguagem natural inovador, capaz de lidar eficientemente com tarefas complexas de geração de diálogos e compreensão de contexto."
226
229
  },
@@ -743,6 +746,9 @@
743
746
  "deepseek-v3": {
744
747
  "description": "DeepSeek-V3 é um modelo MoE desenvolvido pela Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., com desempenho destacado em várias avaliações, ocupando o primeiro lugar entre os modelos de código aberto nas principais listas. Em comparação com o modelo V2.5, a velocidade de geração do V3 foi aumentada em 3 vezes, proporcionando uma experiência de uso mais rápida e fluida."
745
748
  },
749
+ "deepseek-v3-0324": {
750
+ "description": "DeepSeek-V3-0324 é um modelo MoE com 671 bilhões de parâmetros, destacando-se em habilidades de programação e técnicas, compreensão de contexto e processamento de textos longos."
751
+ },
746
752
  "deepseek/deepseek-chat": {
747
753
  "description": "Um novo modelo de código aberto que integra capacidades gerais e de codificação, não apenas preservando a capacidade de diálogo geral do modelo Chat original e a poderosa capacidade de processamento de código do modelo Coder, mas também alinhando-se melhor às preferências humanas. Além disso, o DeepSeek-V2.5 também alcançou melhorias significativas em várias áreas, como tarefas de escrita e seguimento de instruções."
748
754
  },
@@ -845,9 +851,6 @@
845
851
  "gemini-1.0-pro-latest": {
846
852
  "description": "Gemini 1.0 Pro é o modelo de IA de alto desempenho do Google, projetado para expansão em uma ampla gama de tarefas."
847
853
  },
848
- "gemini-1.5-flash": {
849
- "description": "Gemini 1.5 Flash é o mais recente modelo de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a escalabilidade eficiente de diversas tarefas."
850
- },
851
854
  "gemini-1.5-flash-001": {
852
855
  "description": "Gemini 1.5 Flash 001 é um modelo multimodal eficiente, suportando a expansão de aplicações amplas."
853
856
  },
@@ -902,9 +905,6 @@
902
905
  "gemini-2.0-flash-lite-001": {
903
906
  "description": "Variante do modelo Gemini 2.0 Flash, otimizada para custo-benefício e baixa latência."
904
907
  },
905
- "gemini-2.0-flash-lite-preview-02-05": {
906
- "description": "Um modelo Gemini 2.0 Flash otimizado para custo-benefício e baixa latência."
907
- },
908
908
  "gemini-2.0-flash-thinking-exp-01-21": {
909
909
  "description": "O Gemini 2.0 Flash Exp é o mais recente modelo experimental de IA multimodal do Google, com características de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal."
910
910
  },
@@ -1718,6 +1718,9 @@
1718
1718
  "qwen2.5-math-7b-instruct": {
1719
1719
  "description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
1720
1720
  },
1721
+ "qwen2.5-omni-7b": {
1722
+ "description": "O modelo da série Qwen-Omni suporta a entrada de múltiplos tipos de dados, incluindo vídeo, áudio, imagens e texto, e produz saídas em áudio e texto."
1723
+ },
1721
1724
  "qwen2.5-vl-32b-instruct": {
1722
1725
  "description": "A série de modelos Qwen2.5-VL aprimorou o nível de inteligência, praticidade e aplicabilidade dos modelos, proporcionando um desempenho superior em cenários como conversação natural, criação de conteúdo, serviços de conhecimento especializado e desenvolvimento de código. A versão 32B utiliza técnicas de aprendizado por reforço para otimizar o modelo, oferecendo, em comparação com outros modelos da série Qwen2.5 VL, um estilo de saída mais alinhado com as preferências humanas, capacidade de raciocínio para problemas matemáticos complexos e compreensão detalhada e raciocínio sobre imagens."
1723
1726
  },
@@ -346,6 +346,33 @@
346
346
  },
347
347
  "title": "Configurações de Tema"
348
348
  },
349
+ "storage": {
350
+ "actions": {
351
+ "export": {
352
+ "button": "Exportar",
353
+ "exportType": {
354
+ "agent": "Exportar configurações do assistente",
355
+ "agentWithMessage": "Exportar assistente e mensagens",
356
+ "all": "Exportar configurações globais e todos os dados do assistente",
357
+ "allAgent": "Exportar todas as configurações do assistente",
358
+ "allAgentWithMessage": "Exportar todos os assistentes e mensagens",
359
+ "globalSetting": "Exportar configurações globais"
360
+ },
361
+ "title": "Exportar dados"
362
+ },
363
+ "import": {
364
+ "button": "Importar",
365
+ "title": "Importar dados"
366
+ },
367
+ "title": "Operações Avançadas"
368
+ },
369
+ "desc": "Uso de armazenamento no navegador atual",
370
+ "embeddings": {
371
+ "used": "Armazenamento de vetores"
372
+ },
373
+ "title": "Armazenamento de Dados",
374
+ "used": "Uso de armazenamento"
375
+ },
349
376
  "submitAgentModal": {
350
377
  "button": "Enviar Assistente",
351
378
  "identifier": "Identificador do assistente",
@@ -439,6 +466,7 @@
439
466
  "hotkey": "Atalhos",
440
467
  "llm": "Modelo de Linguagem",
441
468
  "provider": "Fornecedor de IA",
469
+ "storage": "Armazenamento de Dados",
442
470
  "sync": "Sincronização na nuvem",
443
471
  "system-agent": "Assistente do Sistema",
444
472
  "tts": "Serviço de Voz"
@@ -183,7 +183,7 @@
183
183
  },
184
184
  "fullscreen": "Полноэкранный режим",
185
185
  "historyRange": "История",
186
- "import": "Импорт настроек",
186
+ "importData": "Импорт данных",
187
187
  "importModal": {
188
188
  "error": {
189
189
  "desc": "Извините, произошла ошибка в процессе импорта данных. Попробуйте импортировать заново или <1>сообщите о проблеме</1>, и мы постараемся помочь вам как можно скорее.",
@@ -205,7 +205,8 @@
205
205
  "sessions": "Агенты",
206
206
  "skips": "Пропущено дубликатов",
207
207
  "topics": "Темы",
208
- "type": "Тип данных"
208
+ "type": "Тип данных",
209
+ "update": "Запись обновлена"
209
210
  },
210
211
  "title": "Импорт данных",
211
212
  "uploading": {
@@ -214,6 +215,16 @@
214
215
  "speed": "Скорость загрузки"
215
216
  }
216
217
  },
218
+ "importPreview": {
219
+ "confirmImport": "Подтвердить импорт",
220
+ "tables": {
221
+ "count": "Количество записей",
222
+ "name": "Имя таблицы"
223
+ },
224
+ "title": "Предварительный просмотр импорта данных",
225
+ "totalRecords": "Всего будет импортировано {{count}} записей",
226
+ "totalTables": "{{count}} таблиц"
227
+ },
217
228
  "information": "Сообщество и информация",
218
229
  "installPWA": "Установить веб-приложение",
219
230
  "lang": {
@@ -16,6 +16,16 @@
16
16
  "detail": "Детали ошибки",
17
17
  "title": "Запрос не удался"
18
18
  },
19
+ "import": {
20
+ "importConfigFile": {
21
+ "description": "Причина ошибки: {{reason}}",
22
+ "title": "Импорт не удался"
23
+ },
24
+ "incompatible": {
25
+ "description": "Этот файл был экспортирован из более новой версии, пожалуйста, попробуйте обновить до последней версии и повторите импорт",
26
+ "title": "Текущая версия приложения не поддерживает импорт этого файла"
27
+ }
28
+ },
19
29
  "loginRequired": {
20
30
  "desc": "Скоро произойдет автоматический переход на страницу входа",
21
31
  "title": "Пожалуйста, войдите в систему, чтобы использовать эту функцию"
@@ -221,6 +221,9 @@
221
221
  "Pro/deepseek-ai/DeepSeek-V3": {
222
222
  "description": "DeepSeek-V3 — это языковая модель с 6710 миллиардами параметров, использующая архитектуру смешанных экспертов (MoE) и многофункциональное внимание (MLA), в сочетании с стратегией балансировки нагрузки без вспомогательных потерь, оптимизирующая эффективность вывода и обучения. После предобучения на 14.8 триллионах высококачественных токенов и последующей контролируемой донастройки и обучения с подкреплением, DeepSeek-V3 превосходит другие открытые модели и приближается к ведущим закрытым моделям."
223
223
  },
224
+ "Pro/deepseek-ai/DeepSeek-V3-1226": {
225
+ "description": "DeepSeek-V3 — это языковая модель с 6710 миллиардами параметров, использующая смешанную экспертизу (MoE), многоуровневое внимание (MLA) и архитектуру DeepSeekMoE, в сочетании с стратегией балансировки нагрузки без вспомогательных потерь, оптимизирующей эффективность вывода и обучения. Модель была предварительно обучена на 14,8 триллионах высококачественных токенов и прошла контрольную донастройку и обучение с подкреплением, что позволяет DeepSeek-V3 превосходить другие открытые модели и приближаться к ведущим закрытым моделям."
226
+ },
224
227
  "QwQ-32B-Preview": {
225
228
  "description": "QwQ-32B-Preview — это инновационная модель обработки естественного языка, способная эффективно обрабатывать сложные задачи генерации диалогов и понимания контекста."
226
229
  },
@@ -743,6 +746,9 @@
743
746
  "deepseek-v3": {
744
747
  "description": "DeepSeek-V3 — это модель MoE, разработанная компанией Hangzhou DeepSeek AI Technology Research Co., Ltd., которая показывает выдающиеся результаты в нескольких тестах и занимает первое место среди открытых моделей в основных рейтингах. V3 по сравнению с моделью V2.5 увеличила скорость генерации в 3 раза, обеспечивая пользователям более быстрое и плавное использование."
745
748
  },
749
+ "deepseek-v3-0324": {
750
+ "description": "DeepSeek-V3-0324 — это модель MoE с 671 миллиардами параметров, обладающая выдающимися способностями в программировании и технических навыках, понимании контекста и обработке длинных текстов."
751
+ },
746
752
  "deepseek/deepseek-chat": {
747
753
  "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше соответствует человеческим предпочтениям. Кроме того, DeepSeek-V2.5 значительно улучшила свои результаты в задачах написания, следования инструкциям и других областях."
748
754
  },
@@ -845,9 +851,6 @@
845
851
  "gemini-1.0-pro-latest": {
846
852
  "description": "Gemini 1.0 Pro — это высокопроизводительная модель ИИ от Google, разработанная для масштабирования широкого спектра задач."
847
853
  },
848
- "gemini-1.5-flash": {
849
- "description": "Gemini 1.5 Flash — это последняя многомодальная модель ИИ от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, графические и видеовходы, что делает её эффективной для масштабирования различных задач."
850
- },
851
854
  "gemini-1.5-flash-001": {
852
855
  "description": "Gemini 1.5 Flash 001 — это эффективная многомодальная модель, поддерживающая масштабирование для широкого спектра приложений."
853
856
  },
@@ -902,9 +905,6 @@
902
905
  "gemini-2.0-flash-lite-001": {
903
906
  "description": "Модельный вариант Gemini 2.0 Flash, оптимизированный для достижения таких целей, как экономическая эффективность и низкая задержка."
904
907
  },
905
- "gemini-2.0-flash-lite-preview-02-05": {
906
- "description": "Модель Gemini 2.0 Flash, оптимизированная для экономической эффективности и низкой задержки."
907
- },
908
908
  "gemini-2.0-flash-thinking-exp-01-21": {
909
909
  "description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI модель от Google, обладающая следующими поколениями характеристик, выдающейся скоростью, нативным вызовом инструментов и многомодальной генерацией."
910
910
  },
@@ -1718,6 +1718,9 @@
1718
1718
  "qwen2.5-math-7b-instruct": {
1719
1719
  "description": "Модель Qwen-Math с мощными способностями решения математических задач."
1720
1720
  },
1721
+ "qwen2.5-omni-7b": {
1722
+ "description": "Модели серии Qwen-Omni поддерживают ввод данных в различных модальностях, включая видео, аудио, изображения и текст, и выводят аудио и текст."
1723
+ },
1721
1724
  "qwen2.5-vl-32b-instruct": {
1722
1725
  "description": "Модели серии Qwen2.5-VL демонстрируют повышенный уровень интеллекта, практичности и адаптивности, что обеспечивает их превосходную производительность в таких сценариях, как естественные диалоги, создание контента, предоставление экспертных знаний и разработка кода. Версия 32B оптимизирована с использованием технологий обучения с подкреплением, что по сравнению с другими моделями серии Qwen2.5 VL обеспечивает более соответствующий человеческим предпочтениям стиль вывода, способность к решению сложных математических задач, а также детальное понимание и анализ изображений."
1723
1726
  },
@@ -346,6 +346,33 @@
346
346
  },
347
347
  "title": "Настройки темы"
348
348
  },
349
+ "storage": {
350
+ "actions": {
351
+ "export": {
352
+ "button": "Экспортировать",
353
+ "exportType": {
354
+ "agent": "Экспорт настроек помощника",
355
+ "agentWithMessage": "Экспорт помощника и сообщений",
356
+ "all": "Экспорт глобальных настроек и всех данных помощника",
357
+ "allAgent": "Экспорт всех настроек помощника",
358
+ "allAgentWithMessage": "Экспорт всех помощников и сообщений",
359
+ "globalSetting": "Экспорт глобальных настроек"
360
+ },
361
+ "title": "Экспорт данных"
362
+ },
363
+ "import": {
364
+ "button": "Импортировать",
365
+ "title": "Импорт данных"
366
+ },
367
+ "title": "Расширенные действия"
368
+ },
369
+ "desc": "Использование хранилища в текущем браузере",
370
+ "embeddings": {
371
+ "used": "Хранение векторов"
372
+ },
373
+ "title": "Хранение данных",
374
+ "used": "Использование хранилища"
375
+ },
349
376
  "submitAgentModal": {
350
377
  "button": "Отправить агента",
351
378
  "identifier": "Идентификатор агента",
@@ -439,6 +466,7 @@
439
466
  "hotkey": "Горячие клавиши",
440
467
  "llm": "Языковая модель",
441
468
  "provider": "Поставщик ИИ услуг",
469
+ "storage": "Хранение данных",
442
470
  "sync": "Синхронизация с облаком",
443
471
  "system-agent": "Системный агент",
444
472
  "tts": "Голосовые услуги"
@@ -183,7 +183,7 @@
183
183
  },
184
184
  "fullscreen": "Tam Ekran Modu",
185
185
  "historyRange": "Geçmiş Aralığı",
186
- "import": "İçe Aktar",
186
+ "importData": "Veri İçe Aktar",
187
187
  "importModal": {
188
188
  "error": {
189
189
  "desc": "Üzgünüz, veri aktarımı sırasında bir hata oluştu. Lütfen tekrar deneyin veya <1>bir sorun bildirin</1>, sorunu çözmek için elimizden geleni yapacağız.",
@@ -205,7 +205,8 @@
205
205
  "sessions": "Asistanlar",
206
206
  "skips": "Geç",
207
207
  "topics": "Konular",
208
- "type": "Tip"
208
+ "type": "Tip",
209
+ "update": "Kayıt güncellendi"
209
210
  },
210
211
  "title": "Veri İçe Aktar",
211
212
  "uploading": {
@@ -214,6 +215,16 @@
214
215
  "speed": "Yükleme Hızı"
215
216
  }
216
217
  },
218
+ "importPreview": {
219
+ "confirmImport": "İçe Aktarmayı Onayla",
220
+ "tables": {
221
+ "count": "Kayıt Sayısı",
222
+ "name": "Tablo Adı"
223
+ },
224
+ "title": "Veri İçe Aktarma Önizlemesi",
225
+ "totalRecords": "Toplam {{count}} kayıt içe aktarılacak",
226
+ "totalTables": "{{count}} tablo"
227
+ },
217
228
  "information": "Topluluk ve Bilgi",
218
229
  "installPWA": "Tarayıcı Uygulamasını Yükle",
219
230
  "lang": {
@@ -16,6 +16,16 @@
16
16
  "detail": "Hata Detayı",
17
17
  "title": "İstek Başarısız"
18
18
  },
19
+ "import": {
20
+ "importConfigFile": {
21
+ "description": "Hata nedeni: {{reason}}",
22
+ "title": "İçe aktarma başarısız"
23
+ },
24
+ "incompatible": {
25
+ "description": "Bu dosya daha yüksek bir sürümden dışa aktarılmıştır, lütfen en son sürüme güncelleyip tekrar içe aktarmayı deneyin",
26
+ "title": "Mevcut uygulama bu dosyayı içe aktarmayı desteklemiyor"
27
+ }
28
+ },
19
29
  "loginRequired": {
20
30
  "desc": "Otomatik olarak giriş sayfasına yönlendirileceksiniz",
21
31
  "title": "Lütfen bu özelliği kullanmadan önce giriş yapın"
@@ -221,6 +221,9 @@
221
221
  "Pro/deepseek-ai/DeepSeek-V3": {
222
222
  "description": "DeepSeek-V3, 6710 milyar parametreye sahip bir karma uzman (MoE) dil modelidir ve çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarisini kullanarak, yardımcı kayıplar olmadan yük dengeleme stratejileri ile çıkarım ve eğitim verimliliğini optimize etmektedir. 14.8 trilyon yüksek kaliteli token üzerinde önceden eğitilmiş ve denetimli ince ayar ve güçlendirilmiş öğrenme ile, DeepSeek-V3 performans açısından diğer açık kaynak modelleri geride bırakmakta ve lider kapalı kaynak modellere yaklaşmaktadır."
223
223
  },
224
+ "Pro/deepseek-ai/DeepSeek-V3-1226": {
225
+ "description": "DeepSeek-V3, 6710 milyar parametreye sahip bir karma uzman (MoE) dil modelidir. Çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarisini kullanarak, yardımcı kayıpsız yük dengeleme stratejileri ile optimizasyon yapar ve çıkarım ile eğitim verimliliğini artırır. 14.8 trilyon yüksek kaliteli token üzerinde önceden eğitilmiş ve denetimli ince ayar ile pekiştirmeli öğrenme ile geliştirilmiştir; DeepSeek-V3, performans açısından diğer açık kaynaklı modellere göre üstünlük sağlar ve lider kapalı kaynak modellere yakın bir performans sergiler."
226
+ },
224
227
  "QwQ-32B-Preview": {
225
228
  "description": "QwQ-32B-Preview, karmaşık diyalog oluşturma ve bağlam anlama görevlerini etkili bir şekilde işleyebilen yenilikçi bir doğal dil işleme modelidir."
226
229
  },
@@ -743,6 +746,9 @@
743
746
  "deepseek-v3": {
744
747
  "description": "DeepSeek-V3, Hangzhou DeepSeek Yapay Zeka Temel Teknoloji Araştırma Şirketi tarafından geliştirilen MoE modelidir, birçok değerlendirme sonucunda öne çıkmakta ve ana akım listelerde açık kaynak modeller arasında birinci sırada yer almaktadır. V3, V2.5 modeline göre üretim hızında 3 kat artış sağlamış, kullanıcılara daha hızlı ve akıcı bir deneyim sunmuştur."
745
748
  },
749
+ "deepseek-v3-0324": {
750
+ "description": "DeepSeek-V3-0324, 671B parametreye sahip bir MoE modelidir ve programlama ile teknik yetenekler, bağlam anlama ve uzun metin işleme gibi alanlarda belirgin avantajlar sunar."
751
+ },
746
752
  "deepseek/deepseek-chat": {
747
753
  "description": "Genel ve kod yeteneklerini birleştiren yeni açık kaynak model, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleriyle daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazma görevleri, talimat takibi gibi birçok alanda da büyük iyileştirmeler sağlamıştır."
748
754
  },
@@ -845,9 +851,6 @@
845
851
  "gemini-1.0-pro-latest": {
846
852
  "description": "Gemini 1.0 Pro, Google'ın yüksek performanslı AI modelidir ve geniş görev genişletmeleri için tasarlanmıştır."
847
853
  },
848
- "gemini-1.5-flash": {
849
- "description": "Gemini 1.5 Flash, Google'ın en son çok modlu AI modelidir, hızlı işleme yeteneğine sahiptir, metin, görüntü ve video girişi destekler, çeşitli görevler için verimli bir şekilde ölçeklenebilir."
850
- },
851
854
  "gemini-1.5-flash-001": {
852
855
  "description": "Gemini 1.5 Flash 001, geniş uygulama alanları için destekleyen verimli bir çok modlu modeldir."
853
856
  },
@@ -902,9 +905,6 @@
902
905
  "gemini-2.0-flash-lite-001": {
903
906
  "description": "Gemini 2.0 Flash model varyantı, maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiştir."
904
907
  },
905
- "gemini-2.0-flash-lite-preview-02-05": {
906
- "description": "Maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiş bir Gemini 2.0 Flash modelidir."
907
- },
908
908
  "gemini-2.0-flash-thinking-exp-01-21": {
909
909
  "description": "Gemini 2.0 Flash Exp, Google'ın en son deneysel çok modlu AI modelidir, bir sonraki nesil özelliklere, olağanüstü hıza, yerel araç çağrısına ve çok modlu üretime sahiptir."
910
910
  },
@@ -1718,6 +1718,9 @@
1718
1718
  "qwen2.5-math-7b-instruct": {
1719
1719
  "description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
1720
1720
  },
1721
+ "qwen2.5-omni-7b": {
1722
+ "description": "Qwen-Omni serisi modeller, video, ses, resim ve metin gibi çeşitli modlarda veri girişi destekler ve ses ile metin çıktısı verir."
1723
+ },
1721
1724
  "qwen2.5-vl-32b-instruct": {
1722
1725
  "description": "Qwen2.5-VL serisi modeller, doğal konuşma, içerik oluşturma, uzmanlık hizmetleri ve kod geliştirme gibi senaryolarda daha iyi performans göstermek için modelin zekâ seviyesini, pratikliğini ve uygunluğunu artırmaktadır. 32B sürümü, pekiştirmeli öğrenme teknolojisi kullanılarak optimize edilmiş olup, Qwen2.5 VL serisinin diğer modellerine kıyasla insan tercihlerine daha uygun çıktı tarzı, karmaşık matematik problemlerini çözme yeteneği ve görüntülerin ince detaylarını anlama ve akıl yürütme becerisi sunmaktadır."
1723
1726
  },
@@ -346,6 +346,33 @@
346
346
  },
347
347
  "title": "Tema Ayarları"
348
348
  },
349
+ "storage": {
350
+ "actions": {
351
+ "export": {
352
+ "button": "Dışa Aktar",
353
+ "exportType": {
354
+ "agent": "Yardımcı Ayarlarını Dışa Aktar",
355
+ "agentWithMessage": "Yardımcı ve Mesajları Dışa Aktar",
356
+ "all": "Küresel Ayarları ve Tüm Yardımcı Verilerini Dışa Aktar",
357
+ "allAgent": "Tüm Yardımcı Ayarlarını Dışa Aktar",
358
+ "allAgentWithMessage": "Tüm Yardımcıları ve Mesajları Dışa Aktar",
359
+ "globalSetting": "Küresel Ayarları Dışa Aktar"
360
+ },
361
+ "title": "Veri Dışa Aktar"
362
+ },
363
+ "import": {
364
+ "button": "İçe Aktar",
365
+ "title": "Veri İçe Aktar"
366
+ },
367
+ "title": "Gelişmiş İşlemler"
368
+ },
369
+ "desc": "Mevcut tarayıcıdaki depolama kullanımı",
370
+ "embeddings": {
371
+ "used": "Vektör Depolama"
372
+ },
373
+ "title": "Veri Depolama",
374
+ "used": "Depolama Kullanımı"
375
+ },
349
376
  "submitAgentModal": {
350
377
  "button": "Asistan Gönder",
351
378
  "identifier": "Asistan Kimliği",
@@ -439,6 +466,7 @@
439
466
  "hotkey": "Kısayollar",
440
467
  "llm": "Modeller",
441
468
  "provider": "Yapay Zeka Hizmet Sağlayıcısı",
469
+ "storage": "Veri Depolama",
442
470
  "sync": "Bulut Senkronizasyonu",
443
471
  "system-agent": "Sistem Asistanı",
444
472
  "tts": "Metin Seslendirme"
@@ -183,7 +183,7 @@
183
183
  },
184
184
  "fullscreen": "Chế độ toàn màn hình",
185
185
  "historyRange": "Phạm vi lịch sử",
186
- "import": "Nhập cấu hình",
186
+ "importData": "Nhập dữ liệu",
187
187
  "importModal": {
188
188
  "error": {
189
189
  "desc": "Xin lỗi vì quá trình nhập dữ liệu gặp sự cố. Vui lòng thử nhập lại hoặc <1>gửi vấn đề</1>, chúng tôi sẽ kiểm tra vấn đề ngay lập tức.",
@@ -205,7 +205,8 @@
205
205
  "sessions": "Trợ lý",
206
206
  "skips": "Bỏ qua trùng lặp",
207
207
  "topics": "Chủ đề",
208
- "type": "Loại dữ liệu"
208
+ "type": "Loại dữ liệu",
209
+ "update": "Cập nhật hồ sơ"
209
210
  },
210
211
  "title": "Nhập dữ liệu",
211
212
  "uploading": {
@@ -214,6 +215,16 @@
214
215
  "speed": "Tốc độ tải lên"
215
216
  }
216
217
  },
218
+ "importPreview": {
219
+ "confirmImport": "Xác nhận nhập khẩu",
220
+ "tables": {
221
+ "count": "Số hồ sơ",
222
+ "name": "Tên bảng"
223
+ },
224
+ "title": "Xem trước dữ liệu nhập khẩu",
225
+ "totalRecords": "Tổng cộng sẽ nhập {{count}} hồ sơ",
226
+ "totalTables": "{{count}} bảng"
227
+ },
217
228
  "information": "Cộng đồng và Thông tin",
218
229
  "installPWA": "Cài đặt ứng dụng trình duyệt",
219
230
  "lang": {
@@ -16,6 +16,16 @@
16
16
  "detail": "Chi tiết lỗi",
17
17
  "title": "Yêu cầu thất bại"
18
18
  },
19
+ "import": {
20
+ "importConfigFile": {
21
+ "description": "Lý do lỗi: {{reason}}",
22
+ "title": "Nhập khẩu thất bại"
23
+ },
24
+ "incompatible": {
25
+ "description": "Tệp này được xuất từ phiên bản cao hơn, vui lòng thử nâng cấp lên phiên bản mới nhất trước khi nhập lại",
26
+ "title": "Ứng dụng hiện tại không hỗ trợ nhập tệp này"
27
+ }
28
+ },
19
29
  "loginRequired": {
20
30
  "desc": "Sẽ tự động chuyển hướng đến trang đăng nhập",
21
31
  "title": "Vui lòng đăng nhập để sử dụng tính năng này"
@@ -221,6 +221,9 @@
221
221
  "Pro/deepseek-ai/DeepSeek-V3": {
222
222
  "description": "DeepSeek-V3 là một mô hình ngôn ngữ hỗn hợp chuyên gia (MoE) với 6710 tỷ tham số, sử dụng chú ý tiềm ẩn đa đầu (MLA) và kiến trúc DeepSeekMoE, kết hợp chiến lược cân bằng tải không có tổn thất phụ trợ, tối ưu hóa hiệu suất suy diễn và đào tạo. Thông qua việc được tiền huấn luyện trên 14.8 triệu tỷ token chất lượng cao, và thực hiện tinh chỉnh giám sát và học tăng cường, DeepSeek-V3 vượt trội hơn các mô hình mã nguồn mở khác, gần với các mô hình đóng kín hàng đầu."
223
223
  },
224
+ "Pro/deepseek-ai/DeepSeek-V3-1226": {
225
+ "description": "DeepSeek-V3 là một mô hình ngôn ngữ hỗn hợp chuyên gia (MoE) với 6710 tỷ tham số, sử dụng cơ cấu chú ý tiềm ẩn đa đầu (MLA) và DeepSeekMoE, kết hợp với chiến lược cân bằng tải không có tổn thất phụ trợ, tối ưu hóa hiệu suất suy diễn và đào tạo. Qua việc được tiền huấn luyện trên 14.8 triệu tỷ token chất lượng cao, và thực hiện tinh chỉnh giám sát cũng như học tăng cường, DeepSeek-V3 vượt trội về hiệu suất so với các mô hình mã nguồn mở khác, gần đạt được hiệu suất của các mô hình đóng nguồn hàng đầu."
226
+ },
224
227
  "QwQ-32B-Preview": {
225
228
  "description": "QwQ-32B-Preview là một mô hình xử lý ngôn ngữ tự nhiên độc đáo, có khả năng xử lý hiệu quả các nhiệm vụ tạo đối thoại phức tạp và hiểu ngữ cảnh."
226
229
  },
@@ -743,6 +746,9 @@
743
746
  "deepseek-v3": {
744
747
  "description": "DeepSeek-V3 là mô hình MoE tự phát triển của Công ty Nghiên cứu Công nghệ AI Độ Sâu Hàng Châu, có nhiều thành tích xuất sắc trong các bài kiểm tra, đứng đầu bảng xếp hạng mô hình mã nguồn mở. V3 so với mô hình V2.5 đã cải thiện tốc độ tạo ra gấp 3 lần, mang đến trải nghiệm sử dụng nhanh chóng và mượt mà hơn cho người dùng."
745
748
  },
749
+ "deepseek-v3-0324": {
750
+ "description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật trong khả năng lập trình và kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài."
751
+ },
746
752
  "deepseek/deepseek-chat": {
747
753
  "description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều lĩnh vực như nhiệm vụ viết, theo dõi chỉ dẫn."
748
754
  },
@@ -845,9 +851,6 @@
845
851
  "gemini-1.0-pro-latest": {
846
852
  "description": "Gemini 1.0 Pro là mô hình AI hiệu suất cao của Google, được thiết kế để mở rộng cho nhiều nhiệm vụ."
847
853
  },
848
- "gemini-1.5-flash": {
849
- "description": "Gemini 1.5 Flash là mô hình AI đa phương thức mới nhất của Google, có khả năng xử lý nhanh, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp cho việc mở rộng hiệu quả cho nhiều nhiệm vụ."
850
- },
851
854
  "gemini-1.5-flash-001": {
852
855
  "description": "Gemini 1.5 Flash 001 là một mô hình đa phương thức hiệu quả, hỗ trợ mở rộng cho nhiều ứng dụng."
853
856
  },
@@ -902,9 +905,6 @@
902
905
  "gemini-2.0-flash-lite-001": {
903
906
  "description": "Biến thể mô hình Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp."
904
907
  },
905
- "gemini-2.0-flash-lite-preview-02-05": {
906
- "description": "Một mô hình Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp."
907
- },
908
908
  "gemini-2.0-flash-thinking-exp-01-21": {
909
909
  "description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, sở hữu các tính năng thế hệ tiếp theo, tốc độ vượt trội, gọi công cụ bản địa và sinh ra đa phương thức."
910
910
  },
@@ -1718,6 +1718,9 @@
1718
1718
  "qwen2.5-math-7b-instruct": {
1719
1719
  "description": "Mô hình Qwen-Math có khả năng giải quyết bài toán toán học mạnh mẽ."
1720
1720
  },
1721
+ "qwen2.5-omni-7b": {
1722
+ "description": "Mô hình Qwen-Omni hỗ trợ đầu vào từ nhiều loại dữ liệu khác nhau, bao gồm video, âm thanh, hình ảnh và văn bản, và xuất ra âm thanh và văn bản."
1723
+ },
1721
1724
  "qwen2.5-vl-32b-instruct": {
1722
1725
  "description": "Dòng mô hình Qwen2.5-VL đã nâng cao mức độ thông minh, tính thực tế và khả năng áp dụng, giúp mô hình hoạt động hiệu quả hơn trong các tình huống như đối thoại tự nhiên, sáng tạo nội dung, cung cấp dịch vụ kiến thức chuyên môn và phát triển mã. Phiên bản 32B đã sử dụng công nghệ học tăng cường để tối ưu hóa mô hình, so với các mô hình khác trong dòng Qwen2.5 VL, cung cấp phong cách đầu ra phù hợp hơn với sở thích của con người, khả năng suy luận các vấn đề toán học phức tạp, cũng như khả năng hiểu và suy luận chi tiết về hình ảnh."
1723
1726
  },
@@ -346,6 +346,33 @@
346
346
  },
347
347
  "title": "Cài đặt chủ đề"
348
348
  },
349
+ "storage": {
350
+ "actions": {
351
+ "export": {
352
+ "button": "Xuất",
353
+ "exportType": {
354
+ "agent": "Xuất cài đặt trợ lý",
355
+ "agentWithMessage": "Xuất trợ lý và tin nhắn",
356
+ "all": "Xuất cài đặt toàn cầu và tất cả dữ liệu trợ lý",
357
+ "allAgent": "Xuất tất cả cài đặt trợ lý",
358
+ "allAgentWithMessage": "Xuất tất cả trợ lý và tin nhắn",
359
+ "globalSetting": "Xuất cài đặt toàn cầu"
360
+ },
361
+ "title": "Xuất dữ liệu"
362
+ },
363
+ "import": {
364
+ "button": "Nhập",
365
+ "title": "Nhập dữ liệu"
366
+ },
367
+ "title": "Thao tác nâng cao"
368
+ },
369
+ "desc": "Dung lượng lưu trữ trong trình duyệt hiện tại",
370
+ "embeddings": {
371
+ "used": "Lưu trữ vector"
372
+ },
373
+ "title": "Lưu trữ dữ liệu",
374
+ "used": "Dung lượng lưu trữ"
375
+ },
349
376
  "submitAgentModal": {
350
377
  "button": "Gửi trợ lý",
351
378
  "identifier": "Nhận dạng trợ lý",
@@ -439,6 +466,7 @@
439
466
  "hotkey": "Phím tắt",
440
467
  "llm": "Mô hình ngôn ngữ",
441
468
  "provider": "Nhà cung cấp AI",
469
+ "storage": "Lưu trữ dữ liệu",
442
470
  "sync": "Đồng bộ trên đám mây",
443
471
  "system-agent": "Trợ lý hệ thống",
444
472
  "tts": "Dịch vụ giọng nói"
@@ -183,7 +183,7 @@
183
183
  },
184
184
  "fullscreen": "全屏模式",
185
185
  "historyRange": "历史范围",
186
- "import": "导入配置",
186
+ "importData": "导入数据",
187
187
  "importModal": {
188
188
  "error": {
189
189
  "desc": "非常抱歉,数据导入过程发生异常。请尝试重新导入,或 <1>提交问题</1>,我们将会第一时间帮你排查问题。",
@@ -205,7 +205,8 @@
205
205
  "sessions": "助手",
206
206
  "skips": "重复跳过",
207
207
  "topics": "话题",
208
- "type": "数据类型"
208
+ "type": "数据类型",
209
+ "update": "记录更新"
209
210
  },
210
211
  "title": "导入数据",
211
212
  "uploading": {
@@ -214,6 +215,16 @@
214
215
  "speed": "上传速度"
215
216
  }
216
217
  },
218
+ "importPreview": {
219
+ "confirmImport": "确认导入",
220
+ "tables": {
221
+ "count": "记录数",
222
+ "name": "表名"
223
+ },
224
+ "title": "导入数据预览",
225
+ "totalRecords": "总计将导入 {{count}} 条记录",
226
+ "totalTables": "{{count}} 个表"
227
+ },
217
228
  "information": "社区与资讯",
218
229
  "installPWA": "安装浏览器应用 (PWA)",
219
230
  "lang": {
@@ -16,6 +16,16 @@
16
16
  "detail": "错误详情",
17
17
  "title": "请求失败"
18
18
  },
19
+ "import": {
20
+ "importConfigFile": {
21
+ "description": "出错原因: {{reason}}",
22
+ "title": "导入失败"
23
+ },
24
+ "incompatible": {
25
+ "description": "该文件由更高版本导出,请尝试升级到最新版本后再重新导入",
26
+ "title": "当前应用不支持导入该文件"
27
+ }
28
+ },
19
29
  "loginRequired": {
20
30
  "desc": "即将自动跳转到登录页面",
21
31
  "title": "请登录后使用该功能"