@lobehub/chat 1.63.2 → 1.64.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (151) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/models.json +25 -16
  4. package/locales/ar/plugin.json +16 -0
  5. package/locales/ar/portal.json +0 -5
  6. package/locales/ar/tool.json +18 -0
  7. package/locales/bg-BG/models.json +25 -16
  8. package/locales/bg-BG/plugin.json +16 -0
  9. package/locales/bg-BG/portal.json +0 -5
  10. package/locales/bg-BG/tool.json +18 -0
  11. package/locales/de-DE/models.json +25 -16
  12. package/locales/de-DE/plugin.json +16 -0
  13. package/locales/de-DE/portal.json +0 -5
  14. package/locales/de-DE/tool.json +18 -0
  15. package/locales/en-US/models.json +24 -15
  16. package/locales/en-US/plugin.json +16 -0
  17. package/locales/en-US/portal.json +0 -5
  18. package/locales/en-US/tool.json +18 -0
  19. package/locales/es-ES/models.json +25 -16
  20. package/locales/es-ES/plugin.json +16 -0
  21. package/locales/es-ES/portal.json +0 -5
  22. package/locales/es-ES/tool.json +18 -0
  23. package/locales/fa-IR/models.json +25 -16
  24. package/locales/fa-IR/plugin.json +16 -0
  25. package/locales/fa-IR/portal.json +0 -5
  26. package/locales/fa-IR/tool.json +18 -0
  27. package/locales/fr-FR/models.json +25 -16
  28. package/locales/fr-FR/plugin.json +16 -0
  29. package/locales/fr-FR/portal.json +0 -5
  30. package/locales/fr-FR/tool.json +18 -0
  31. package/locales/it-IT/models.json +25 -16
  32. package/locales/it-IT/plugin.json +16 -0
  33. package/locales/it-IT/portal.json +0 -5
  34. package/locales/it-IT/tool.json +18 -0
  35. package/locales/ja-JP/models.json +24 -15
  36. package/locales/ja-JP/plugin.json +16 -0
  37. package/locales/ja-JP/portal.json +0 -5
  38. package/locales/ja-JP/tool.json +18 -0
  39. package/locales/ko-KR/models.json +25 -16
  40. package/locales/ko-KR/plugin.json +16 -0
  41. package/locales/ko-KR/portal.json +0 -5
  42. package/locales/ko-KR/tool.json +18 -0
  43. package/locales/nl-NL/models.json +25 -16
  44. package/locales/nl-NL/plugin.json +16 -0
  45. package/locales/nl-NL/portal.json +0 -5
  46. package/locales/nl-NL/tool.json +18 -0
  47. package/locales/pl-PL/models.json +25 -16
  48. package/locales/pl-PL/plugin.json +16 -0
  49. package/locales/pl-PL/portal.json +0 -5
  50. package/locales/pl-PL/tool.json +18 -0
  51. package/locales/pt-BR/models.json +24 -15
  52. package/locales/pt-BR/plugin.json +16 -0
  53. package/locales/pt-BR/portal.json +0 -5
  54. package/locales/pt-BR/tool.json +18 -0
  55. package/locales/ru-RU/models.json +25 -16
  56. package/locales/ru-RU/plugin.json +16 -0
  57. package/locales/ru-RU/portal.json +0 -5
  58. package/locales/ru-RU/tool.json +18 -0
  59. package/locales/tr-TR/models.json +25 -16
  60. package/locales/tr-TR/plugin.json +16 -0
  61. package/locales/tr-TR/portal.json +0 -5
  62. package/locales/tr-TR/tool.json +18 -0
  63. package/locales/vi-VN/models.json +24 -15
  64. package/locales/vi-VN/plugin.json +16 -0
  65. package/locales/vi-VN/portal.json +0 -5
  66. package/locales/vi-VN/tool.json +18 -0
  67. package/locales/zh-CN/models.json +30 -21
  68. package/locales/zh-CN/plugin.json +16 -0
  69. package/locales/zh-CN/portal.json +1 -6
  70. package/locales/zh-CN/tool.json +19 -1
  71. package/locales/zh-TW/models.json +23 -14
  72. package/locales/zh-TW/plugin.json +16 -0
  73. package/locales/zh-TW/portal.json +0 -5
  74. package/locales/zh-TW/tool.json +18 -0
  75. package/package.json +1 -1
  76. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +1 -0
  77. package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/SearchTags.tsx +17 -0
  78. package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/Tags.tsx +8 -2
  79. package/src/config/tools.ts +16 -0
  80. package/src/database/repositories/aiInfra/index.test.ts +29 -0
  81. package/src/features/ChatInput/ActionBar/Search/index.tsx +6 -15
  82. package/src/features/Conversation/Messages/Assistant/Tool/Inspector/ToolTitle.tsx +76 -0
  83. package/src/features/Conversation/Messages/Assistant/Tool/Inspector/index.tsx +8 -21
  84. package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +62 -50
  85. package/src/features/PluginsUI/Render/BuiltinType/index.tsx +11 -1
  86. package/src/features/PluginsUI/Render/index.tsx +3 -0
  87. package/src/features/Portal/Plugins/Body/index.tsx +3 -7
  88. package/src/features/Portal/Plugins/Header.tsx +14 -2
  89. package/src/hooks/useAgentEnableSearch.ts +27 -0
  90. package/src/libs/agent-runtime/perplexity/index.test.ts +26 -0
  91. package/src/libs/agent-runtime/utils/streams/openai.ts +1 -1
  92. package/src/libs/trpc/client/index.ts +1 -0
  93. package/src/libs/trpc/client/tools.ts +20 -0
  94. package/src/locales/default/plugin.ts +16 -0
  95. package/src/locales/default/portal.ts +0 -5
  96. package/src/locales/default/tool.ts +18 -0
  97. package/src/server/modules/SearXNG.ts +33 -0
  98. package/src/server/routers/lambda/message.ts +11 -0
  99. package/src/server/routers/tools/__tests__/fixtures/searXNG.ts +668 -0
  100. package/src/server/routers/tools/__tests__/search.test.ts +47 -0
  101. package/src/server/routers/tools/index.ts +3 -0
  102. package/src/server/routers/tools/search.ts +38 -0
  103. package/src/services/__tests__/__snapshots__/chat.test.ts.snap +1 -0
  104. package/src/services/_auth.ts +4 -4
  105. package/src/services/chat.ts +31 -10
  106. package/src/services/message/_deprecated.ts +4 -0
  107. package/src/services/message/client.ts +4 -0
  108. package/src/services/message/server.ts +5 -5
  109. package/src/services/message/type.ts +2 -0
  110. package/src/services/search.ts +9 -0
  111. package/src/store/aiInfra/slices/aiModel/selectors.ts +12 -5
  112. package/src/store/chat/slices/builtinTool/action.ts +121 -0
  113. package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
  114. package/src/store/chat/slices/builtinTool/selectors.ts +3 -0
  115. package/src/store/chat/slices/message/action.ts +11 -0
  116. package/src/store/chat/slices/plugin/action.test.ts +2 -2
  117. package/src/store/chat/slices/plugin/action.ts +2 -2
  118. package/src/store/tool/selectors/tool.ts +5 -12
  119. package/src/store/tool/slices/builtin/selectors.ts +1 -1
  120. package/src/store/user/slices/modelList/action.ts +6 -0
  121. package/src/store/user/slices/modelList/selectors/keyVaults.ts +1 -0
  122. package/src/tools/index.ts +7 -0
  123. package/src/tools/portals.ts +6 -1
  124. package/src/tools/renders.ts +3 -0
  125. package/src/{features/Portal/Plugins → tools/web-browsing/Portal}/Footer.tsx +13 -10
  126. package/src/tools/web-browsing/Portal/ResultList/SearchItem/CategoryAvatar.tsx +70 -0
  127. package/src/tools/web-browsing/Portal/ResultList/SearchItem/TitleExtra.tsx +38 -0
  128. package/src/tools/web-browsing/Portal/ResultList/SearchItem/Video.tsx +135 -0
  129. package/src/tools/web-browsing/Portal/ResultList/SearchItem/index.tsx +91 -0
  130. package/src/tools/web-browsing/Portal/ResultList/index.tsx +21 -0
  131. package/src/tools/web-browsing/Portal/index.tsx +65 -0
  132. package/src/tools/web-browsing/Render/ConfigForm/Form.tsx +110 -0
  133. package/src/tools/web-browsing/Render/ConfigForm/SearchXNGIcon.tsx +20 -0
  134. package/src/tools/web-browsing/Render/ConfigForm/index.tsx +67 -0
  135. package/src/tools/web-browsing/Render/ConfigForm/style.tsx +63 -0
  136. package/src/tools/web-browsing/Render/SearchQuery/SearchView.tsx +88 -0
  137. package/src/tools/web-browsing/Render/SearchQuery/index.tsx +61 -0
  138. package/src/tools/web-browsing/Render/SearchResult/SearchResultItem.tsx +72 -0
  139. package/src/tools/web-browsing/Render/SearchResult/ShowMore.tsx +68 -0
  140. package/src/tools/web-browsing/Render/SearchResult/index.tsx +105 -0
  141. package/src/tools/web-browsing/Render/index.tsx +57 -0
  142. package/src/tools/web-browsing/components/EngineAvatar.tsx +32 -0
  143. package/src/tools/web-browsing/components/SearchBar.tsx +134 -0
  144. package/src/tools/web-browsing/const.ts +11 -0
  145. package/src/tools/web-browsing/index.ts +102 -0
  146. package/src/types/message/chat.ts +1 -0
  147. package/src/types/message/tools.ts +10 -0
  148. package/src/types/tool/builtin.ts +2 -0
  149. package/src/types/tool/search.ts +38 -0
  150. package/src/types/user/settings/keyVaults.ts +8 -1
  151. package/src/utils/toolManifest.ts +20 -0
@@ -170,9 +170,6 @@
170
170
  "MiniMax-Text-01": {
171
171
  "description": "In the MiniMax-01 series of models, we have made bold innovations: for the first time, we have implemented a linear attention mechanism on a large scale, making the traditional Transformer architecture no longer the only option. This model has a parameter count of up to 456 billion, with a single activation of 45.9 billion. Its overall performance rivals that of top overseas models while efficiently handling the world's longest context of 4 million tokens, which is 32 times that of GPT-4o and 20 times that of Claude-3.5-Sonnet."
172
172
  },
173
- "Nous-Hermes-2-Mixtral-8x7B-DPO": {
174
- "description": "Hermes 2 Mixtral 8x7B DPO is a highly flexible multi-model fusion designed to provide an exceptional creative experience."
175
- },
176
173
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
177
174
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) is a high-precision instruction model suitable for complex computations."
178
175
  },
@@ -323,6 +320,9 @@
323
320
  "SenseChat-5": {
324
321
  "description": "The latest version model (V5.5) with a context length of 128K shows significant improvements in mathematical reasoning, English conversation, instruction following, and long text comprehension, comparable to GPT-4o."
325
322
  },
323
+ "SenseChat-5-1202": {
324
+ "description": "This is the latest version based on V5.5, showing significant improvements in basic capabilities in Chinese and English, chatting, scientific knowledge, humanities knowledge, writing, mathematical logic, and word count control compared to the previous version."
325
+ },
326
326
  "SenseChat-5-Cantonese": {
327
327
  "description": "With a context length of 32K, it surpasses GPT-4 in Cantonese conversation comprehension and is competitive with GPT-4 Turbo in knowledge, reasoning, mathematics, and code writing across multiple domains."
328
328
  },
@@ -335,6 +335,12 @@
335
335
  "SenseChat-Turbo": {
336
336
  "description": "Suitable for fast question answering and model fine-tuning scenarios."
337
337
  },
338
+ "SenseChat-Turbo-1202": {
339
+ "description": "This is the latest lightweight version model, achieving over 90% of the full model's capabilities while significantly reducing inference costs."
340
+ },
341
+ "SenseChat-Vision": {
342
+ "description": "The latest version model (V5.5) supports multi-image input and fully optimizes the model's basic capabilities, achieving significant improvements in object attribute recognition, spatial relationships, action event recognition, scene understanding, emotion recognition, logical reasoning, and text understanding and generation."
343
+ },
338
344
  "Skylark2-lite-8k": {
339
345
  "description": "Skylark 2nd generation model, Skylark2-lite model is characterized by high response speed, suitable for high real-time requirements, cost-sensitive scenarios, and situations where model accuracy is less critical, with a context window length of 8k."
340
346
  },
@@ -1019,6 +1025,12 @@
1019
1025
  "hunyuan-standard-vision": {
1020
1026
  "description": "The latest multimodal model from Hunyuan, supporting multilingual responses with balanced capabilities in both Chinese and English."
1021
1027
  },
1028
+ "hunyuan-translation": {
1029
+ "description": "Supports translation between Chinese and 15 other languages including English, Japanese, French, Portuguese, Spanish, Turkish, Russian, Arabic, Korean, Italian, German, Vietnamese, Malay, and Indonesian. It is based on a multi-scenario translation evaluation set with automated COMET scoring, demonstrating overall superior translation capabilities compared to similarly scaled models in the market."
1030
+ },
1031
+ "hunyuan-translation-lite": {
1032
+ "description": "The Hunyuan translation model supports natural language conversational translation; it supports translation between Chinese and 15 other languages including English, Japanese, French, Portuguese, Spanish, Turkish, Russian, Arabic, Korean, Italian, German, Vietnamese, Malay, and Indonesian."
1033
+ },
1022
1034
  "hunyuan-turbo": {
1023
1035
  "description": "The preview version of the next-generation Hunyuan large language model, featuring a brand-new mixed expert model (MoE) structure, which offers faster inference efficiency and stronger performance compared to Hunyuan Pro."
1024
1036
  },
@@ -1220,9 +1232,6 @@
1220
1232
  "meta-llama/llama-3-8b-instruct": {
1221
1233
  "description": "Llama 3 8B Instruct is optimized for high-quality conversational scenarios, performing better than many closed-source models."
1222
1234
  },
1223
- "meta-llama/llama-3.1-405b-instruct": {
1224
- "description": "Llama 3.1 405B Instruct is the latest version from Meta, optimized for generating high-quality dialogues, surpassing many leading closed-source models."
1225
- },
1226
1235
  "meta-llama/llama-3.1-70b-instruct": {
1227
1236
  "description": "Llama 3.1 70B Instruct is designed for high-quality conversations, excelling in human evaluations, particularly in highly interactive scenarios."
1228
1237
  },
@@ -1286,9 +1295,6 @@
1286
1295
  "microsoft/WizardLM-2-8x22B": {
1287
1296
  "description": "WizardLM 2 is a language model provided by Microsoft AI, excelling in complex dialogues, multilingual capabilities, reasoning, and intelligent assistant tasks."
1288
1297
  },
1289
- "microsoft/wizardlm 2-7b": {
1290
- "description": "WizardLM 2 7B is Microsoft's latest lightweight AI model, performing nearly ten times better than existing leading open-source models."
1291
- },
1292
1298
  "microsoft/wizardlm-2-8x22b": {
1293
1299
  "description": "WizardLM-2 8x22B is Microsoft's state-of-the-art Wizard model, demonstrating extremely competitive performance."
1294
1300
  },
@@ -1580,10 +1586,10 @@
1580
1586
  "qwq-32b-preview": {
1581
1587
  "description": "The QwQ model is an experimental research model developed by the Qwen team, focusing on enhancing AI reasoning capabilities."
1582
1588
  },
1583
- "solar-1-mini-chat": {
1584
- "description": "Solar Mini is a compact LLM that outperforms GPT-3.5, featuring strong multilingual capabilities, supporting English and Korean, and providing an efficient and compact solution."
1589
+ "solar-mini": {
1590
+ "description": "Solar Mini is a compact LLM that outperforms GPT-3.5, featuring strong multilingual capabilities and supporting English and Korean, providing an efficient and compact solution."
1585
1591
  },
1586
- "solar-1-mini-chat-ja": {
1592
+ "solar-mini-ja": {
1587
1593
  "description": "Solar Mini (Ja) extends the capabilities of Solar Mini, focusing on Japanese while maintaining efficiency and excellent performance in English and Korean usage."
1588
1594
  },
1589
1595
  "solar-pro": {
@@ -1619,6 +1625,9 @@
1619
1625
  "step-1.5v-mini": {
1620
1626
  "description": "This model has powerful video understanding capabilities."
1621
1627
  },
1628
+ "step-1o-turbo-vision": {
1629
+ "description": "This model has powerful image understanding capabilities, outperforming 1o in mathematical and coding fields. The model is smaller than 1o and has a faster output speed."
1630
+ },
1622
1631
  "step-1o-vision-32k": {
1623
1632
  "description": "This model possesses powerful image understanding capabilities. Compared to the step-1v series models, it offers enhanced visual performance."
1624
1633
  },
@@ -1634,12 +1643,12 @@
1634
1643
  "step-2-mini": {
1635
1644
  "description": "A high-speed large model based on the next-generation self-developed Attention architecture MFA, achieving results similar to step-1 at a very low cost, while maintaining higher throughput and faster response times. It is capable of handling general tasks and has specialized skills in coding."
1636
1645
  },
1637
- "taichu2_mm": {
1638
- "description": "Integrating capabilities in image understanding, knowledge transfer, and logical attribution, it excels in the field of image-text question answering."
1639
- },
1640
1646
  "taichu_llm": {
1641
1647
  "description": "The ZD Taichu language model possesses strong language understanding capabilities and excels in text creation, knowledge Q&A, code programming, mathematical calculations, logical reasoning, sentiment analysis, and text summarization. It innovatively combines large-scale pre-training with rich knowledge from multiple sources, continuously refining algorithmic techniques and absorbing new knowledge in vocabulary, structure, grammar, and semantics from vast text data, resulting in an evolving model performance. It provides users with more convenient information and services, as well as a more intelligent experience."
1642
1648
  },
1649
+ "taichu_vl": {
1650
+ "description": "Integrates capabilities in image understanding, knowledge transfer, and logical attribution, excelling in the field of image-text question answering."
1651
+ },
1643
1652
  "text-embedding-3-large": {
1644
1653
  "description": "The most powerful vectorization model, suitable for both English and non-English tasks."
1645
1654
  },
@@ -134,6 +134,22 @@
134
134
  "plugin": "Plugin is running..."
135
135
  },
136
136
  "pluginList": "Plugin List",
137
+ "search": {
138
+ "config": {
139
+ "addKey": "Add Key",
140
+ "close": "Delete",
141
+ "confirm": "Configuration completed, please retry"
142
+ },
143
+ "searchxng": {
144
+ "baseURL": "Please enter",
145
+ "description": "Enter the URL for SearchXNG to start online searching",
146
+ "keyPlaceholder": "Please enter key",
147
+ "title": "Configure SearchXNG Search Engine",
148
+ "unconfiguredDesc": "Please contact the administrator to complete the SearchXNG search engine configuration to start online searching",
149
+ "unconfiguredTitle": "SearchXNG search engine not configured yet"
150
+ },
151
+ "title": "Online Search"
152
+ },
137
153
  "setting": "Plugin Settings",
138
154
  "settings": {
139
155
  "indexUrl": {
@@ -7,11 +7,6 @@
7
7
  }
8
8
  },
9
9
  "Plugins": "Plugins",
10
- "actions": {
11
- "genAiMessage": "Generate Assistant Message",
12
- "summary": "Summary",
13
- "summaryTooltip": "Summarize current content"
14
- },
15
10
  "artifacts": {
16
11
  "display": {
17
12
  "code": "Code",
@@ -6,5 +6,23 @@
6
6
  "generating": "Generating...",
7
7
  "images": "Images:",
8
8
  "prompt": "Prompt"
9
+ },
10
+ "search": {
11
+ "createNewSearch": "Create a new search record",
12
+ "emptyResult": "No results found, please modify your keywords and try again",
13
+ "genAiMessage": "Create Assistant Message",
14
+ "includedTooltip": "The current search results will be included in the context of the conversation",
15
+ "keywords": "Keywords:",
16
+ "scoreTooltip": "Relevance score; a higher score indicates a closer match to the query keywords",
17
+ "searchBar": {
18
+ "button": "Search",
19
+ "placeholder": "Keywords",
20
+ "tooltip": "This will refresh the search results and create a new summary message"
21
+ },
22
+ "searchEngine": "Search engine:",
23
+ "searchResult": "Number of searches:",
24
+ "summary": "Summary",
25
+ "summaryTooltip": "Summarize the current content",
26
+ "viewMoreResults": "View {{results}} more results"
9
27
  }
10
28
  }
@@ -170,9 +170,6 @@
170
170
  "MiniMax-Text-01": {
171
171
  "description": "En la serie de modelos MiniMax-01, hemos realizado una innovación audaz: la implementación a gran escala del mecanismo de atención lineal, donde la arquitectura Transformer tradicional ya no es la única opción. Este modelo tiene una cantidad de parámetros de hasta 456 mil millones, con 45.9 mil millones por activación. El rendimiento general del modelo es comparable a los mejores modelos internacionales, y puede manejar de manera eficiente contextos de hasta 4 millones de tokens, que es 32 veces más que GPT-4o y 20 veces más que Claude-3.5-Sonnet."
172
172
  },
173
- "Nous-Hermes-2-Mixtral-8x7B-DPO": {
174
- "description": "Hermes 2 Mixtral 8x7B DPO es una fusión de múltiples modelos altamente flexible, diseñada para ofrecer una experiencia creativa excepcional."
175
- },
176
173
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
177
174
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) es un modelo de instrucciones de alta precisión, adecuado para cálculos complejos."
178
175
  },
@@ -323,6 +320,9 @@
323
320
  "SenseChat-5": {
324
321
  "description": "Modelo de última versión (V5.5), longitud de contexto de 128K, con capacidades significativamente mejoradas en razonamiento matemático, diálogos en inglés, seguimiento de instrucciones y comprensión de textos largos, comparable a GPT-4o."
325
322
  },
323
+ "SenseChat-5-1202": {
324
+ "description": "Es la última versión basada en V5.5, que muestra mejoras significativas en varios aspectos como la capacidad básica en chino e inglés, conversación, conocimientos de ciencias, conocimientos de humanidades, escritura, lógica matemática y control de palabras en comparación con la versión anterior."
325
+ },
326
326
  "SenseChat-5-Cantonese": {
327
327
  "description": "Longitud de contexto de 32K, supera a GPT-4 en la comprensión de diálogos en cantonés, siendo comparable a GPT-4 Turbo en múltiples áreas como conocimiento, razonamiento, matemáticas y programación."
328
328
  },
@@ -335,6 +335,12 @@
335
335
  "SenseChat-Turbo": {
336
336
  "description": "Adecuado para preguntas rápidas y escenarios de ajuste fino del modelo."
337
337
  },
338
+ "SenseChat-Turbo-1202": {
339
+ "description": "Es la última versión ligera del modelo, alcanzando más del 90% de la capacidad del modelo completo, reduciendo significativamente el costo de inferencia."
340
+ },
341
+ "SenseChat-Vision": {
342
+ "description": "La última versión del modelo (V5.5) admite la entrada de múltiples imágenes, logrando una optimización completa de las capacidades básicas del modelo, con mejoras significativas en el reconocimiento de atributos de objetos, relaciones espaciales, reconocimiento de eventos de acción, comprensión de escenas, reconocimiento de emociones, razonamiento lógico y comprensión y generación de texto."
343
+ },
338
344
  "Skylark2-lite-8k": {
339
345
  "description": "El modelo de segunda generación Skaylark (Skylark), el modelo Skylark2-lite, tiene una alta velocidad de respuesta, adecuado para escenarios donde se requiere alta inmediatez, sensibilidad de costos y baja necesidad de precisión del modelo, con una longitud de ventana de contexto de 8k."
340
346
  },
@@ -1019,6 +1025,12 @@
1019
1025
  "hunyuan-standard-vision": {
1020
1026
  "description": "El modelo multimodal más reciente de Hunyuan, que soporta respuestas en múltiples idiomas, con capacidades equilibradas en chino e inglés."
1021
1027
  },
1028
+ "hunyuan-translation": {
1029
+ "description": "Soporta la traducción entre 15 idiomas, incluyendo chino, inglés, japonés, francés, portugués, español, turco, ruso, árabe, coreano, italiano, alemán, vietnamita, malayo e indonesio, con evaluación automatizada basada en el conjunto de evaluación de traducción en múltiples escenarios y puntuación COMET, superando en general a modelos de tamaño similar en la capacidad de traducción entre idiomas comunes."
1030
+ },
1031
+ "hunyuan-translation-lite": {
1032
+ "description": "El modelo de traducción Hunyuan admite traducción en un formato de diálogo natural; soporta la traducción entre chino, inglés, japonés, francés, portugués, español, turco, ruso, árabe, coreano, italiano, alemán, vietnamita, malayo e indonesio."
1033
+ },
1022
1034
  "hunyuan-turbo": {
1023
1035
  "description": "Versión preliminar de la nueva generación del modelo de lenguaje de Hunyuan, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), con una eficiencia de inferencia más rápida y un rendimiento más fuerte en comparación con Hunyuan-Pro."
1024
1036
  },
@@ -1220,9 +1232,6 @@
1220
1232
  "meta-llama/llama-3-8b-instruct": {
1221
1233
  "description": "Llama 3 8B Instruct optimiza los escenarios de conversación de alta calidad, con un rendimiento superior a muchos modelos cerrados."
1222
1234
  },
1223
- "meta-llama/llama-3.1-405b-instruct": {
1224
- "description": "Llama 3.1 405B Instruct es la última versión lanzada por Meta, optimizada para generar diálogos de alta calidad, superando a muchos modelos cerrados líderes."
1225
- },
1226
1235
  "meta-llama/llama-3.1-70b-instruct": {
1227
1236
  "description": "Llama 3.1 70B Instruct está diseñado para conversaciones de alta calidad, destacándose en evaluaciones humanas, especialmente en escenarios de alta interacción."
1228
1237
  },
@@ -1286,9 +1295,6 @@
1286
1295
  "microsoft/WizardLM-2-8x22B": {
1287
1296
  "description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingüismo, razonamiento y asistentes inteligentes."
1288
1297
  },
1289
- "microsoft/wizardlm 2-7b": {
1290
- "description": "WizardLM 2 7B es el último modelo ligero y rápido de Microsoft AI, con un rendimiento cercano a 10 veces el de los modelos líderes de código abierto existentes."
1291
- },
1292
1298
  "microsoft/wizardlm-2-8x22b": {
1293
1299
  "description": "WizardLM-2 8x22B es el modelo Wizard más avanzado de Microsoft AI, mostrando un rendimiento extremadamente competitivo."
1294
1300
  },
@@ -1580,11 +1586,11 @@
1580
1586
  "qwq-32b-preview": {
1581
1587
  "description": "El modelo QwQ es un modelo de investigación experimental desarrollado por el equipo de Qwen, enfocado en mejorar la capacidad de razonamiento de la IA."
1582
1588
  },
1583
- "solar-1-mini-chat": {
1584
- "description": "Solar Mini es un LLM compacto, con un rendimiento superior al de GPT-3.5, que cuenta con potentes capacidades multilingües, soportando inglés y coreano, ofreciendo una solución eficiente y compacta."
1589
+ "solar-mini": {
1590
+ "description": "Solar Mini es un LLM compacto que supera a GPT-3.5, con potentes capacidades multilingües, soportando inglés y coreano, ofreciendo soluciones eficientes y compactas."
1585
1591
  },
1586
- "solar-1-mini-chat-ja": {
1587
- "description": "Solar Mini (Ja) amplía las capacidades de Solar Mini, enfocándose en el japonés, mientras mantiene un rendimiento eficiente y sobresaliente en el uso del inglés y el coreano."
1592
+ "solar-mini-ja": {
1593
+ "description": "Solar Mini (Ja) amplía las capacidades de Solar Mini, enfocándose en japonés, mientras mantiene un rendimiento eficiente y excelente en el uso de inglés y coreano."
1588
1594
  },
1589
1595
  "solar-pro": {
1590
1596
  "description": "Solar Pro es un LLM de alta inteligencia lanzado por Upstage, enfocado en la capacidad de seguimiento de instrucciones en un solo GPU, con una puntuación IFEval superior a 80. Actualmente soporta inglés, y se planea lanzar la versión oficial en noviembre de 2024, ampliando el soporte de idiomas y la longitud del contexto."
@@ -1619,6 +1625,9 @@
1619
1625
  "step-1.5v-mini": {
1620
1626
  "description": "Este modelo tiene una potente capacidad de comprensión de video."
1621
1627
  },
1628
+ "step-1o-turbo-vision": {
1629
+ "description": "Este modelo tiene una poderosa capacidad de comprensión de imágenes, superando a 1o en matemáticas y programación. El modelo es más pequeño que 1o y tiene una velocidad de salida más rápida."
1630
+ },
1622
1631
  "step-1o-vision-32k": {
1623
1632
  "description": "Este modelo posee una poderosa capacidad de comprensión de imágenes. En comparación con la serie de modelos step-1v, ofrece un rendimiento visual superior."
1624
1633
  },
@@ -1634,12 +1643,12 @@
1634
1643
  "step-2-mini": {
1635
1644
  "description": "Un modelo de gran velocidad basado en la nueva arquitectura de atención autogestionada MFA, que logra efectos similares a los de step1 a un costo muy bajo, manteniendo al mismo tiempo un mayor rendimiento y tiempos de respuesta más rápidos. Capaz de manejar tareas generales, con habilidades destacadas en programación."
1636
1645
  },
1637
- "taichu2_mm": {
1638
- "description": "Integra capacidades de comprensión de imágenes, transferencia de conocimiento, atribución lógica, destacándose en el campo de preguntas y respuestas basadas en texto e imagen."
1639
- },
1640
1646
  "taichu_llm": {
1641
1647
  "description": "El modelo de lenguaje Taichu de Zīdōng tiene una poderosa capacidad de comprensión del lenguaje, así como habilidades en creación de textos, preguntas y respuestas, programación de código, cálculos matemáticos, razonamiento lógico, análisis de sentimientos y resúmenes de texto. Combina de manera innovadora el preentrenamiento con grandes datos y un conocimiento rico de múltiples fuentes, perfeccionando continuamente la tecnología algorítmica y absorbiendo nuevos conocimientos en vocabulario, estructura, gramática y semántica de grandes volúmenes de datos textuales, logrando una evolución constante del modelo. Proporciona a los usuarios información y servicios más convenientes, así como una experiencia más inteligente."
1642
1648
  },
1649
+ "taichu_vl": {
1650
+ "description": "Integra capacidades de comprensión de imágenes, transferencia de conocimiento y atribución lógica, destacándose en el campo de preguntas y respuestas basadas en texto e imagen."
1651
+ },
1643
1652
  "text-embedding-3-large": {
1644
1653
  "description": "El modelo de vectorización más potente, adecuado para tareas en inglés y no inglés."
1645
1654
  },
@@ -134,6 +134,22 @@
134
134
  "plugin": "Ejecutando complemento..."
135
135
  },
136
136
  "pluginList": "Lista de complementos",
137
+ "search": {
138
+ "config": {
139
+ "addKey": "Agregar clave",
140
+ "close": "Eliminar",
141
+ "confirm": "Configuración completada, intente de nuevo"
142
+ },
143
+ "searchxng": {
144
+ "baseURL": "Introduzca",
145
+ "description": "Introduzca la URL de SearchXNG para comenzar la búsqueda en línea",
146
+ "keyPlaceholder": "Introduzca la clave",
147
+ "title": "Configurar el motor de búsqueda SearchXNG",
148
+ "unconfiguredDesc": "Por favor, contacte al administrador para completar la configuración del motor de búsqueda SearchXNG y comenzar la búsqueda en línea",
149
+ "unconfiguredTitle": "Motor de búsqueda SearchXNG no configurado"
150
+ },
151
+ "title": "Búsqueda en línea"
152
+ },
137
153
  "setting": "Configuración de complementos",
138
154
  "settings": {
139
155
  "indexUrl": {
@@ -7,11 +7,6 @@
7
7
  }
8
8
  },
9
9
  "Plugins": "Complementos",
10
- "actions": {
11
- "genAiMessage": "Crear mensaje de IA",
12
- "summary": "Resumen",
13
- "summaryTooltip": "Resumir el contenido actual"
14
- },
15
10
  "artifacts": {
16
11
  "display": {
17
12
  "code": "Código",
@@ -6,5 +6,23 @@
6
6
  "generating": "Generando...",
7
7
  "images": "Imágenes:",
8
8
  "prompt": "Palabra de aviso"
9
+ },
10
+ "search": {
11
+ "createNewSearch": "Crear un nuevo registro de búsqueda",
12
+ "emptyResult": "No se encontraron resultados, por favor modifica las palabras clave y vuelve a intentarlo",
13
+ "genAiMessage": "Crear mensaje del asistente",
14
+ "includedTooltip": "Los resultados de búsqueda actuales se incluirán en el contexto de la conversación",
15
+ "keywords": "Palabras clave:",
16
+ "scoreTooltip": "Puntuación de relevancia, cuanto más alta sea la puntuación, más relevante será para las palabras clave de la consulta",
17
+ "searchBar": {
18
+ "button": "Buscar",
19
+ "placeholder": "Palabras clave",
20
+ "tooltip": "Se volverán a obtener los resultados de búsqueda y se creará un nuevo mensaje de resumen"
21
+ },
22
+ "searchEngine": "Motor de búsqueda:",
23
+ "searchResult": "Número de búsquedas:",
24
+ "summary": "Resumen",
25
+ "summaryTooltip": "Resumir el contenido actual",
26
+ "viewMoreResults": "Ver más {{results}} resultados"
9
27
  }
10
28
  }
@@ -170,9 +170,6 @@
170
170
  "MiniMax-Text-01": {
171
171
  "description": "در سری مدل‌های MiniMax-01، ما نوآوری‌های جسورانه‌ای انجام داده‌ایم: برای اولین بار مکانیزم توجه خطی را به طور وسیع پیاده‌سازی کرده‌ایم و معماری سنتی Transformer دیگر تنها گزینه نیست. این مدل دارای 456 میلیارد پارامتر است که در یک بار فعال‌سازی 45.9 میلیارد است. عملکرد کلی این مدل با بهترین مدل‌های خارجی برابری می‌کند و در عین حال می‌تواند به طور مؤثر به متن‌های طولانی جهانی با 4 میلیون توکن رسیدگی کند، که 32 برابر GPT-4o و 20 برابر Claude-3.5-Sonnet است."
172
172
  },
173
- "Nous-Hermes-2-Mixtral-8x7B-DPO": {
174
- "description": "Hermes 2 Mixtral 8x7B DPO یک ترکیب چندمدلی بسیار انعطاف‌پذیر است که برای ارائه تجربه‌ای خلاقانه و برجسته طراحی شده است."
175
- },
176
173
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
177
174
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است."
178
175
  },
@@ -323,6 +320,9 @@
323
320
  "SenseChat-5": {
324
321
  "description": "جدیدترین نسخه مدل (V5.5)، با طول زمینه 128K، بهبود قابل توجه در زمینه‌های استدلال ریاضی، مکالمه انگلیسی، پیروی از دستورات و درک متون طولانی، قابل مقایسه با GPT-4o"
325
322
  },
323
+ "SenseChat-5-1202": {
324
+ "description": "نسخه جدید مبتنی بر V5.5 است که در مقایسه با نسخه قبلی در توانایی‌های پایه چینی و انگلیسی، چت، دانش علوم، دانش انسانی، نوشتن، منطق ریاضی و کنترل تعداد کلمات بهبود قابل توجهی داشته است."
325
+ },
326
326
  "SenseChat-5-Cantonese": {
327
327
  "description": "طول متن 32K، در درک مکالمات به زبان کانتونی از GPT-4 پیشی می‌گیرد و در زمینه‌های مختلفی مانند دانش، استدلال، ریاضیات و برنامه‌نویسی با GPT-4 Turbo قابل مقایسه است."
328
328
  },
@@ -335,6 +335,12 @@
335
335
  "SenseChat-Turbo": {
336
336
  "description": "مناسب برای پرسش و پاسخ سریع و تنظیم دقیق مدل"
337
337
  },
338
+ "SenseChat-Turbo-1202": {
339
+ "description": "این نسخه جدید مدل سبک است که به بیش از ۹۰٪ توانایی‌های مدل کامل دست یافته و هزینه استنتاج را به طور قابل توجهی کاهش می‌دهد."
340
+ },
341
+ "SenseChat-Vision": {
342
+ "description": "مدل جدیدترین نسخه (V5.5) است که از ورودی چند تصویر پشتیبانی می‌کند و به طور جامع به بهینه‌سازی توانایی‌های پایه مدل پرداخته و در شناسایی ویژگی‌های اشیاء، روابط فضایی، شناسایی رویدادهای حرکتی، درک صحنه، شناسایی احساسات، استدلال منطقی و درک و تولید متن بهبودهای قابل توجهی داشته است."
343
+ },
338
344
  "Skylark2-lite-8k": {
339
345
  "description": "مدل نسل دوم Skylark، مدل Skylark2-lite دارای سرعت پاسخ‌دهی بالایی است و برای سناریوهایی که نیاز به زمان واقعی بالایی دارند و حساس به هزینه هستند و نیاز به دقت مدلی کمتری دارند مناسب است. طول پنجره متنی این مدل 8k است."
340
346
  },
@@ -1019,6 +1025,12 @@
1019
1025
  "hunyuan-standard-vision": {
1020
1026
  "description": "مدل چندرسانه‌ای جدید Hunyuan، از پاسخگویی به چند زبان پشتیبانی می‌کند و توانایی‌های چینی و انگلیسی را به‌طور متوازن ارائه می‌دهد."
1021
1027
  },
1028
+ "hunyuan-translation": {
1029
+ "description": "از ۱۵ زبان شامل چینی، انگلیسی، ژاپنی، فرانسوی، پرتغالی، اسپانیایی، ترکی، روسی، عربی، کره‌ای، ایتالیایی، آلمانی، ویتنامی، مالایی و اندونزیایی پشتیبانی می‌کند و به طور خودکار با استفاده از مجموعه ارزیابی ترجمه چند صحنه‌ای، امتیاز COMET را ارزیابی می‌کند. در توانایی ترجمه متقابل در بیش از ده زبان رایج، به طور کلی از مدل‌های هم‌مقیاس در بازار برتر است."
1030
+ },
1031
+ "hunyuan-translation-lite": {
1032
+ "description": "مدل ترجمه هویوان از ترجمه گفتگویی زبان طبیعی پشتیبانی می‌کند؛ از ۱۵ زبان شامل چینی، انگلیسی، ژاپنی، فرانسوی، پرتغالی، اسپانیایی، ترکی، روسی، عربی، کره‌ای، ایتالیایی، آلمانی، ویتنامی، مالایی و اندونزیایی پشتیبانی می‌کند."
1033
+ },
1022
1034
  "hunyuan-turbo": {
1023
1035
  "description": "نسخه پیش‌نمایش مدل زبان بزرگ نسل جدید HunYuan که از ساختار مدل متخصص ترکیبی (MoE) جدید استفاده می‌کند. در مقایسه با hunyuan-pro، کارایی استنتاج سریع‌تر و عملکرد بهتری دارد."
1024
1036
  },
@@ -1220,9 +1232,6 @@
1220
1232
  "meta-llama/llama-3-8b-instruct": {
1221
1233
  "description": "Llama 3 8B Instruct برای بهینه‌سازی سناریوهای مکالمه با کیفیت بالا طراحی شده و عملکردی بهتر از بسیاری از مدل‌های بسته دارد."
1222
1234
  },
1223
- "meta-llama/llama-3.1-405b-instruct": {
1224
- "description": "Llama 3.1 405B Instruct نسخه جدیدی است که توسط Meta ارائه شده و برای تولید مکالمات با کیفیت بالا بهینه‌سازی شده است و از بسیاری از مدل‌های بسته پیشرو پیشی گرفته است."
1225
- },
1226
1235
  "meta-llama/llama-3.1-70b-instruct": {
1227
1236
  "description": "Llama 3.1 70B Instruct به‌طور ویژه برای مکالمات با کیفیت بالا طراحی شده است و در ارزیابی‌های انسانی عملکرد برجسته‌ای دارد. این مدل به‌ویژه برای سناریوهای تعامل بالا مناسب است."
1228
1237
  },
@@ -1286,9 +1295,6 @@
1286
1295
  "microsoft/WizardLM-2-8x22B": {
1287
1296
  "description": "WizardLM 2 یک مدل زبانی است که توسط AI مایکروسافت ارائه شده و در زمینه‌های گفتگوی پیچیده، چند زبانه، استدلال و دستیار هوشمند به ویژه عملکرد خوبی دارد."
1288
1297
  },
1289
- "microsoft/wizardlm 2-7b": {
1290
- "description": "WizardLM 2 7B مدل جدید و سبک وزن AI مایکروسافت است که عملکرد آن نزدیک به 10 برابر مدل‌های پیشرو متن‌باز موجود است."
1291
- },
1292
1298
  "microsoft/wizardlm-2-8x22b": {
1293
1299
  "description": "WizardLM-2 8x22B پیشرفته‌ترین مدل Wizard از مایکروسافت AI است که عملکردی بسیار رقابتی از خود نشان می‌دهد."
1294
1300
  },
@@ -1580,11 +1586,11 @@
1580
1586
  "qwq-32b-preview": {
1581
1587
  "description": "مدل QwQ یک مدل تحقیقاتی تجربی است که توسط تیم Qwen توسعه یافته و بر تقویت توانایی استدلال AI تمرکز دارد."
1582
1588
  },
1583
- "solar-1-mini-chat": {
1584
- "description": "Solar Mini یک مدل فشرده LLM است که عملکردی بهتر از GPT-3.5 دارد، دارای توانایی‌های چندزبانه قوی است، از زبان‌های انگلیسی و کره‌ای پشتیبانی می‌کند و یک راه‌حل کارآمد و کوچک ارائه می‌دهد."
1589
+ "solar-mini": {
1590
+ "description": "Solar Mini یک LLM فشرده است که عملکردی بهتر از GPT-3.5 دارد و دارای توانایی‌های چند زبانه قوی است و از انگلیسی و کره‌ای پشتیبانی می‌کند و راه‌حل‌های کارآمد و کوچکی را ارائه می‌دهد."
1585
1591
  },
1586
- "solar-1-mini-chat-ja": {
1587
- "description": "Solar Mini (Ja) قابلیت‌های Solar Mini را گسترش می‌دهد و بر زبان ژاپنی تمرکز دارد، در حالی که همچنان در استفاده از زبان‌های انگلیسی و کره‌ای کارایی و عملکرد عالی خود را حفظ می‌کند."
1592
+ "solar-mini-ja": {
1593
+ "description": "Solar Mini (Ja) توانایی‌های Solar Mini را گسترش می‌دهد و بر روی زبان ژاپنی تمرکز دارد و در استفاده از انگلیسی و کره‌ای نیز کارایی و عملکرد عالی را حفظ می‌کند."
1588
1594
  },
1589
1595
  "solar-pro": {
1590
1596
  "description": "Solar Pro یک مدل هوش مصنوعی پیشرفته از Upstage است که بر توانایی پیروی از دستورات با استفاده از یک GPU تمرکز دارد و امتیاز IFEval بالای 80 را کسب کرده است. در حال حاضر از زبان انگلیسی پشتیبانی می‌کند و نسخه رسمی آن برای نوامبر 2024 برنامه‌ریزی شده است که پشتیبانی از زبان‌های بیشتر و طول زمینه را گسترش خواهد داد."
@@ -1619,6 +1625,9 @@
1619
1625
  "step-1.5v-mini": {
1620
1626
  "description": "این مدل دارای توانایی‌های قوی در درک ویدیو است."
1621
1627
  },
1628
+ "step-1o-turbo-vision": {
1629
+ "description": "این مدل دارای توانایی‌های قوی در درک تصویر است و در زمینه‌های ریاضی و کدنویسی از 1o قوی‌تر است. این مدل کوچکتر از 1o است و سرعت خروجی بیشتری دارد."
1630
+ },
1622
1631
  "step-1o-vision-32k": {
1623
1632
  "description": "این مدل دارای توانایی‌های قوی در درک تصویر است. در مقایسه با مدل‌های سری step-1v، عملکرد بصری بهتری دارد."
1624
1633
  },
@@ -1634,12 +1643,12 @@
1634
1643
  "step-2-mini": {
1635
1644
  "description": "مدل بزرگ فوق‌العاده سریع مبتنی بر معماری توجه MFA که به‌طور خودجوش توسعه یافته است، با هزینه بسیار کم به نتایجی مشابه با مرحله ۱ دست می‌یابد و در عین حال توانایی پردازش بالاتر و زمان پاسخ سریع‌تری را حفظ می‌کند. این مدل قادر به انجام وظایف عمومی است و در توانایی‌های کدنویسی تخصص دارد."
1636
1645
  },
1637
- "taichu2_mm": {
1638
- "description": "ترکیبی از درک تصویر، انتقال دانش، استدلال منطقی و غیره، در زمینه پرسش و پاسخ تصویری و متنی عملکرد برجسته‌ای دارد."
1639
- },
1640
1646
  "taichu_llm": {
1641
1647
  "description": "Taichu 2.0 بر اساس حجم زیادی از داده‌های با کیفیت بالا آموزش دیده است و دارای توانایی‌های قوی‌تری در درک متن، تولید محتوا، پرسش و پاسخ در مکالمه و غیره می‌باشد."
1642
1648
  },
1649
+ "taichu_vl": {
1650
+ "description": "توانایی‌های درک تصویر، انتقال دانش، و استدلال منطقی را ترکیب کرده و در زمینه پرسش و پاسخ تصویری و متنی عملکرد برجسته‌ای دارد."
1651
+ },
1643
1652
  "text-embedding-3-large": {
1644
1653
  "description": "قدرت‌مندترین مدل وکتور سازی، مناسب برای وظایف انگلیسی و غیرانگلیسی."
1645
1654
  },
@@ -134,6 +134,22 @@
134
134
  "plugin": "افزونه در حال اجرا..."
135
135
  },
136
136
  "pluginList": "فهرست افزونه‌ها",
137
+ "search": {
138
+ "config": {
139
+ "addKey": "کلید را اضافه کنید",
140
+ "close": "حذف",
141
+ "confirm": "پیکربندی کامل و دوباره تلاش کنید"
142
+ },
143
+ "searchxng": {
144
+ "baseURL": "لطفاً وارد کنید",
145
+ "description": "لطفاً آدرس وب SearchXNG را وارد کنید تا جستجوی آنلاین را شروع کنید",
146
+ "keyPlaceholder": "لطفاً کلید را وارد کنید",
147
+ "title": "پیکربندی موتور جستجوی SearchXNG",
148
+ "unconfiguredDesc": "لطفاً با مدیر تماس بگیرید تا پیکربندی موتور جستجوی SearchXNG را کامل کند و بتوانید جستجوی آنلاین را شروع کنید",
149
+ "unconfiguredTitle": "موتور جستجوی SearchXNG هنوز پیکربندی نشده است"
150
+ },
151
+ "title": "جستجوی آنلاین"
152
+ },
137
153
  "setting": "تنظیمات افزونه",
138
154
  "settings": {
139
155
  "indexUrl": {
@@ -7,11 +7,6 @@
7
7
  }
8
8
  },
9
9
  "Plugins": "افزونه‌ها",
10
- "actions": {
11
- "genAiMessage": "ایجاد پیام دستیار",
12
- "summary": "خلاصه",
13
- "summaryTooltip": "خلاصه محتوای فعلی"
14
- },
15
10
  "artifacts": {
16
11
  "display": {
17
12
  "code": "کد",
@@ -6,5 +6,23 @@
6
6
  "generating": "در حال تولید...",
7
7
  "images": "تصاویر:",
8
8
  "prompt": "کلمات کلیدی"
9
+ },
10
+ "search": {
11
+ "createNewSearch": "ایجاد جستجوی جدید",
12
+ "emptyResult": "نتیجه‌ای یافت نشد، لطفاً کلمات کلیدی را تغییر داده و دوباره تلاش کنید",
13
+ "genAiMessage": "ایجاد پیام دستیار",
14
+ "includedTooltip": "نتایج جستجو فعلی در زمینه مکالمه قرار می‌گیرد",
15
+ "keywords": "کلمات کلیدی:",
16
+ "scoreTooltip": "امتیاز مرتبط بودن، هرچه این امتیاز بالاتر باشد، به کلمات کلیدی جستجو نزدیک‌تر است",
17
+ "searchBar": {
18
+ "button": "جستجو",
19
+ "placeholder": "کلمات کلیدی",
20
+ "tooltip": "نتایج جستجو دوباره دریافت خواهد شد و یک پیام خلاصه جدید ایجاد خواهد شد"
21
+ },
22
+ "searchEngine": "موتور جستجو:",
23
+ "searchResult": "تعداد جستجو:",
24
+ "summary": "خلاصه",
25
+ "summaryTooltip": "خلاصه محتوای فعلی",
26
+ "viewMoreResults": "مشاهده {{results}} نتیجه بیشتر"
9
27
  }
10
28
  }
@@ -170,9 +170,6 @@
170
170
  "MiniMax-Text-01": {
171
171
  "description": "Dans la série de modèles MiniMax-01, nous avons réalisé une innovation audacieuse : la première mise en œuvre à grande échelle d'un mécanisme d'attention linéaire, rendant l'architecture Transformer traditionnelle non plus le seul choix. Ce modèle possède un nombre de paramètres atteignant 456 milliards, avec 45,9 milliards d'activations par instance. Les performances globales du modèle rivalisent avec celles des meilleurs modèles étrangers, tout en étant capable de traiter efficacement un contexte mondial de 4 millions de tokens, soit 32 fois celui de GPT-4o et 20 fois celui de Claude-3.5-Sonnet."
172
172
  },
173
- "Nous-Hermes-2-Mixtral-8x7B-DPO": {
174
- "description": "Hermes 2 Mixtral 8x7B DPO est une fusion de modèles hautement flexible, visant à offrir une expérience créative exceptionnelle."
175
- },
176
173
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
177
174
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) est un modèle d'instructions de haute précision, adapté aux calculs complexes."
178
175
  },
@@ -323,6 +320,9 @@
323
320
  "SenseChat-5": {
324
321
  "description": "Modèle de dernière version (V5.5), longueur de contexte de 128K, avec des capacités significativement améliorées dans le raisonnement mathématique, les dialogues en anglais, le suivi d'instructions et la compréhension de longs textes, rivalisant avec GPT-4o."
325
322
  },
323
+ "SenseChat-5-1202": {
324
+ "description": "C'est la dernière version basée sur V5.5, qui présente des améliorations significatives par rapport à la version précédente dans plusieurs dimensions telles que les capacités de base en chinois et en anglais, la conversation, les connaissances en sciences, les connaissances en lettres, l'écriture, la logique mathématique et le contrôle du nombre de mots."
325
+ },
326
326
  "SenseChat-5-Cantonese": {
327
327
  "description": "Longueur de contexte de 32K, surpassant GPT-4 dans la compréhension des dialogues en cantonais, rivalisant avec GPT-4 Turbo dans plusieurs domaines tels que les connaissances, le raisonnement, les mathématiques et la rédaction de code."
328
328
  },
@@ -335,6 +335,12 @@
335
335
  "SenseChat-Turbo": {
336
336
  "description": "Conçu pour des questions-réponses rapides et des scénarios de micro-ajustement du modèle."
337
337
  },
338
+ "SenseChat-Turbo-1202": {
339
+ "description": "C'est le dernier modèle léger, atteignant plus de 90 % des capacités du modèle complet, tout en réduisant considérablement le coût d'inférence."
340
+ },
341
+ "SenseChat-Vision": {
342
+ "description": "Le dernier modèle (V5.5) prend en charge l'entrée de plusieurs images, optimisant les capacités de base du modèle, avec des améliorations significatives dans la reconnaissance des attributs d'objets, les relations spatiales, la reconnaissance d'événements d'action, la compréhension de scènes, la reconnaissance des émotions, le raisonnement de bon sens logique et la compréhension et génération de texte."
343
+ },
338
344
  "Skylark2-lite-8k": {
339
345
  "description": "Le modèle de deuxième génération Skylark (Skylark2-lite) présente une grande rapidité de réponse, adapté à des scénarios nécessitant une réactivité élevée, sensible aux coûts, avec des exigences de précision de modèle moins élevées, avec une longueur de fenêtre de contexte de 8k."
340
346
  },
@@ -1019,6 +1025,12 @@
1019
1025
  "hunyuan-standard-vision": {
1020
1026
  "description": "Le dernier modèle multimodal de Hunyuan, prenant en charge les réponses multilingues, avec des capacités équilibrées en chinois et en anglais."
1021
1027
  },
1028
+ "hunyuan-translation": {
1029
+ "description": "Supporte la traduction entre le chinois et l'anglais, le japonais, le français, le portugais, l'espagnol, le turc, le russe, l'arabe, le coréen, l'italien, l'allemand, le vietnamien, le malais et l'indonésien, soit 15 langues au total, avec une évaluation automatisée basée sur le score COMET à partir d'un ensemble d'évaluation de traduction multi-scénarios, montrant une capacité de traduction globale supérieure à celle des modèles de taille similaire sur le marché."
1030
+ },
1031
+ "hunyuan-translation-lite": {
1032
+ "description": "Le modèle de traduction Hunyuan prend en charge la traduction en dialogue naturel ; il supporte la traduction entre le chinois et l'anglais, le japonais, le français, le portugais, l'espagnol, le turc, le russe, l'arabe, le coréen, l'italien, l'allemand, le vietnamien, le malais et l'indonésien, soit 15 langues au total."
1033
+ },
1022
1034
  "hunyuan-turbo": {
1023
1035
  "description": "Version préliminaire du nouveau modèle de langage de génération Hunyuan, utilisant une nouvelle structure de modèle d'experts mixtes (MoE), offrant une efficacité d'inférence plus rapide et de meilleures performances par rapport à Hunyuan-Pro."
1024
1036
  },
@@ -1220,9 +1232,6 @@
1220
1232
  "meta-llama/llama-3-8b-instruct": {
1221
1233
  "description": "Llama 3 8B Instruct optimise les scénarios de dialogue de haute qualité, avec des performances supérieures à de nombreux modèles fermés."
1222
1234
  },
1223
- "meta-llama/llama-3.1-405b-instruct": {
1224
- "description": "Llama 3.1 405B Instruct est la dernière version lancée par Meta, optimisée pour générer des dialogues de haute qualité, surpassant de nombreux modèles fermés de premier plan."
1225
- },
1226
1235
  "meta-llama/llama-3.1-70b-instruct": {
1227
1236
  "description": "Llama 3.1 70B Instruct est conçu pour des dialogues de haute qualité, se distinguant dans les évaluations humaines, particulièrement adapté aux scénarios d'interaction élevée."
1228
1237
  },
@@ -1286,9 +1295,6 @@
1286
1295
  "microsoft/WizardLM-2-8x22B": {
1287
1296
  "description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, qui excelle dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
1288
1297
  },
1289
- "microsoft/wizardlm 2-7b": {
1290
- "description": "WizardLM 2 7B est le dernier modèle léger et rapide de Microsoft AI, offrant des performances proches de dix fois celles des modèles leaders open source existants."
1291
- },
1292
1298
  "microsoft/wizardlm-2-8x22b": {
1293
1299
  "description": "WizardLM-2 8x22B est le modèle Wizard le plus avancé de Microsoft AI, montrant des performances extrêmement compétitives."
1294
1300
  },
@@ -1580,11 +1586,11 @@
1580
1586
  "qwq-32b-preview": {
1581
1587
  "description": "Le modèle QwQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA."
1582
1588
  },
1583
- "solar-1-mini-chat": {
1584
- "description": "Solar Mini est un LLM compact, surpassant GPT-3.5, avec de puissantes capacités multilingues, supportant l'anglais et le coréen, offrant une solution efficace et compacte."
1589
+ "solar-mini": {
1590
+ "description": "Solar Mini est un LLM compact, offrant des performances supérieures à celles de GPT-3.5, avec de puissantes capacités multilingues, prenant en charge l'anglais et le coréen, et fournissant une solution efficace et compacte."
1585
1591
  },
1586
- "solar-1-mini-chat-ja": {
1587
- "description": "Solar Mini (Ja) étend les capacités de Solar Mini, se concentrant sur le japonais tout en maintenant une efficacité et des performances exceptionnelles en anglais et en coréen."
1592
+ "solar-mini-ja": {
1593
+ "description": "Solar Mini (Ja) étend les capacités de Solar Mini, se concentrant sur le japonais tout en maintenant une efficacité et des performances exceptionnelles dans l'utilisation de l'anglais et du coréen."
1588
1594
  },
1589
1595
  "solar-pro": {
1590
1596
  "description": "Solar Pro est un LLM hautement intelligent lancé par Upstage, axé sur la capacité de suivi des instructions sur un seul GPU, avec un score IFEval supérieur à 80. Actuellement, il supporte l'anglais, et la version officielle est prévue pour novembre 2024, avec une extension du support linguistique et de la longueur du contexte."
@@ -1619,6 +1625,9 @@
1619
1625
  "step-1.5v-mini": {
1620
1626
  "description": "Ce modèle possède de puissantes capacités de compréhension vidéo."
1621
1627
  },
1628
+ "step-1o-turbo-vision": {
1629
+ "description": "Ce modèle possède de puissantes capacités de compréhension d'image, surpassant le 1o dans les domaines mathématiques et de codage. Le modèle est plus petit que le 1o et offre une vitesse de sortie plus rapide."
1630
+ },
1622
1631
  "step-1o-vision-32k": {
1623
1632
  "description": "Ce modèle possède de puissantes capacités de compréhension d'image. Par rapport à la série de modèles step-1v, il offre des performances visuelles supérieures."
1624
1633
  },
@@ -1634,12 +1643,12 @@
1634
1643
  "step-2-mini": {
1635
1644
  "description": "Un modèle de grande taille ultra-rapide basé sur la nouvelle architecture d'attention auto-développée MFA, atteignant des résultats similaires à ceux de step1 à un coût très bas, tout en maintenant un débit plus élevé et un temps de réponse plus rapide. Capable de traiter des tâches générales, avec des compétences particulières en matière de codage."
1636
1645
  },
1637
- "taichu2_mm": {
1638
- "description": "Intègre des capacités de compréhension d'images, de transfert de connaissances et d'attribution logique, se distinguant dans le domaine des questions-réponses textuelles et visuelles."
1639
- },
1640
1646
  "taichu_llm": {
1641
1647
  "description": "Le modèle de langage Taichu Zidong possède une forte capacité de compréhension linguistique ainsi que des compétences en création de texte, questions-réponses, programmation, calcul mathématique, raisonnement logique, analyse des sentiments, et résumé de texte. Il combine de manière innovante le pré-entraînement sur de grandes données avec des connaissances riches provenant de multiples sources, en perfectionnant continuellement la technologie algorithmique et en intégrant de nouvelles connaissances sur le vocabulaire, la structure, la grammaire et le sens à partir de vastes ensembles de données textuelles, offrant aux utilisateurs des informations et des services plus pratiques ainsi qu'une expérience plus intelligente."
1642
1648
  },
1649
+ "taichu_vl": {
1650
+ "description": "Intègre des capacités de compréhension d'image, de transfert de connaissances et de raisonnement logique, se distinguant dans le domaine des questions-réponses textuelles et visuelles."
1651
+ },
1643
1652
  "text-embedding-3-large": {
1644
1653
  "description": "Le modèle de vectorisation le plus puissant, adapté aux tâches en anglais et non-anglais."
1645
1654
  },