@lobehub/chat 1.63.3 → 1.64.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (148) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/models.json +25 -16
  4. package/locales/ar/plugin.json +16 -0
  5. package/locales/ar/portal.json +0 -5
  6. package/locales/ar/tool.json +18 -0
  7. package/locales/bg-BG/models.json +25 -16
  8. package/locales/bg-BG/plugin.json +16 -0
  9. package/locales/bg-BG/portal.json +0 -5
  10. package/locales/bg-BG/tool.json +18 -0
  11. package/locales/de-DE/models.json +25 -16
  12. package/locales/de-DE/plugin.json +16 -0
  13. package/locales/de-DE/portal.json +0 -5
  14. package/locales/de-DE/tool.json +18 -0
  15. package/locales/en-US/models.json +24 -15
  16. package/locales/en-US/plugin.json +16 -0
  17. package/locales/en-US/portal.json +0 -5
  18. package/locales/en-US/tool.json +18 -0
  19. package/locales/es-ES/models.json +25 -16
  20. package/locales/es-ES/plugin.json +16 -0
  21. package/locales/es-ES/portal.json +0 -5
  22. package/locales/es-ES/tool.json +18 -0
  23. package/locales/fa-IR/models.json +25 -16
  24. package/locales/fa-IR/plugin.json +16 -0
  25. package/locales/fa-IR/portal.json +0 -5
  26. package/locales/fa-IR/tool.json +18 -0
  27. package/locales/fr-FR/models.json +25 -16
  28. package/locales/fr-FR/plugin.json +16 -0
  29. package/locales/fr-FR/portal.json +0 -5
  30. package/locales/fr-FR/tool.json +18 -0
  31. package/locales/it-IT/models.json +25 -16
  32. package/locales/it-IT/plugin.json +16 -0
  33. package/locales/it-IT/portal.json +0 -5
  34. package/locales/it-IT/tool.json +18 -0
  35. package/locales/ja-JP/models.json +24 -15
  36. package/locales/ja-JP/plugin.json +16 -0
  37. package/locales/ja-JP/portal.json +0 -5
  38. package/locales/ja-JP/tool.json +18 -0
  39. package/locales/ko-KR/models.json +25 -16
  40. package/locales/ko-KR/plugin.json +16 -0
  41. package/locales/ko-KR/portal.json +0 -5
  42. package/locales/ko-KR/tool.json +18 -0
  43. package/locales/nl-NL/models.json +25 -16
  44. package/locales/nl-NL/plugin.json +16 -0
  45. package/locales/nl-NL/portal.json +0 -5
  46. package/locales/nl-NL/tool.json +18 -0
  47. package/locales/pl-PL/models.json +25 -16
  48. package/locales/pl-PL/plugin.json +16 -0
  49. package/locales/pl-PL/portal.json +0 -5
  50. package/locales/pl-PL/tool.json +18 -0
  51. package/locales/pt-BR/models.json +24 -15
  52. package/locales/pt-BR/plugin.json +16 -0
  53. package/locales/pt-BR/portal.json +0 -5
  54. package/locales/pt-BR/tool.json +18 -0
  55. package/locales/ru-RU/models.json +25 -16
  56. package/locales/ru-RU/plugin.json +16 -0
  57. package/locales/ru-RU/portal.json +0 -5
  58. package/locales/ru-RU/tool.json +18 -0
  59. package/locales/tr-TR/models.json +25 -16
  60. package/locales/tr-TR/plugin.json +16 -0
  61. package/locales/tr-TR/portal.json +0 -5
  62. package/locales/tr-TR/tool.json +18 -0
  63. package/locales/vi-VN/models.json +24 -15
  64. package/locales/vi-VN/plugin.json +16 -0
  65. package/locales/vi-VN/portal.json +0 -5
  66. package/locales/vi-VN/tool.json +18 -0
  67. package/locales/zh-CN/models.json +30 -21
  68. package/locales/zh-CN/plugin.json +16 -0
  69. package/locales/zh-CN/portal.json +1 -6
  70. package/locales/zh-CN/tool.json +19 -1
  71. package/locales/zh-TW/models.json +23 -14
  72. package/locales/zh-TW/plugin.json +16 -0
  73. package/locales/zh-TW/portal.json +0 -5
  74. package/locales/zh-TW/tool.json +18 -0
  75. package/package.json +1 -1
  76. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +1 -0
  77. package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/SearchTags.tsx +17 -0
  78. package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/Tags.tsx +8 -2
  79. package/src/config/tools.ts +16 -0
  80. package/src/features/ChatInput/ActionBar/Search/index.tsx +6 -15
  81. package/src/features/Conversation/Messages/Assistant/Tool/Inspector/ToolTitle.tsx +76 -0
  82. package/src/features/Conversation/Messages/Assistant/Tool/Inspector/index.tsx +8 -21
  83. package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +62 -50
  84. package/src/features/PluginsUI/Render/BuiltinType/index.tsx +11 -1
  85. package/src/features/PluginsUI/Render/index.tsx +3 -0
  86. package/src/features/Portal/Plugins/Body/index.tsx +3 -7
  87. package/src/features/Portal/Plugins/Header.tsx +14 -2
  88. package/src/hooks/useAgentEnableSearch.ts +27 -0
  89. package/src/libs/trpc/client/index.ts +1 -0
  90. package/src/libs/trpc/client/tools.ts +20 -0
  91. package/src/locales/default/plugin.ts +16 -0
  92. package/src/locales/default/portal.ts +0 -5
  93. package/src/locales/default/tool.ts +18 -0
  94. package/src/server/modules/SearXNG.ts +33 -0
  95. package/src/server/routers/lambda/message.ts +11 -0
  96. package/src/server/routers/tools/__tests__/fixtures/searXNG.ts +668 -0
  97. package/src/server/routers/tools/__tests__/search.test.ts +47 -0
  98. package/src/server/routers/tools/index.ts +3 -0
  99. package/src/server/routers/tools/search.ts +38 -0
  100. package/src/services/__tests__/__snapshots__/chat.test.ts.snap +1 -0
  101. package/src/services/_auth.ts +4 -4
  102. package/src/services/chat.ts +31 -10
  103. package/src/services/message/_deprecated.ts +4 -0
  104. package/src/services/message/client.ts +4 -0
  105. package/src/services/message/server.ts +5 -5
  106. package/src/services/message/type.ts +2 -0
  107. package/src/services/search.ts +9 -0
  108. package/src/store/aiInfra/slices/aiModel/selectors.ts +12 -5
  109. package/src/store/chat/slices/builtinTool/action.ts +121 -0
  110. package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
  111. package/src/store/chat/slices/builtinTool/selectors.ts +3 -0
  112. package/src/store/chat/slices/message/action.ts +11 -0
  113. package/src/store/chat/slices/plugin/action.test.ts +2 -2
  114. package/src/store/chat/slices/plugin/action.ts +2 -2
  115. package/src/store/tool/selectors/tool.ts +5 -12
  116. package/src/store/tool/slices/builtin/selectors.ts +1 -1
  117. package/src/store/user/slices/modelList/action.ts +6 -0
  118. package/src/store/user/slices/modelList/selectors/keyVaults.ts +1 -0
  119. package/src/tools/index.ts +7 -0
  120. package/src/tools/portals.ts +6 -1
  121. package/src/tools/renders.ts +3 -0
  122. package/src/{features/Portal/Plugins → tools/web-browsing/Portal}/Footer.tsx +13 -10
  123. package/src/tools/web-browsing/Portal/ResultList/SearchItem/CategoryAvatar.tsx +70 -0
  124. package/src/tools/web-browsing/Portal/ResultList/SearchItem/TitleExtra.tsx +38 -0
  125. package/src/tools/web-browsing/Portal/ResultList/SearchItem/Video.tsx +135 -0
  126. package/src/tools/web-browsing/Portal/ResultList/SearchItem/index.tsx +91 -0
  127. package/src/tools/web-browsing/Portal/ResultList/index.tsx +21 -0
  128. package/src/tools/web-browsing/Portal/index.tsx +65 -0
  129. package/src/tools/web-browsing/Render/ConfigForm/Form.tsx +110 -0
  130. package/src/tools/web-browsing/Render/ConfigForm/SearchXNGIcon.tsx +20 -0
  131. package/src/tools/web-browsing/Render/ConfigForm/index.tsx +67 -0
  132. package/src/tools/web-browsing/Render/ConfigForm/style.tsx +63 -0
  133. package/src/tools/web-browsing/Render/SearchQuery/SearchView.tsx +88 -0
  134. package/src/tools/web-browsing/Render/SearchQuery/index.tsx +61 -0
  135. package/src/tools/web-browsing/Render/SearchResult/SearchResultItem.tsx +72 -0
  136. package/src/tools/web-browsing/Render/SearchResult/ShowMore.tsx +68 -0
  137. package/src/tools/web-browsing/Render/SearchResult/index.tsx +105 -0
  138. package/src/tools/web-browsing/Render/index.tsx +57 -0
  139. package/src/tools/web-browsing/components/EngineAvatar.tsx +32 -0
  140. package/src/tools/web-browsing/components/SearchBar.tsx +134 -0
  141. package/src/tools/web-browsing/const.ts +11 -0
  142. package/src/tools/web-browsing/index.ts +102 -0
  143. package/src/types/message/chat.ts +1 -0
  144. package/src/types/message/tools.ts +10 -0
  145. package/src/types/tool/builtin.ts +2 -0
  146. package/src/types/tool/search.ts +38 -0
  147. package/src/types/user/settings/keyVaults.ts +8 -1
  148. package/src/utils/toolManifest.ts +20 -0
package/CHANGELOG.md CHANGED
@@ -2,6 +2,31 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ## [Version 1.64.0](https://github.com/lobehub/lobe-chat/compare/v1.63.3...v1.64.0)
6
+
7
+ <sup>Released on **2025-02-24**</sup>
8
+
9
+ #### ✨ Features
10
+
11
+ - **misc**: Support application search with searchXNG.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### What's improved
19
+
20
+ - **misc**: Support application search with searchXNG, closes [#6452](https://github.com/lobehub/lobe-chat/issues/6452) ([b61b5fc](https://github.com/lobehub/lobe-chat/commit/b61b5fc))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
5
30
  ### [Version 1.63.3](https://github.com/lobehub/lobe-chat/compare/v1.63.2...v1.63.3)
6
31
 
7
32
  <sup>Released on **2025-02-24**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "features": [
5
+ "Support application search with searchXNG."
6
+ ]
7
+ },
8
+ "date": "2025-02-24",
9
+ "version": "1.64.0"
10
+ },
2
11
  {
3
12
  "children": {
4
13
  "fixes": [
@@ -170,9 +170,6 @@
170
170
  "MiniMax-Text-01": {
171
171
  "description": "في سلسلة نماذج MiniMax-01، قمنا بإجراء ابتكارات جريئة: تم تنفيذ آلية الانتباه الخطي على نطاق واسع لأول مرة، لم يعد هيكل Transformer التقليدي هو الخيار الوحيد. يصل عدد معلمات هذا النموذج إلى 456 مليار، مع تنشيط واحد يصل إلى 45.9 مليار. الأداء الشامل للنموذج يتساوى مع النماذج الرائدة في الخارج، بينما يمكنه معالجة سياقات تصل إلى 4 ملايين توكن، وهو 32 مرة من GPT-4o و20 مرة من Claude-3.5-Sonnet."
172
172
  },
173
- "Nous-Hermes-2-Mixtral-8x7B-DPO": {
174
- "description": "Hermes 2 Mixtral 8x7B DPO هو دمج متعدد النماذج مرن للغاية، يهدف إلى تقديم تجربة إبداعية ممتازة."
175
- },
176
173
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
177
174
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) هو نموذج تعليمات عالي الدقة، مناسب للحسابات المعقدة."
178
175
  },
@@ -323,6 +320,9 @@
323
320
  "SenseChat-5": {
324
321
  "description": "أحدث إصدار من النموذج (V5.5)، بطول سياق 128K، مع تحسينات ملحوظة في القدرة على الاستدلال الرياضي، المحادثات باللغة الإنجليزية، اتباع التعليمات وفهم النصوص الطويلة، مما يجعله في مستوى GPT-4o."
325
322
  },
323
+ "SenseChat-5-1202": {
324
+ "description": "هو الإصدار الأحدث المبني على V5.5، وقد شهد تحسنًا ملحوظًا في القدرات الأساسية بين الصينية والإنجليزية، والدردشة، والمعرفة العلمية، والمعرفة الأدبية، والكتابة، والمنطق الرياضي، والتحكم في عدد الكلمات."
325
+ },
326
326
  "SenseChat-5-Cantonese": {
327
327
  "description": "بطول سياق 32K، يتفوق في فهم المحادثات باللغة الكانتونية مقارنة بـ GPT-4، ويضاهي GPT-4 Turbo في مجالات المعرفة، الاستدلال، الرياضيات وكتابة الأكواد."
328
328
  },
@@ -335,6 +335,12 @@
335
335
  "SenseChat-Turbo": {
336
336
  "description": "مناسب للأسئلة السريعة، وسيناريوهات ضبط النموذج."
337
337
  },
338
+ "SenseChat-Turbo-1202": {
339
+ "description": "هو أحدث نموذج خفيف الوزن، يحقق أكثر من 90% من قدرات النموذج الكامل، مما يقلل بشكل ملحوظ من تكلفة الاستدلال."
340
+ },
341
+ "SenseChat-Vision": {
342
+ "description": "النموذج الأحدث (V5.5) يدعم إدخال صور متعددة، ويحقق تحسينات شاملة في القدرات الأساسية للنموذج، مع تحسينات كبيرة في التعرف على خصائص الكائنات، والعلاقات المكانية، والتعرف على الأحداث، وفهم المشاهد، والتعرف على المشاعر، واستنتاج المعرفة المنطقية، وفهم النصوص وتوليدها."
343
+ },
338
344
  "Skylark2-lite-8k": {
339
345
  "description": "نموذج سكايلارك (Skylark) من الجيل الثاني، نموذج سكايلارك2-لايت يتميز بسرعات استجابة عالية، مناسب للسيناريوهات التي تتطلب استجابة في الوقت الحقيقي، وحساسة للتكاليف، وغير متطلبة لدقة نموذج عالية، بسعة سياق تبلغ 8k."
340
346
  },
@@ -1019,6 +1025,12 @@
1019
1025
  "hunyuan-standard-vision": {
1020
1026
  "description": "نموذج متعدد الوسائط حديث يدعم الإجابة بعدة لغات، مع توازن في القدرات بين الصينية والإنجليزية."
1021
1027
  },
1028
+ "hunyuan-translation": {
1029
+ "description": "يدعم الترجمة بين 15 لغة بما في ذلك الصينية والإنجليزية واليابانية والفرنسية والبرتغالية والإسبانية والتركية والروسية والعربية والكورية والإيطالية والألمانية والفيتنامية والماليزية والإندونيسية، ويعتمد على مجموعة تقييم الترجمة متعددة السيناريوهات لتقييم تلقائي باستخدام درجة COMET، حيث يتفوق بشكل عام على نماذج السوق المماثلة في القدرة على الترجمة بين اللغات الشائعة."
1030
+ },
1031
+ "hunyuan-translation-lite": {
1032
+ "description": "يدعم نموذج الترجمة هونيون الترجمة الحوارية بلغة طبيعية؛ يدعم الترجمة بين 15 لغة بما في ذلك الصينية والإنجليزية واليابانية والفرنسية والبرتغالية والإسبانية والتركية والروسية والعربية والكورية والإيطالية والألمانية والفيتنامية والماليزية والإندونيسية."
1033
+ },
1022
1034
  "hunyuan-turbo": {
1023
1035
  "description": "نسخة المعاينة من الجيل الجديد من نموذج اللغة الكبير، يستخدم هيكل نموذج الخبراء المختلط (MoE) الجديد، مما يوفر كفاءة استدلال أسرع وأداء أقوى مقارنة بـ hunyuan-pro."
1024
1036
  },
@@ -1220,9 +1232,6 @@
1220
1232
  "meta-llama/llama-3-8b-instruct": {
1221
1233
  "description": "Llama 3 8B Instruct تم تحسينه لمشاهد الحوار عالية الجودة، ويظهر أداءً أفضل من العديد من النماذج المغلقة."
1222
1234
  },
1223
- "meta-llama/llama-3.1-405b-instruct": {
1224
- "description": "Llama 3.1 405B Instruct هو أحدث إصدار من Meta، تم تحسينه لتوليد حوارات عالية الجودة، متجاوزًا العديد من النماذج المغلقة الرائدة."
1225
- },
1226
1235
  "meta-llama/llama-3.1-70b-instruct": {
1227
1236
  "description": "Llama 3.1 70B Instruct مصمم للحوار عالي الجودة، ويظهر أداءً بارزًا في التقييمات البشرية، مما يجعله مناسبًا بشكل خاص للمشاهد التفاعلية العالية."
1228
1237
  },
@@ -1286,9 +1295,6 @@
1286
1295
  "microsoft/WizardLM-2-8x22B": {
1287
1296
  "description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في المحادثات المعقدة، واللغات المتعددة، والاستدلال، ومساعدات الذكاء."
1288
1297
  },
1289
- "microsoft/wizardlm 2-7b": {
1290
- "description": "WizardLM 2 7B هو أحدث نموذج خفيف الوزن وسريع من Microsoft AI، ويقترب أداؤه من 10 أضعاف النماذج الرائدة المفتوحة المصدر الحالية."
1291
- },
1292
1298
  "microsoft/wizardlm-2-8x22b": {
1293
1299
  "description": "WizardLM-2 8x22B هو نموذج Wizard المتقدم من Microsoft، يظهر أداءً تنافسيًا للغاية."
1294
1300
  },
@@ -1580,11 +1586,11 @@
1580
1586
  "qwq-32b-preview": {
1581
1587
  "description": "نموذج QwQ هو نموذج بحث تجريبي تم تطويره بواسطة فريق Qwen، يركز على تعزيز قدرات الاستدلال للذكاء الاصطناعي."
1582
1588
  },
1583
- "solar-1-mini-chat": {
1584
- "description": "Solar Mini هو نموذج LLM مدمج، يتفوق على GPT-3.5، ويتميز بقدرات متعددة اللغات، ويدعم الإنجليزية والكورية، ويقدم حلولًا فعالة وصغيرة الحجم."
1589
+ "solar-mini": {
1590
+ "description": "Solar Mini هو نموذج LLM مدمج، يتفوق على GPT-3.5، ويتميز بقدرات متعددة اللغات قوية، ويدعم الإنجليزية والكورية، ويقدم حلولًا فعالة وصغيرة الحجم."
1585
1591
  },
1586
- "solar-1-mini-chat-ja": {
1587
- "description": "Solar Mini (Ja) يوسع قدرات Solar Mini، ويركز على اللغة اليابانية، مع الحفاظ على الكفاءة والأداء الممتاز في استخدام الإنجليزية والكورية."
1592
+ "solar-mini-ja": {
1593
+ "description": "Solar Mini (Ja) يوسع من قدرات Solar Mini، مع التركيز على اللغة اليابانية، مع الحفاظ على الكفاءة والأداء الممتاز في استخدام الإنجليزية والكورية."
1588
1594
  },
1589
1595
  "solar-pro": {
1590
1596
  "description": "Solar Pro هو نموذج LLM عالي الذكاء تم إطلاقه من قبل Upstage، يركز على قدرة اتباع التعليمات على وحدة معالجة الرسوميات الواحدة، وسجل IFEval فوق 80. حاليًا يدعم اللغة الإنجليزية، ومن المقرر إصدار النسخة الرسمية في نوفمبر 2024، مع توسيع دعم اللغات وطول السياق."
@@ -1619,6 +1625,9 @@
1619
1625
  "step-1.5v-mini": {
1620
1626
  "description": "يمتلك هذا النموذج قدرة قوية على فهم الفيديو."
1621
1627
  },
1628
+ "step-1o-turbo-vision": {
1629
+ "description": "يمتلك هذا النموذج قدرة قوية على فهم الصور، ويتفوق في مجالات الرياضيات والبرمجة مقارنةً بـ 1o. النموذج أصغر من 1o، وسرعة الإخراج أسرع."
1630
+ },
1622
1631
  "step-1o-vision-32k": {
1623
1632
  "description": "يمتلك هذا النموذج قدرة قوية على فهم الصور. مقارنةً بسلسلة نماذج step-1v، فإنه يتمتع بأداء بصري أقوى."
1624
1633
  },
@@ -1634,12 +1643,12 @@
1634
1643
  "step-2-mini": {
1635
1644
  "description": "نموذج كبير سريع يعتمد على بنية الانتباه الجديدة MFA، يحقق نتائج مشابهة لـ step1 بتكلفة منخفضة جداً، مع الحفاظ على قدرة أعلى على المعالجة وزمن استجابة أسرع. يمكنه التعامل مع المهام العامة، ويتميز بقدرات قوية في البرمجة."
1636
1645
  },
1637
- "taichu2_mm": {
1638
- "description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويظهر أداءً بارزًا في مجال الأسئلة والأجوبة النصية والصورية."
1639
- },
1640
1646
  "taichu_llm": {
1641
1647
  "description": "نموذج اللغة الكبير TaiChu يتمتع بقدرات قوية في فهم اللغة، بالإضافة إلى إنشاء النصوص، والإجابة على الأسئلة، وبرمجة الأكواد، والحسابات الرياضية، والاستدلال المنطقي، وتحليل المشاعر، وتلخيص النصوص. يجمع بشكل مبتكر بين التدريب المسبق على البيانات الضخمة والمعرفة الغنية من مصادر متعددة، من خلال تحسين تقنيات الخوارزميات باستمرار واستيعاب المعرفة الجديدة من البيانات النصية الضخمة، مما يحقق تطورًا مستمرًا في أداء النموذج. يوفر للمستخدمين معلومات وخدمات أكثر سهولة وتجربة أكثر ذكاءً."
1642
1648
  },
1649
+ "taichu_vl": {
1650
+ "description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويظهر أداءً بارزًا في مجال الأسئلة والأجوبة النصية والصورية."
1651
+ },
1643
1652
  "text-embedding-3-large": {
1644
1653
  "description": "أقوى نموذج لتضمين النصوص، مناسب للمهام الإنجليزية وغير الإنجليزية."
1645
1654
  },
@@ -134,6 +134,22 @@
134
134
  "plugin": "جاري تشغيل الإضافة..."
135
135
  },
136
136
  "pluginList": "قائمة الإضافات",
137
+ "search": {
138
+ "config": {
139
+ "addKey": "إضافة مفتاح",
140
+ "close": "حذف",
141
+ "confirm": "تم تكوينه وإعادة المحاولة"
142
+ },
143
+ "searchxng": {
144
+ "baseURL": "الرجاء الإدخال",
145
+ "description": "الرجاء إدخال عنوان URL لـ SearchXNG لبدء البحث عبر الإنترنت",
146
+ "keyPlaceholder": "الرجاء إدخال المفتاح",
147
+ "title": "تكوين محرك بحث SearchXNG",
148
+ "unconfiguredDesc": "يرجى الاتصال بالمسؤول لإكمال تكوين محرك بحث SearchXNG لبدء البحث عبر الإنترنت",
149
+ "unconfiguredTitle": "لم يتم تكوين محرك بحث SearchXNG بعد"
150
+ },
151
+ "title": "البحث عبر الإنترنت"
152
+ },
137
153
  "setting": "إعدادات الإضافة",
138
154
  "settings": {
139
155
  "indexUrl": {
@@ -7,11 +7,6 @@
7
7
  }
8
8
  },
9
9
  "Plugins": "ملحقات",
10
- "actions": {
11
- "genAiMessage": "إنشاء رسالة مساعد ذكاء اصطناعي",
12
- "summary": "ملخص",
13
- "summaryTooltip": "ملخص للمحتوى الحالي"
14
- },
15
10
  "artifacts": {
16
11
  "display": {
17
12
  "code": "رمز",
@@ -6,5 +6,23 @@
6
6
  "generating": "جارٍ التوليد...",
7
7
  "images": "الصور:",
8
8
  "prompt": "كلمة تلميح"
9
+ },
10
+ "search": {
11
+ "createNewSearch": "إنشاء سجل بحث جديد",
12
+ "emptyResult": "لم يتم العثور على نتائج، يرجى تعديل الكلمات الرئيسية والمحاولة مرة أخرى",
13
+ "genAiMessage": "إنشاء رسالة مساعد",
14
+ "includedTooltip": "ستدخل نتائج البحث الحالية في سياق المحادثة",
15
+ "keywords": "الكلمات الرئيسية:",
16
+ "scoreTooltip": "درجة الصلة، كلما كانت هذه الدرجة أعلى، كانت أكثر ارتباطًا بكلمات البحث",
17
+ "searchBar": {
18
+ "button": "بحث",
19
+ "placeholder": "الكلمات الرئيسية",
20
+ "tooltip": "سيتم إعادة الحصول على نتائج البحث، وإنشاء رسالة ملخص جديدة"
21
+ },
22
+ "searchEngine": "محرك البحث:",
23
+ "searchResult": "عدد النتائج:",
24
+ "summary": "ملخص",
25
+ "summaryTooltip": "تلخيص المحتوى الحالي",
26
+ "viewMoreResults": "عرض المزيد من {{results}} نتيجة"
9
27
  }
10
28
  }
@@ -170,9 +170,6 @@
170
170
  "MiniMax-Text-01": {
171
171
  "description": "В серията модели MiniMax-01 направихме смели иновации: за първи път реализирахме мащабно линейно внимание, традиционната архитектура на Transformer вече не е единственият избор. Параметрите на този модел достигат 4560 милиарда, с единична активация от 45.9 милиарда. Общата производителност на модела е на нивото на водещите модели в чужбина, като същевременно ефективно обработва глобалния контекст от 4 милиона токена, което е 32 пъти повече от GPT-4o и 20 пъти повече от Claude-3.5-Sonnet."
172
172
  },
173
- "Nous-Hermes-2-Mixtral-8x7B-DPO": {
174
- "description": "Hermes 2 Mixtral 8x7B DPO е високо гъвкава многомоделна комбинация, предназначена да предостави изключителен креативен опит."
175
- },
176
173
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
177
174
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) е модел с висока точност за инструкции, подходящ за сложни изчисления."
178
175
  },
@@ -323,6 +320,9 @@
323
320
  "SenseChat-5": {
324
321
  "description": "Най-новата версия на модела (V5.5), с контекстна дължина 128K, значително подобрена способност в области като математическо разсъждение, английски разговори, следване на инструкции и разбиране на дълги текстове, сравнима с GPT-4o."
325
322
  },
323
+ "SenseChat-5-1202": {
324
+ "description": "Това е най-новата версия, базирана на V5.5, която показва значителни подобрения в основните способности на китайски и английски, чат, научни знания, хуманитарни знания, писане, математическа логика и контрол на броя на думите в сравнение с предишната версия."
325
+ },
326
326
  "SenseChat-5-Cantonese": {
327
327
  "description": "С контекстна дължина 32K, надминава GPT-4 в разбирането на разговори на кантонски, сравним с GPT-4 Turbo в множество области като знания, разсъждение, математика и писане на код."
328
328
  },
@@ -335,6 +335,12 @@
335
335
  "SenseChat-Turbo": {
336
336
  "description": "Подходящ за бързи въпроси и отговори, сцени на фино настройване на модела."
337
337
  },
338
+ "SenseChat-Turbo-1202": {
339
+ "description": "Това е най-новият лек модел, който достига над 90% от способностите на пълния модел, значително намалявайки разходите за изчисление."
340
+ },
341
+ "SenseChat-Vision": {
342
+ "description": "Най-новата версия на модела (V5.5) поддържа вход с множество изображения и напълно реализира оптимизация на основните способности на модела, с голямо подобрение в разпознаването на свойства на обекти, пространствени отношения, разпознаване на действия и събития, разбиране на сцени, разпознаване на емоции, логическо разсъждение и генериране на текст."
343
+ },
338
344
  "Skylark2-lite-8k": {
339
345
  "description": "Cloud Lark (Skylark) второ поколение модел, Skylark2-lite предлага висока скорост на отговор, подходяща за сценарии с високи изисквания за реално време, чувствителни към разходите и с по-ниски изисквания за прецизност, с дължина на контекстовия прозорец 8k."
340
346
  },
@@ -1019,6 +1025,12 @@
1019
1025
  "hunyuan-standard-vision": {
1020
1026
  "description": "Най-новият мултимодален модел на Hunyuan, поддържащ отговори на множество езици, с балансирани способности на китайски и английски."
1021
1027
  },
1028
+ "hunyuan-translation": {
1029
+ "description": "Поддържа автоматичен превод между 15 езика, включително китайски, английски, японски, френски, португалски, испански, турски, руски, арабски, корейски, италиански, немски, виетнамски, малайски и индонезийски, базиран на автоматизирана оценка COMET, с цялостна преводна способност, която е по-добра от моделите на пазара с подобен мащаб."
1030
+ },
1031
+ "hunyuan-translation-lite": {
1032
+ "description": "Моделът за превод HunYuan поддържа естествено езиково диалогово превеждане; поддържа автоматичен превод между 15 езика, включително китайски, английски, японски, френски, португалски, испански, турски, руски, арабски, корейски, италиански, немски, виетнамски, малайски и индонезийски."
1033
+ },
1022
1034
  "hunyuan-turbo": {
1023
1035
  "description": "Предварителна версия на новото поколение голям езиков модел на HunYuan, използваща нова структура на смесен експертен модел (MoE), с по-бърза скорост на извеждане и по-силни резултати в сравнение с hunyuan-pro."
1024
1036
  },
@@ -1220,9 +1232,6 @@
1220
1232
  "meta-llama/llama-3-8b-instruct": {
1221
1233
  "description": "Llama 3 8B Instruct е оптимизирана за висококачествени диалогови сценарии, с представяне, надминаващо много затворени модели."
1222
1234
  },
1223
- "meta-llama/llama-3.1-405b-instruct": {
1224
- "description": "Llama 3.1 405B Instruct е най-новата версия на Meta, оптимизирана за генериране на висококачествени диалози, надминаваща много водещи затворени модели."
1225
- },
1226
1235
  "meta-llama/llama-3.1-70b-instruct": {
1227
1236
  "description": "Llama 3.1 70B Instruct е проектиран за висококачествени диалози и показва отлични резултати в човешките оценки, особено подходящ за сценарии с висока интерактивност."
1228
1237
  },
@@ -1286,9 +1295,6 @@
1286
1295
  "microsoft/WizardLM-2-8x22B": {
1287
1296
  "description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който показва особени способности в сложни разговори, многоезичност, разсъждения и интелигентни асистенти."
1288
1297
  },
1289
- "microsoft/wizardlm 2-7b": {
1290
- "description": "WizardLM 2 7B е най-новият бърз и лек модел на Microsoft AI, с производителност, близка до 10 пъти на съществуващите водещи отворени модели."
1291
- },
1292
1298
  "microsoft/wizardlm-2-8x22b": {
1293
1299
  "description": "WizardLM-2 8x22B е най-напредналият Wizard модел на Microsoft AI, показващ изключителна конкурентоспособност."
1294
1300
  },
@@ -1580,11 +1586,11 @@
1580
1586
  "qwq-32b-preview": {
1581
1587
  "description": "QwQ моделът е експериментален изследователски модел, разработен от екипа на Qwen, който се фокусира върху подобряване на AI разсъдъчните способности."
1582
1588
  },
1583
- "solar-1-mini-chat": {
1584
- "description": "Solar Mini е компактен LLM, с производителност над GPT-3.5, предлагащ мощни многоезични способности, поддържащ английски и корейски, предоставяйки ефективно и компактно решение."
1589
+ "solar-mini": {
1590
+ "description": "Solar Mini е компактен LLM, който превъзхожда GPT-3.5, с мощни многоезични способности, поддържа английски и корейски, предоставяйки ефективно и компактно решение."
1585
1591
  },
1586
- "solar-1-mini-chat-ja": {
1587
- "description": "Solar Mini (Ja) разширява възможностите на Solar Mini, фокусирайки се върху японския език, като същевременно поддържа висока ефективност и отлична производителност на английски и корейски."
1592
+ "solar-mini-ja": {
1593
+ "description": "Solar Mini (Ja) разширява възможностите на Solar Mini, фокусирайки се върху японския език, като същевременно поддържа висока ефективност и отлично представяне в английския и корейския."
1588
1594
  },
1589
1595
  "solar-pro": {
1590
1596
  "description": "Solar Pro е високоинтелигентен LLM, пуснат от Upstage, фокусиран върху способността за следване на инструкции с един GPU, с IFEval оценка над 80. В момента поддържа английски, а официалната версия е планирана за пускане през ноември 2024 г., с разширена поддръжка на езици и дължина на контекста."
@@ -1619,6 +1625,9 @@
1619
1625
  "step-1.5v-mini": {
1620
1626
  "description": "Този модел разполага с мощни способности за разбиране на видео."
1621
1627
  },
1628
+ "step-1o-turbo-vision": {
1629
+ "description": "Този модел разполага с мощни способности за разбиране на изображения и е по-добър от 1o в областта на математиката и кода. Моделът е по-малък от 1o и предлага по-бърза скорост на изход."
1630
+ },
1622
1631
  "step-1o-vision-32k": {
1623
1632
  "description": "Този модел разполага с мощни способности за разбиране на изображения. В сравнение с моделите от серията step-1v, предлага по-силна визуална производителност."
1624
1633
  },
@@ -1634,12 +1643,12 @@
1634
1643
  "step-2-mini": {
1635
1644
  "description": "Модел с бърза производителност, базиран на новото поколение собствена архитектура Attention MFA, който постига резултати, подобни на step1 с много ниски разходи, като същевременно поддържа по-висока производителност и по-бързо време за отговор. Може да обработва общи задачи и притежава специализирани умения в кодирането."
1636
1645
  },
1637
- "taichu2_mm": {
1638
- "description": "Сливайки способности за разбиране на изображения, прехвърляне на знания и логическо обяснение, моделът показва отлични резултати в областта на въпросите и отговорите на текст и изображения."
1639
- },
1640
1646
  "taichu_llm": {
1641
1647
  "description": "Моделът на езика TaiChu е с изключителни способности за разбиране на езика, текстово генериране, отговори на знания, програмиране, математически изчисления, логическо разсъждение, анализ на емоции, резюмиране на текст и др. Иновативно комбинира предварително обучение с големи данни и разнообразни източници на знания, чрез непрекъснато усъвършенстване на алгоритмичните технологии и усвояване на нови знания от масивни текстови данни, за да осигури на потребителите по-удобна информация и услуги, както и по-интелигентно изживяване."
1642
1648
  },
1649
+ "taichu_vl": {
1650
+ "description": "Съчетава способности за разбиране на изображения, прехвърляне на знания и логическо обяснение, като показва отлични резултати в областта на въпросите и отговорите с текст и изображения."
1651
+ },
1643
1652
  "text-embedding-3-large": {
1644
1653
  "description": "Най-мощният модел за векторизация, подходящ за английски и неанглийски задачи."
1645
1654
  },
@@ -134,6 +134,22 @@
134
134
  "plugin": "Плъгинът работи..."
135
135
  },
136
136
  "pluginList": "Списък с плъгини",
137
+ "search": {
138
+ "config": {
139
+ "addKey": "Добавяне на ключ",
140
+ "close": "Изтриване",
141
+ "confirm": "Конфигурацията е завършена и опитайте отново"
142
+ },
143
+ "searchxng": {
144
+ "baseURL": "Моля, въведете",
145
+ "description": "Моля, въведете URL адреса на SearchXNG, за да започнете търсене в мрежата",
146
+ "keyPlaceholder": "Моля, въведете ключ",
147
+ "title": "Конфигуриране на търсачката SearchXNG",
148
+ "unconfiguredDesc": "Моля, свържете се с администратора, за да завършите конфигурацията на търсачката SearchXNG и да започнете търсене в мрежата",
149
+ "unconfiguredTitle": "Търсачката SearchXNG все още не е конфигурирана"
150
+ },
151
+ "title": "Търсене в мрежата"
152
+ },
137
153
  "setting": "Настройки на плъгина",
138
154
  "settings": {
139
155
  "indexUrl": {
@@ -7,11 +7,6 @@
7
7
  }
8
8
  },
9
9
  "Plugins": "Плъгини",
10
- "actions": {
11
- "genAiMessage": "Създаване на съобщение на помощника",
12
- "summary": "Обобщение",
13
- "summaryTooltip": "Обобщение на текущото съдържание"
14
- },
15
10
  "artifacts": {
16
11
  "display": {
17
12
  "code": "Код",
@@ -6,5 +6,23 @@
6
6
  "generating": "Генериране...",
7
7
  "images": "Изображения:",
8
8
  "prompt": "подсказка"
9
+ },
10
+ "search": {
11
+ "createNewSearch": "Създаване на нова търсене",
12
+ "emptyResult": "Не са намерени резултати, моля, променете ключовите думи и опитайте отново",
13
+ "genAiMessage": "Създаване на съобщение от асистент",
14
+ "includedTooltip": "Текущите резултати от търсенето ще бъдат включени в контекста на сесията",
15
+ "keywords": "Ключови думи:",
16
+ "scoreTooltip": "Степен на релевантност, колкото по-висок е този резултат, толкова по-релевантен е спрямо ключовите думи",
17
+ "searchBar": {
18
+ "button": "Търсене",
19
+ "placeholder": "Ключови думи",
20
+ "tooltip": "Ще се извлекат отново резултатите от търсенето и ще се създаде ново резюме"
21
+ },
22
+ "searchEngine": "Търсачка:",
23
+ "searchResult": "Брой резултати:",
24
+ "summary": "Резюме",
25
+ "summaryTooltip": "Резюме на текущото съдържание",
26
+ "viewMoreResults": "Вижте още {{results}} резултата"
9
27
  }
10
28
  }
@@ -170,9 +170,6 @@
170
170
  "MiniMax-Text-01": {
171
171
  "description": "In der MiniMax-01-Serie haben wir mutige Innovationen vorgenommen: Erstmals wurde die lineare Aufmerksamkeitsmechanismus in großem Maßstab implementiert, sodass die traditionelle Transformer-Architektur nicht mehr die einzige Wahl ist. Dieses Modell hat eine Parameteranzahl von bis zu 456 Milliarden, wobei eine Aktivierung 45,9 Milliarden beträgt. Die Gesamtleistung des Modells kann mit den besten Modellen im Ausland mithalten und kann gleichzeitig effizient den weltweit längsten Kontext von 4 Millionen Tokens verarbeiten, was 32-mal so viel wie GPT-4o und 20-mal so viel wie Claude-3.5-Sonnet ist."
172
172
  },
173
- "Nous-Hermes-2-Mixtral-8x7B-DPO": {
174
- "description": "Hermes 2 Mixtral 8x7B DPO ist eine hochflexible Multi-Modell-Kombination, die darauf abzielt, außergewöhnliche kreative Erlebnisse zu bieten."
175
- },
176
173
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
177
174
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) ist ein hochpräzises Anweisungsmodell, das für komplexe Berechnungen geeignet ist."
178
175
  },
@@ -323,6 +320,9 @@
323
320
  "SenseChat-5": {
324
321
  "description": "Die neueste Modellversion (V5.5) mit 128K Kontextlänge hat signifikante Verbesserungen in den Bereichen mathematische Schlussfolgerungen, englische Konversation, Befolgen von Anweisungen und Verständnis langer Texte, vergleichbar mit GPT-4o."
325
322
  },
323
+ "SenseChat-5-1202": {
324
+ "description": "Dies ist die neueste Version basierend auf V5.5, die im Vergleich zur vorherigen Version signifikante Verbesserungen in den grundlegenden Fähigkeiten in Chinesisch und Englisch, im Chat, in Naturwissenschaften, in Geisteswissenschaften, im Schreiben, in mathematischer Logik und in der Wortanzahlkontrolle aufweist."
325
+ },
326
326
  "SenseChat-5-Cantonese": {
327
327
  "description": "Mit 32K Kontextlänge übertrifft es GPT-4 im Verständnis von Konversationen auf Kantonesisch und kann in mehreren Bereichen wie Wissen, Schlussfolgerungen, Mathematik und Programmierung mit GPT-4 Turbo konkurrieren."
328
328
  },
@@ -335,6 +335,12 @@
335
335
  "SenseChat-Turbo": {
336
336
  "description": "Geeignet für schnelle Fragen und Antworten sowie Szenarien zur Feinabstimmung des Modells."
337
337
  },
338
+ "SenseChat-Turbo-1202": {
339
+ "description": "Dies ist das neueste leichte Modell, das über 90 % der Fähigkeiten des Vollmodells erreicht und die Kosten für die Inferenz erheblich senkt."
340
+ },
341
+ "SenseChat-Vision": {
342
+ "description": "Das neueste Modell (V5.5) unterstützt die Eingabe mehrerer Bilder und optimiert umfassend die grundlegenden Fähigkeiten des Modells. Es hat signifikante Verbesserungen in der Erkennung von Objektattributen, räumlichen Beziehungen, Aktionsereignissen, Szenenverständnis, Emotionserkennung, logischem Wissen und Textverständnis und -generierung erreicht."
343
+ },
338
344
  "Skylark2-lite-8k": {
339
345
  "description": "Das zweite Modell der Skylark-Reihe, das Skylark2-lite-Modell bietet eine hohe Reaktionsgeschwindigkeit und eignet sich für Szenarien mit hohen Echtzeitanforderungen, kostensensitiven Anforderungen und geringeren Genauigkeitsanforderungen, mit einer Kontextfensterlänge von 8k."
340
346
  },
@@ -1019,6 +1025,12 @@
1019
1025
  "hunyuan-standard-vision": {
1020
1026
  "description": "Das neueste multimodale Modell von Hunyuan, das mehrsprachige Antworten unterstützt und sowohl in Chinesisch als auch in Englisch ausgewogen ist."
1021
1027
  },
1028
+ "hunyuan-translation": {
1029
+ "description": "Unterstützt die Übersetzung zwischen Chinesisch und Englisch, Japanisch, Französisch, Portugiesisch, Spanisch, Türkisch, Russisch, Arabisch, Koreanisch, Italienisch, Deutsch, Vietnamesisch, Malaiisch und Indonesisch in 15 Sprachen. Basierend auf einem automatisierten Bewertungs-Framework COMET, das auf mehrsprachigen Übersetzungsbewertungsszenarien basiert, übertrifft es insgesamt die Übersetzungsfähigkeiten anderer Modelle ähnlicher Größe auf dem Markt."
1030
+ },
1031
+ "hunyuan-translation-lite": {
1032
+ "description": "Das Hunyuan-Übersetzungsmodell unterstützt die dialogbasierte Übersetzung in natürlicher Sprache; es unterstützt die Übersetzung zwischen Chinesisch und Englisch, Japanisch, Französisch, Portugiesisch, Spanisch, Türkisch, Russisch, Arabisch, Koreanisch, Italienisch, Deutsch, Vietnamesisch, Malaiisch und Indonesisch in 15 Sprachen."
1033
+ },
1022
1034
  "hunyuan-turbo": {
1023
1035
  "description": "Die Vorschauversion des neuen großen Sprachmodells von Hunyuan verwendet eine neuartige hybride Expertenmodellstruktur (MoE) und bietet im Vergleich zu Hunyuan-Pro eine schnellere Inferenz und bessere Leistung."
1024
1036
  },
@@ -1220,9 +1232,6 @@
1220
1232
  "meta-llama/llama-3-8b-instruct": {
1221
1233
  "description": "Llama 3 8B Instruct optimiert qualitativ hochwertige Dialogszenarien und bietet bessere Leistungen als viele geschlossene Modelle."
1222
1234
  },
1223
- "meta-llama/llama-3.1-405b-instruct": {
1224
- "description": "Llama 3.1 405B Instruct ist die neueste Version von Meta, optimiert zur Generierung qualitativ hochwertiger Dialoge und übertrifft viele führende geschlossene Modelle."
1225
- },
1226
1235
  "meta-llama/llama-3.1-70b-instruct": {
1227
1236
  "description": "Llama 3.1 70B Instruct ist speziell für qualitativ hochwertige Dialoge konzipiert und zeigt herausragende Leistungen in menschlichen Bewertungen, besonders geeignet für hochinteraktive Szenarien."
1228
1237
  },
@@ -1286,9 +1295,6 @@
1286
1295
  "microsoft/WizardLM-2-8x22B": {
1287
1296
  "description": "WizardLM 2 ist ein Sprachmodell von Microsoft AI, das in komplexen Dialogen, Mehrsprachigkeit, Inferenz und intelligenten Assistenten besonders gut abschneidet."
1288
1297
  },
1289
- "microsoft/wizardlm 2-7b": {
1290
- "description": "WizardLM 2 7B ist das neueste schnelle und leichte Modell von Microsoft AI, dessen Leistung fast zehnmal so hoch ist wie die bestehender führender Open-Source-Modelle."
1291
- },
1292
1298
  "microsoft/wizardlm-2-8x22b": {
1293
1299
  "description": "WizardLM-2 8x22B ist das fortschrittlichste Wizard-Modell von Microsoft AI und zeigt äußerst wettbewerbsfähige Leistungen."
1294
1300
  },
@@ -1580,11 +1586,11 @@
1580
1586
  "qwq-32b-preview": {
1581
1587
  "description": "Das QwQ-Modell ist ein experimentelles Forschungsmodell, das vom Qwen-Team entwickelt wurde und sich auf die Verbesserung der KI-Inferenzfähigkeiten konzentriert."
1582
1588
  },
1583
- "solar-1-mini-chat": {
1584
- "description": "Solar Mini ist ein kompaktes LLM, das besser als GPT-3.5 abschneidet und über starke Mehrsprachigkeitsfähigkeiten verfügt, unterstützt Englisch und Koreanisch und bietet eine effiziente, kompakte Lösung."
1589
+ "solar-mini": {
1590
+ "description": "Solar Mini ist ein kompaktes LLM, das besser abschneidet als GPT-3.5 und über starke Mehrsprachigkeitsfähigkeiten verfügt. Es unterstützt Englisch und Koreanisch und bietet eine effiziente und kompakte Lösung."
1585
1591
  },
1586
- "solar-1-mini-chat-ja": {
1587
- "description": "Solar Mini (Ja) erweitert die Fähigkeiten von Solar Mini und konzentriert sich auf Japanisch, während es gleichzeitig in der Nutzung von Englisch und Koreanisch effizient und leistungsstark bleibt."
1592
+ "solar-mini-ja": {
1593
+ "description": "Solar Mini (Ja) erweitert die Fähigkeiten von Solar Mini und konzentriert sich auf Japanisch, während es gleichzeitig in der Nutzung von Englisch und Koreanisch hohe Effizienz und hervorragende Leistung beibehält."
1588
1594
  },
1589
1595
  "solar-pro": {
1590
1596
  "description": "Solar Pro ist ein hochintelligentes LLM, das von Upstage entwickelt wurde und sich auf die Befolgung von Anweisungen mit einer einzigen GPU konzentriert, mit einem IFEval-Score von über 80. Derzeit unterstützt es Englisch, die offizielle Version ist für November 2024 geplant und wird die Sprachunterstützung und Kontextlänge erweitern."
@@ -1619,6 +1625,9 @@
1619
1625
  "step-1.5v-mini": {
1620
1626
  "description": "Dieses Modell verfügt über starke Fähigkeiten zur Videoanalyse."
1621
1627
  },
1628
+ "step-1o-turbo-vision": {
1629
+ "description": "Dieses Modell verfügt über starke Fähigkeiten zur Bildverständnis und übertrifft 1o in den Bereichen Mathematik und Programmierung. Das Modell ist kleiner als 1o und bietet eine schnellere Ausgabegeschwindigkeit."
1630
+ },
1622
1631
  "step-1o-vision-32k": {
1623
1632
  "description": "Dieses Modell verfügt über starke Fähigkeiten zur Bildverständnis. Im Vergleich zu den Modellen der Schritt-1v-Serie bietet es eine verbesserte visuelle Leistung."
1624
1633
  },
@@ -1634,12 +1643,12 @@
1634
1643
  "step-2-mini": {
1635
1644
  "description": "Ein ultraschnelles Großmodell, das auf der neuen, selbstentwickelten Attention-Architektur MFA basiert. Es erreicht mit extrem niedrigen Kosten ähnliche Ergebnisse wie Schritt 1 und bietet gleichzeitig eine höhere Durchsatzrate und schnellere Reaktionszeiten. Es kann allgemeine Aufgaben bearbeiten und hat besondere Fähigkeiten im Bereich der Codierung."
1636
1645
  },
1637
- "taichu2_mm": {
1638
- "description": "Integriert Fähigkeiten zur Bildverstehung, Wissensübertragung und logischen Attribution und zeigt herausragende Leistungen im Bereich der Bild-Text-Fragen."
1639
- },
1640
1646
  "taichu_llm": {
1641
1647
  "description": "Das Zīdōng Taichu Sprachmodell verfügt über außergewöhnliche Sprachverständnisfähigkeiten sowie Fähigkeiten in Textgenerierung, Wissensabfrage, Programmierung, mathematischen Berechnungen, logischem Denken, Sentimentanalyse und Textzusammenfassung. Es kombiniert innovativ große Datenvortrainings mit reichhaltigem Wissen aus mehreren Quellen, verfeinert kontinuierlich die Algorithmen und absorbiert ständig neues Wissen aus umfangreichen Textdaten in Bezug auf Vokabular, Struktur, Grammatik und Semantik, um die Leistung des Modells kontinuierlich zu verbessern. Es bietet den Nutzern bequemere Informationen und Dienstleistungen sowie ein intelligenteres Erlebnis."
1642
1648
  },
1649
+ "taichu_vl": {
1650
+ "description": "Integriert Fähigkeiten wie Bildverständnis, Wissensübertragung und logische Attribution und zeigt herausragende Leistungen im Bereich der Bild-Text-Fragen."
1651
+ },
1643
1652
  "text-embedding-3-large": {
1644
1653
  "description": "Das leistungsstärkste Vektormodell, geeignet für englische und nicht-englische Aufgaben."
1645
1654
  },
@@ -134,6 +134,22 @@
134
134
  "plugin": "Plugin wird ausgeführt..."
135
135
  },
136
136
  "pluginList": "Plugin-Liste",
137
+ "search": {
138
+ "config": {
139
+ "addKey": "Schlüssel hinzufügen",
140
+ "close": "Löschen",
141
+ "confirm": "Konfiguration abgeschlossen und erneut versucht"
142
+ },
143
+ "searchxng": {
144
+ "baseURL": "Bitte eingeben",
145
+ "description": "Geben Sie die URL von SearchXNG ein, um mit der Online-Suche zu beginnen",
146
+ "keyPlaceholder": "Bitte Schlüssel eingeben",
147
+ "title": "SearchXNG-Suchmaschine konfigurieren",
148
+ "unconfiguredDesc": "Bitte wenden Sie sich an den Administrator, um die Konfiguration der SearchXNG-Suchmaschine abzuschließen und mit der Online-Suche zu beginnen",
149
+ "unconfiguredTitle": "SearchXNG-Suchmaschine ist noch nicht konfiguriert"
150
+ },
151
+ "title": "Online-Suche"
152
+ },
137
153
  "setting": "Plugin-Einstellung",
138
154
  "settings": {
139
155
  "indexUrl": {
@@ -7,11 +7,6 @@
7
7
  }
8
8
  },
9
9
  "Plugins": "Plugins",
10
- "actions": {
11
- "genAiMessage": "Assistenten-Nachricht erstellen",
12
- "summary": "Zusammenfassung",
13
- "summaryTooltip": "Zusammenfassung des aktuellen Inhalts"
14
- },
15
10
  "artifacts": {
16
11
  "display": {
17
12
  "code": "Code",
@@ -6,5 +6,23 @@
6
6
  "generating": "Generiert",
7
7
  "images": "Bilder:",
8
8
  "prompt": "Hinweiswort"
9
+ },
10
+ "search": {
11
+ "createNewSearch": "Neue Suchanfrage erstellen",
12
+ "emptyResult": "Keine Ergebnisse gefunden, bitte ändern Sie die Schlüsselwörter und versuchen Sie es erneut",
13
+ "genAiMessage": "Assistentnachricht erstellen",
14
+ "includedTooltip": "Die aktuellen Suchergebnisse werden in den Kontext der Sitzung aufgenommen",
15
+ "keywords": "Schlüsselwörter:",
16
+ "scoreTooltip": "Relevanzpunktzahl, je höher die Punktzahl, desto relevanter ist sie für die Suchanfrage",
17
+ "searchBar": {
18
+ "button": "Suchen",
19
+ "placeholder": "Schlüsselwörter",
20
+ "tooltip": "Die Suchergebnisse werden erneut abgerufen und eine neue Zusammenfassungsnachricht wird erstellt"
21
+ },
22
+ "searchEngine": "Suchmaschine:",
23
+ "searchResult": "Anzahl der Suchergebnisse:",
24
+ "summary": "Zusammenfassung",
25
+ "summaryTooltip": "Aktuellen Inhalt zusammenfassen",
26
+ "viewMoreResults": "Weitere {{results}} Ergebnisse anzeigen"
9
27
  }
10
28
  }