@lobehub/chat 1.81.2 → 1.81.4

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (154) hide show
  1. package/CHANGELOG.md +59 -0
  2. package/changelog/v1.json +21 -0
  3. package/locales/ar/common.json +2 -0
  4. package/locales/ar/electron.json +32 -0
  5. package/locales/ar/models.json +126 -3
  6. package/locales/ar/plugin.json +1 -0
  7. package/locales/ar/tool.json +25 -0
  8. package/locales/bg-BG/common.json +2 -0
  9. package/locales/bg-BG/electron.json +32 -0
  10. package/locales/bg-BG/models.json +126 -3
  11. package/locales/bg-BG/plugin.json +1 -0
  12. package/locales/bg-BG/tool.json +25 -0
  13. package/locales/de-DE/common.json +2 -0
  14. package/locales/de-DE/electron.json +32 -0
  15. package/locales/de-DE/models.json +126 -3
  16. package/locales/de-DE/plugin.json +1 -0
  17. package/locales/de-DE/tool.json +25 -0
  18. package/locales/en-US/common.json +2 -0
  19. package/locales/en-US/electron.json +32 -0
  20. package/locales/en-US/models.json +126 -3
  21. package/locales/en-US/plugin.json +1 -0
  22. package/locales/en-US/tool.json +25 -0
  23. package/locales/es-ES/common.json +2 -0
  24. package/locales/es-ES/electron.json +32 -0
  25. package/locales/es-ES/models.json +126 -3
  26. package/locales/es-ES/plugin.json +1 -0
  27. package/locales/es-ES/tool.json +25 -0
  28. package/locales/fa-IR/common.json +2 -0
  29. package/locales/fa-IR/electron.json +32 -0
  30. package/locales/fa-IR/models.json +126 -3
  31. package/locales/fa-IR/plugin.json +1 -0
  32. package/locales/fa-IR/tool.json +25 -0
  33. package/locales/fr-FR/common.json +2 -0
  34. package/locales/fr-FR/electron.json +32 -0
  35. package/locales/fr-FR/models.json +126 -3
  36. package/locales/fr-FR/plugin.json +1 -0
  37. package/locales/fr-FR/tool.json +25 -0
  38. package/locales/it-IT/common.json +2 -0
  39. package/locales/it-IT/electron.json +32 -0
  40. package/locales/it-IT/models.json +126 -3
  41. package/locales/it-IT/plugin.json +1 -0
  42. package/locales/it-IT/tool.json +25 -0
  43. package/locales/ja-JP/common.json +2 -0
  44. package/locales/ja-JP/electron.json +32 -0
  45. package/locales/ja-JP/models.json +126 -3
  46. package/locales/ja-JP/plugin.json +1 -0
  47. package/locales/ja-JP/tool.json +25 -0
  48. package/locales/ko-KR/common.json +2 -0
  49. package/locales/ko-KR/electron.json +32 -0
  50. package/locales/ko-KR/models.json +126 -3
  51. package/locales/ko-KR/plugin.json +1 -0
  52. package/locales/ko-KR/tool.json +25 -0
  53. package/locales/nl-NL/common.json +2 -0
  54. package/locales/nl-NL/electron.json +32 -0
  55. package/locales/nl-NL/models.json +126 -3
  56. package/locales/nl-NL/plugin.json +1 -0
  57. package/locales/nl-NL/tool.json +25 -0
  58. package/locales/pl-PL/common.json +2 -0
  59. package/locales/pl-PL/electron.json +32 -0
  60. package/locales/pl-PL/models.json +126 -3
  61. package/locales/pl-PL/plugin.json +1 -0
  62. package/locales/pl-PL/tool.json +25 -0
  63. package/locales/pt-BR/common.json +2 -0
  64. package/locales/pt-BR/electron.json +32 -0
  65. package/locales/pt-BR/models.json +126 -3
  66. package/locales/pt-BR/plugin.json +1 -0
  67. package/locales/pt-BR/tool.json +25 -0
  68. package/locales/ru-RU/common.json +2 -0
  69. package/locales/ru-RU/electron.json +32 -0
  70. package/locales/ru-RU/models.json +126 -3
  71. package/locales/ru-RU/plugin.json +1 -0
  72. package/locales/ru-RU/tool.json +25 -0
  73. package/locales/tr-TR/common.json +2 -0
  74. package/locales/tr-TR/electron.json +32 -0
  75. package/locales/tr-TR/models.json +126 -3
  76. package/locales/tr-TR/plugin.json +1 -0
  77. package/locales/tr-TR/tool.json +25 -0
  78. package/locales/vi-VN/common.json +2 -0
  79. package/locales/vi-VN/electron.json +32 -0
  80. package/locales/vi-VN/models.json +126 -3
  81. package/locales/vi-VN/plugin.json +1 -0
  82. package/locales/vi-VN/tool.json +25 -0
  83. package/locales/zh-CN/common.json +2 -0
  84. package/locales/zh-CN/electron.json +32 -0
  85. package/locales/zh-CN/models.json +131 -8
  86. package/locales/zh-CN/plugin.json +1 -0
  87. package/locales/zh-CN/tool.json +25 -0
  88. package/locales/zh-TW/common.json +2 -0
  89. package/locales/zh-TW/electron.json +32 -0
  90. package/locales/zh-TW/models.json +126 -3
  91. package/locales/zh-TW/plugin.json +1 -0
  92. package/locales/zh-TW/tool.json +25 -0
  93. package/package.json +3 -2
  94. package/packages/electron-client-ipc/src/events/index.ts +5 -5
  95. package/packages/electron-client-ipc/src/events/localFile.ts +22 -0
  96. package/packages/electron-client-ipc/src/events/{file.ts → upload.ts} +1 -1
  97. package/packages/electron-client-ipc/src/types/index.ts +2 -1
  98. package/packages/electron-client-ipc/src/types/localFile.ts +52 -0
  99. package/scripts/prebuild.mts +5 -1
  100. package/src/app/(backend)/trpc/desktop/[trpc]/route.ts +26 -0
  101. package/src/config/aiModels/cloudflare.ts +41 -37
  102. package/src/config/aiModels/github.ts +90 -0
  103. package/src/config/aiModels/google.ts +25 -0
  104. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ObjectEntity.tsx +81 -0
  105. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ValueCell.tsx +43 -0
  106. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/index.tsx +120 -0
  107. package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +75 -2
  108. package/src/features/Conversation/Messages/Assistant/Tool/Render/KeyValueEditor.tsx +214 -0
  109. package/src/features/User/UserPanel/useMenu.tsx +8 -1
  110. package/src/libs/agent-runtime/google/index.ts +3 -0
  111. package/src/libs/trpc/client/desktop.ts +14 -0
  112. package/src/locales/default/common.ts +2 -0
  113. package/src/locales/default/electron.ts +34 -0
  114. package/src/locales/default/index.ts +2 -0
  115. package/src/locales/default/tool.ts +25 -0
  116. package/src/server/routers/desktop/index.ts +9 -0
  117. package/src/server/routers/desktop/pgTable.ts +43 -0
  118. package/src/services/electron/autoUpdate.ts +17 -0
  119. package/src/services/electron/file.ts +31 -0
  120. package/src/services/electron/localFileService.ts +39 -0
  121. package/src/services/electron/remoteServer.ts +40 -0
  122. package/src/store/chat/index.ts +1 -1
  123. package/src/store/chat/slices/builtinTool/actions/index.ts +3 -1
  124. package/src/store/chat/slices/builtinTool/actions/localFile.ts +129 -0
  125. package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
  126. package/src/store/chat/slices/builtinTool/selectors.ts +2 -0
  127. package/src/store/chat/slices/plugin/action.ts +3 -3
  128. package/src/store/chat/store.ts +2 -0
  129. package/src/store/electron/actions/sync.ts +117 -0
  130. package/src/store/electron/index.ts +1 -0
  131. package/src/store/electron/initialState.ts +18 -0
  132. package/src/store/electron/selectors/index.ts +1 -0
  133. package/src/store/electron/selectors/sync.ts +9 -0
  134. package/src/store/electron/store.ts +29 -0
  135. package/src/tools/index.ts +8 -0
  136. package/src/tools/local-files/Render/ListFiles/Result.tsx +42 -0
  137. package/src/tools/local-files/Render/ListFiles/index.tsx +68 -0
  138. package/src/tools/local-files/Render/ReadLocalFile/ReadFileSkeleton.tsx +50 -0
  139. package/src/tools/local-files/Render/ReadLocalFile/ReadFileView.tsx +197 -0
  140. package/src/tools/local-files/Render/ReadLocalFile/index.tsx +31 -0
  141. package/src/tools/local-files/Render/ReadLocalFile/style.ts +37 -0
  142. package/src/tools/local-files/Render/SearchFiles/Result.tsx +42 -0
  143. package/src/tools/local-files/Render/SearchFiles/SearchQuery/SearchView.tsx +77 -0
  144. package/src/tools/local-files/Render/SearchFiles/SearchQuery/index.tsx +72 -0
  145. package/src/tools/local-files/Render/SearchFiles/index.tsx +32 -0
  146. package/src/tools/local-files/Render/index.tsx +36 -0
  147. package/src/tools/local-files/components/FileItem.tsx +117 -0
  148. package/src/tools/local-files/index.ts +149 -0
  149. package/src/tools/local-files/systemRole.ts +46 -0
  150. package/src/tools/local-files/type.ts +33 -0
  151. package/src/tools/renders.ts +3 -0
  152. package/packages/electron-client-ipc/src/events/search.ts +0 -4
  153. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments.tsx +0 -165
  154. /package/packages/electron-client-ipc/src/types/{file.ts → upload.ts} +0 -0
package/CHANGELOG.md CHANGED
@@ -2,6 +2,65 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.81.4](https://github.com/lobehub/lobe-chat/compare/v1.81.3...v1.81.4)
6
+
7
+ <sup>Released on **2025-04-19**</sup>
8
+
9
+ #### 🐛 Bug Fixes
10
+
11
+ - **misc**: Gemini error `Tool use with function calling is unsupported`.
12
+
13
+ #### 💄 Styles
14
+
15
+ - **misc**: Support update tool calling params and trigger again.
16
+
17
+ <br/>
18
+
19
+ <details>
20
+ <summary><kbd>Improvements and Fixes</kbd></summary>
21
+
22
+ #### What's fixed
23
+
24
+ - **misc**: Gemini error `Tool use with function calling is unsupported`, closes [#7463](https://github.com/lobehub/lobe-chat/issues/7463) ([0567095](https://github.com/lobehub/lobe-chat/commit/0567095))
25
+
26
+ #### Styles
27
+
28
+ - **misc**: Support update tool calling params and trigger again, closes [#7476](https://github.com/lobehub/lobe-chat/issues/7476) ([0085e63](https://github.com/lobehub/lobe-chat/commit/0085e63))
29
+
30
+ </details>
31
+
32
+ <div align="right">
33
+
34
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
35
+
36
+ </div>
37
+
38
+ ### [Version 1.81.3](https://github.com/lobehub/lobe-chat/compare/v1.81.2...v1.81.3)
39
+
40
+ <sup>Released on **2025-04-19**</sup>
41
+
42
+ #### 💄 Styles
43
+
44
+ - **misc**: Update GitHub & Cloudflare models, Update Google models.
45
+
46
+ <br/>
47
+
48
+ <details>
49
+ <summary><kbd>Improvements and Fixes</kbd></summary>
50
+
51
+ #### Styles
52
+
53
+ - **misc**: Update GitHub & Cloudflare models, closes [#7453](https://github.com/lobehub/lobe-chat/issues/7453) ([4f34a62](https://github.com/lobehub/lobe-chat/commit/4f34a62))
54
+ - **misc**: Update Google models, closes [#7456](https://github.com/lobehub/lobe-chat/issues/7456) ([3199f69](https://github.com/lobehub/lobe-chat/commit/3199f69))
55
+
56
+ </details>
57
+
58
+ <div align="right">
59
+
60
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
61
+
62
+ </div>
63
+
5
64
  ### [Version 1.81.2](https://github.com/lobehub/lobe-chat/compare/v1.81.1...v1.81.2)
6
65
 
7
66
  <sup>Released on **2025-04-18**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,25 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "fixes": [
5
+ "Gemini error Tool use with function calling is unsupported."
6
+ ],
7
+ "improvements": [
8
+ "Support update tool calling params and trigger again."
9
+ ]
10
+ },
11
+ "date": "2025-04-19",
12
+ "version": "1.81.4"
13
+ },
14
+ {
15
+ "children": {
16
+ "improvements": [
17
+ "Update GitHub & Cloudflare models, Update Google models."
18
+ ]
19
+ },
20
+ "date": "2025-04-19",
21
+ "version": "1.81.3"
22
+ },
2
23
  {
3
24
  "children": {
4
25
  "improvements": [
@@ -284,6 +284,8 @@
284
284
  "rename": "إعادة تسمية",
285
285
  "reset": "إعادة تعيين",
286
286
  "retry": "إعادة المحاولة",
287
+ "run": "تشغيل",
288
+ "save": "حفظ",
287
289
  "send": "إرسال",
288
290
  "setting": "الإعدادات",
289
291
  "share": "مشاركة",
@@ -0,0 +1,32 @@
1
+ {
2
+ "remoteServer": {
3
+ "authError": "فشل التفويض: {{error}}",
4
+ "authPending": "يرجى إكمال التفويض في المتصفح",
5
+ "configDesc": "الاتصال بخادم LobeChat البعيد، تمكين مزامنة البيانات",
6
+ "configError": "خطأ في التكوين",
7
+ "configTitle": "تكوين المزامنة السحابية",
8
+ "connect": "الاتصال والتفويض",
9
+ "connected": "متصل",
10
+ "disconnect": "قطع الاتصال",
11
+ "disconnectError": "فشل في قطع الاتصال",
12
+ "disconnected": "غير متصل",
13
+ "fetchError": "فشل في جلب التكوين",
14
+ "invalidUrl": "يرجى إدخال عنوان URL صالح",
15
+ "serverUrl": "عنوان الخادم",
16
+ "statusConnected": "متصل",
17
+ "statusDisconnected": "غير متصل",
18
+ "urlRequired": "يرجى إدخال عنوان الخادم"
19
+ },
20
+ "updater": {
21
+ "downloadingUpdate": "جارٍ تنزيل التحديث",
22
+ "downloadingUpdateDesc": "يتم تنزيل التحديث، يرجى الانتظار...",
23
+ "later": "تحديث لاحقًا",
24
+ "newVersionAvailable": "يتوفر إصدار جديد",
25
+ "newVersionAvailableDesc": "تم العثور على إصدار جديد {{version}}، هل ترغب في التنزيل الآن؟",
26
+ "restartAndInstall": "إعادة التشغيل والتثبيت",
27
+ "updateError": "خطأ في التحديث",
28
+ "updateReady": "التحديث جاهز",
29
+ "updateReadyDesc": "تم تنزيل Lobe Chat {{version}} بنجاح، سيتم التثبيت بعد إعادة تشغيل التطبيق.",
30
+ "upgradeNow": "تحديث الآن"
31
+ }
32
+ }
@@ -5,9 +5,15 @@
5
5
  "01-ai/yi-1.5-9b-chat": {
6
6
  "description": "Zero One Everything، أحدث نموذج مفتوح المصدر تم تعديله، يحتوي على 9 مليار معلمة، ويدعم تعديلات متعددة لمشاهد الحوار، مع بيانات تدريب عالية الجودة تتماشى مع تفضيلات البشر."
7
7
  },
8
+ "360/deepseek-r1": {
9
+ "description": "【إصدار 360】DeepSeek-R1 استخدم تقنيات التعلم المعزز على نطاق واسع في مرحلة ما بعد التدريب، مما عزز بشكل كبير من قدرة النموذج على الاستدلال مع وجود بيانات محدودة. في المهام الرياضية، البرمجية، واستدلال اللغة الطبيعية، يقدم أداءً يضاهي النسخة الرسمية OpenAI o1."
10
+ },
8
11
  "360gpt-pro": {
9
12
  "description": "360GPT Pro كعضو مهم في سلسلة نماذج 360 AI، يلبي احتياجات معالجة النصوص المتنوعة بفعالية، ويدعم فهم النصوص الطويلة والحوار المتعدد الجولات."
10
13
  },
14
+ "360gpt-pro-trans": {
15
+ "description": "نموذج مخصص للترجمة، تم تحسينه بشكل عميق، ويقدم نتائج ترجمة رائدة."
16
+ },
11
17
  "360gpt-turbo": {
12
18
  "description": "يوفر 360GPT Turbo قدرات حسابية وحوارية قوية، ويتميز بفهم دلالي ممتاز وكفاءة في التوليد، مما يجعله الحل المثالي للمؤسسات والمطورين كمساعد ذكي."
13
19
  },
@@ -62,6 +68,18 @@
62
68
  "DeepSeek-R1-Distill-Qwen-7B": {
63
69
  "description": "نموذج التقطير DeepSeek-R1 المستند إلى Qwen2.5-Math-7B، تم تحسين أداء الاستدلال من خلال التعلم المعزز وبيانات البداية الباردة، ويعيد نموذج المصدر فتح معايير المهام المتعددة."
64
70
  },
71
+ "DeepSeek-V3": {
72
+ "description": "DeepSeek-V3 هو نموذج MoE تم تطويره ذاتيًا بواسطة شركة DeepSeek. حقق DeepSeek-V3 نتائج تقييم تفوقت على نماذج مفتوحة المصدر الأخرى مثل Qwen2.5-72B و Llama-3.1-405B، وفي الأداء ينافس النماذج المغلقة الرائدة عالميًا مثل GPT-4o و Claude-3.5-Sonnet."
73
+ },
74
+ "Doubao-1.5-thinking-pro": {
75
+ "description": "Doubao-1.5 هو نموذج تفكير عميق جديد، يظهر أداءً بارزًا في مجالات الرياضيات، البرمجة، الاستدلال العلمي، والكتابة الإبداعية، ويحقق أو يقترب من المستوى الأول في عدة معايير مرموقة مثل AIME 2024، Codeforces، وGPQA. يدعم نافذة سياق 128k، وإخراج 16k."
76
+ },
77
+ "Doubao-1.5-thinking-pro-vision": {
78
+ "description": "Doubao-1.5 هو نموذج تفكير عميق جديد، يظهر أداءً بارزًا في مجالات الرياضيات، البرمجة، الاستدلال العلمي، والكتابة الإبداعية، ويحقق أو يقترب من المستوى الأول في عدة معايير مرموقة مثل AIME 2024، Codeforces، وGPQA. يدعم نافذة سياق 128k، وإخراج 16k."
79
+ },
80
+ "Doubao-1.5-vision-pro": {
81
+ "description": "Doubao-1.5-vision-pro هو نموذج كبير متعدد الوسائط تم ترقيته حديثًا، يدعم التعرف على الصور بدقة غير محدودة ونسب عرض إلى ارتفاع متطرفة، ويعزز قدرات الاستدلال البصري، التعرف على الوثائق، فهم المعلومات التفصيلية، واتباع التعليمات."
82
+ },
65
83
  "Doubao-1.5-vision-pro-32k": {
66
84
  "description": "دو باو 1.5 فيجن برو هو نموذج كبير متعدد الوسائط تم تحديثه حديثًا، يدعم التعرف على الصور بدقة أي دقة ونسب عرض إلى ارتفاع متطرفة، مما يعزز القدرة على الاستدلال البصري، والتعرف على الوثائق، وفهم المعلومات التفصيلية، والامتثال للتعليمات."
67
85
  },
@@ -341,6 +359,15 @@
341
359
  "SenseChat-Vision": {
342
360
  "description": "النموذج الأحدث (V5.5) يدعم إدخال صور متعددة، ويحقق تحسينات شاملة في القدرات الأساسية للنموذج، مع تحسينات كبيرة في التعرف على خصائص الكائنات، والعلاقات المكانية، والتعرف على الأحداث، وفهم المشاهد، والتعرف على المشاعر، واستنتاج المعرفة المنطقية، وفهم النصوص وتوليدها."
343
361
  },
362
+ "SenseNova-V6-Pro": {
363
+ "description": "تحقيق توحيد أصلي لقدرات الصور والنصوص والفيديو، متجاوزًا حدود التعدد النمطي التقليدي المنفصل، وفاز بالبطولة المزدوجة في تقييمات OpenCompass وSuperCLUE."
364
+ },
365
+ "SenseNova-V6-Reasoner": {
366
+ "description": "يجمع بين الاستدلال العميق البصري واللغوي، لتحقيق التفكير البطيء والاستدلال العميق، ويعرض سلسلة التفكير الكاملة."
367
+ },
368
+ "SenseNova-V6-Turbo": {
369
+ "description": "تحقيق توحيد أصلي لقدرات الصور والنصوص والفيديو، متجاوزًا حدود التعدد النمطي التقليدي المنفصل، متفوقًا بشكل شامل في القدرات الأساسية متعددة النماذج والقدرات اللغوية الأساسية، متوازنًا بين العلوم والآداب، واحتل مرارًا المرتبة الأولى على المستوى المحلي والدولي في العديد من التقييمات."
370
+ },
344
371
  "Skylark2-lite-8k": {
345
372
  "description": "نموذج سكايلارك (Skylark) من الجيل الثاني، نموذج سكايلارك2-لايت يتميز بسرعات استجابة عالية، مناسب للسيناريوهات التي تتطلب استجابة في الوقت الحقيقي، وحساسة للتكاليف، وغير متطلبة لدقة نموذج عالية، بسعة سياق تبلغ 8k."
346
373
  },
@@ -356,6 +383,21 @@
356
383
  "Skylark2-pro-turbo-8k": {
357
384
  "description": "نموذج سكايلارك (Skylark) من الجيل الثاني، سكايلارك2-برو-توربو-8k يقدم استدلالًا أسرع وتكاليف أقل، بسعة سياق تبلغ 8k."
358
385
  },
386
+ "THUDM/GLM-4-32B-0414": {
387
+ "description": "GLM-4-32B-0414 هو نموذج الجيل الجديد من سلسلة GLM المفتوحة، يحتوي على 32 مليار معلمة. يمكن مقارنة أداء هذا النموذج مع سلسلة GPT من OpenAI وسلسلة V3/R1 من DeepSeek."
388
+ },
389
+ "THUDM/GLM-4-9B-0414": {
390
+ "description": "GLM-4-9B-0414 هو نموذج صغير من سلسلة GLM، يحتوي على 9 مليار معلمة. يرث هذا النموذج الخصائص التقنية من سلسلة GLM-4-32B، لكنه يوفر خيارات نشر أخف. على الرغم من حجمه الصغير، لا يزال GLM-4-9B-0414 يظهر قدرة ممتازة في توليد الأكواد، تصميم الويب، توليد الرسوم البيانية SVG، والكتابة المعتمدة على البحث."
391
+ },
392
+ "THUDM/GLM-Z1-32B-0414": {
393
+ "description": "GLM-Z1-32B-0414 هو نموذج استدلال يتمتع بقدرة على التفكير العميق. تم تطوير هذا النموذج بناءً على GLM-4-32B-0414 من خلال بدء التشغيل البارد وتعزيز التعلم، وتم تدريبه بشكل إضافي في المهام الرياضية، البرمجية، والمنطقية. مقارنة بالنموذج الأساسي، حقق GLM-Z1-32B-0414 تحسينًا ملحوظًا في القدرة الرياضية وحل المهام المعقدة."
394
+ },
395
+ "THUDM/GLM-Z1-9B-0414": {
396
+ "description": "GLM-Z1-9B-0414 هو نموذج صغير من سلسلة GLM، يحتوي على 9 مليار معلمة، لكنه يظهر قدرة مذهلة مع الحفاظ على تقاليد المصدر المفتوح. على الرغم من حجمه الصغير، إلا أن هذا النموذج لا يزال يظهر أداءً ممتازًا في الاستدلال الرياضي والمهام العامة، حيث يحتل مستوى أداءً رائدًا بين نماذج المصدر المفتوح ذات الحجم المماثل."
397
+ },
398
+ "THUDM/GLM-Z1-Rumination-32B-0414": {
399
+ "description": "GLM-Z1-Rumination-32B-0414 هو نموذج استدلال عميق يتمتع بقدرة على التفكير العميق (مقابل Deep Research من OpenAI). على عكس نماذج التفكير العميق التقليدية، يستخدم نموذج التفكير العميق وقتًا أطول لحل المشكلات الأكثر انفتاحًا وتعقيدًا."
400
+ },
359
401
  "THUDM/chatglm3-6b": {
360
402
  "description": "ChatGLM3-6B هو نموذج مفتوح المصدر من سلسلة ChatGLM، تم تطويره بواسطة Zhizhu AI. يحتفظ هذا النموذج بخصائص الجيل السابق الممتازة، مثل سلاسة المحادثة وانخفاض عتبة النشر، بينما يقدم ميزات جديدة. تم تدريبه على بيانات تدريب أكثر تنوعًا، وعدد أكبر من خطوات التدريب، واستراتيجيات تدريب أكثر منطقية، مما يجعله نموذجًا ممتازًا بين النماذج المدربة مسبقًا التي تقل عن 10B. يدعم ChatGLM3-6B المحادثات متعددة الجولات، واستدعاء الأدوات، وتنفيذ الشيفرة، ومهام الوكلاء في سيناريوهات معقدة. بالإضافة إلى نموذج المحادثة، تم إصدار النموذج الأساسي ChatGLM-6B-Base ونموذج المحادثة الطويلة ChatGLM3-6B-32K. النموذج مفتوح بالكامل للأبحاث الأكاديمية، ويسمح بالاستخدام التجاري المجاني بعد التسجيل."
361
403
  },
@@ -521,6 +563,9 @@
521
563
  "charglm-3": {
522
564
  "description": "CharGLM-3 مصمم خصيصًا للأدوار التفاعلية والمرافقة العاطفية، يدعم ذاكرة متعددة الجولات طويلة الأمد وحوارات مخصصة، ويستخدم على نطاق واسع."
523
565
  },
566
+ "charglm-4": {
567
+ "description": "CharGLM-4 مصمم خصيصًا للأدوار والشعور بالرفقة، يدعم الذاكرة متعددة الجولات الطويلة والحوار المخصص، ويستخدم على نطاق واسع."
568
+ },
524
569
  "chatglm3": {
525
570
  "description": "ChatGLM3 هو نموذج مغلق المصدر تم إصداره بواسطة مختبر KEG في جامعة تسينغهوا وشركة Zhizhu AI، وقد تم تدريبه مسبقًا على كميات هائلة من المعرفة المعرفية باللغتين الصينية والإنجليزية، وتم تحسينه وفقًا للاختيارات البشرية. مقارنة بالنموذج الأول، حقق تحسينات بنسبة 16٪ و 36٪ و 280٪ في MMLU و C-Eval و GSM8K على التوالي، وتصدر قائمة المهام الصينية C-Eval. يناسب هذا النموذج السيناريوهات التي تتطلب كميات كبيرة من المعرفة وقدرات الاستدلال والإبداع، مثل كتابة النصوص الإعلانية وكتابة الروايات وكتابة المحتوى المعرفي وتكوين الكود."
526
571
  },
@@ -632,9 +677,18 @@
632
677
  "command-r-plus-04-2024": {
633
678
  "description": "الأمر R+ هو نموذج حواري يتبع التعليمات، ويظهر جودة أعلى وموثوقية أكبر في المهام اللغوية، ويتميز بطول سياق أطول مقارنة بالنماذج السابقة. إنه الأنسب لعمليات العمل المعقدة في RAG واستخدام الأدوات متعددة الخطوات."
634
679
  },
680
+ "command-r-plus-08-2024": {
681
+ "description": "Command R+ هو نموذج حواري يتبع التعليمات، يقدم جودة أعلى وموثوقية أكبر في المهام اللغوية، مقارنة بالنماذج السابقة، مع طول سياق أطول. هو الأنسب لعمليات العمل المعقدة RAG واستخدام الأدوات متعددة الخطوات."
682
+ },
635
683
  "command-r7b-12-2024": {
636
684
  "description": "الأمر-r7b-12-2024 هو إصدار صغير وفعال تم إصداره في ديسمبر 2024. يظهر أداءً ممتازًا في المهام التي تتطلب استدلالًا معقدًا ومعالجة متعددة الخطوات مثل RAG، واستخدام الأدوات، والوكالات."
637
685
  },
686
+ "compound-beta": {
687
+ "description": "Compound-beta هو نظام ذكاء اصطناعي مركب، مدعوم بعدة نماذج مفتوحة متاحة في GroqCloud، يمكنه استخدام الأدوات بشكل ذكي وانتقائي للإجابة على استفسارات المستخدمين."
688
+ },
689
+ "compound-beta-mini": {
690
+ "description": "Compound-beta-mini هو نظام ذكاء اصطناعي مركب، مدعوم بنماذج مفتوحة متاحة في GroqCloud، يمكنه استخدام الأدوات بشكل ذكي وانتقائي للإجابة على استفسارات المستخدمين."
691
+ },
638
692
  "dall-e-2": {
639
693
  "description": "النموذج الثاني من DALL·E، يدعم توليد صور أكثر واقعية ودقة، بدقة تعادل أربعة أضعاف الجيل الأول."
640
694
  },
@@ -779,6 +833,18 @@
779
833
  "deepseek/deepseek-v3/community": {
780
834
  "description": "حقق DeepSeek-V3 تقدمًا كبيرًا في سرعة الاستدلال مقارنة بالنماذج السابقة. يحتل المرتبة الأولى بين النماذج المفتوحة المصدر، ويمكن مقارنته بأحدث النماذج المغلقة على مستوى العالم. يعتمد DeepSeek-V3 على بنية الانتباه المتعدد الرؤوس (MLA) وبنية DeepSeekMoE، والتي تم التحقق منها بشكل شامل في DeepSeek-V2. بالإضافة إلى ذلك، قدم DeepSeek-V3 استراتيجية مساعدة غير مدمرة للتوازن في الحمل، وحدد أهداف تدريب متعددة التسمية لتحقيق أداء أقوى."
781
835
  },
836
+ "deepseek_r1": {
837
+ "description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز (RL)، يعالج مشكلات التكرار والقراءة في النموذج. قبل RL، أدخل DeepSeek-R1 بيانات بدء التشغيل الباردة، مما عزز أداء الاستدلال. يظهر أداءً متساويًا مع OpenAI-o1 في المهام الرياضية، البرمجية، والاستدلال، ومن خلال طرق التدريب المصممة بعناية، تم تحسين الأداء العام."
838
+ },
839
+ "deepseek_r1_distill_llama_70b": {
840
+ "description": "DeepSeek-R1-Distill-Llama-70B هو نموذج تم الحصول عليه من Llama-3.3-70B-Instruct من خلال التدريب بالتقطير. هذا النموذج هو جزء من سلسلة DeepSeek-R1، ويظهر أداءً ممتازًا في مجالات متعددة مثل الرياضيات، البرمجة، والاستدلال من خلال استخدام عينات تم إنشاؤها بواسطة DeepSeek-R1 للتدريب."
841
+ },
842
+ "deepseek_r1_distill_qwen_14b": {
843
+ "description": "DeepSeek-R1-Distill-Qwen-14B هو نموذج تم الحصول عليه من Qwen2.5-14B من خلال تقطير المعرفة. يستخدم هذا النموذج 800,000 عينة مختارة تم إنشاؤها بواسطة DeepSeek-R1 للتدريب، ويظهر قدرة استدلال ممتازة."
844
+ },
845
+ "deepseek_r1_distill_qwen_32b": {
846
+ "description": "DeepSeek-R1-Distill-Qwen-32B هو نموذج تم الحصول عليه من Qwen2.5-32B من خلال تقطير المعرفة. يستخدم هذا النموذج 800,000 عينة مختارة تم إنشاؤها بواسطة DeepSeek-R1 للتدريب، ويظهر أداءً ممتازًا في مجالات متعددة مثل الرياضيات، البرمجة، والاستدلال."
847
+ },
782
848
  "doubao-1.5-lite-32k": {
783
849
  "description": "دو باو 1.5 لايت هو نموذج الجيل الجديد الخفيف، مع سرعة استجابة قصوى، حيث يصل الأداء والوقت المستغرق إلى مستوى عالمي."
784
850
  },
@@ -788,6 +854,9 @@
788
854
  "doubao-1.5-pro-32k": {
789
855
  "description": "دو باو 1.5 برو هو نموذج الجيل الجديد الرائد، مع ترقية شاملة في الأداء، حيث يظهر تفوقًا في المعرفة، والبرمجة، والاستدلال، وغيرها."
790
856
  },
857
+ "doubao-1.5-vision-lite": {
858
+ "description": "Doubao-1.5-vision-lite هو نموذج كبير متعدد الوسائط تم ترقيته حديثًا، يدعم التعرف على الصور بدقة غير محدودة ونسب عرض إلى ارتفاع متطرفة، ويعزز قدرات الاستدلال البصري، التعرف على الوثائق، فهم المعلومات التفصيلية، واتباع التعليمات. يدعم نافذة سياق 128k، وطول الإخراج يدعم حتى 16k توكن."
859
+ },
791
860
  "emohaa": {
792
861
  "description": "Emohaa هو نموذج نفسي، يتمتع بقدرات استشارية متخصصة، يساعد المستخدمين في فهم القضايا العاطفية."
793
862
  },
@@ -953,6 +1022,9 @@
953
1022
  "glm-4-air": {
954
1023
  "description": "GLM-4-Air هو إصدار ذو قيمة عالية، يتمتع بأداء قريب من GLM-4، ويقدم سرعة عالية وسعرًا معقولًا."
955
1024
  },
1025
+ "glm-4-air-250414": {
1026
+ "description": "GLM-4-Air هو إصدار ذو قيمة عالية، أداءه قريب من GLM-4، يوفر سرعة عالية وسعرًا معقولًا."
1027
+ },
956
1028
  "glm-4-airx": {
957
1029
  "description": "GLM-4-AirX يقدم إصدارًا فعالًا من GLM-4-Air، حيث تصل سرعة الاستدلال إلى 2.6 مرة."
958
1030
  },
@@ -962,6 +1034,9 @@
962
1034
  "glm-4-flash": {
963
1035
  "description": "GLM-4-Flash هو الخيار المثالي لمعالجة المهام البسيطة، حيث يتمتع بأسرع سرعة وأفضل سعر."
964
1036
  },
1037
+ "glm-4-flash-250414": {
1038
+ "description": "GLM-4-Flash هو الخيار المثالي لمعالجة المهام البسيطة، الأسرع والأكثر مجانية."
1039
+ },
965
1040
  "glm-4-flashx": {
966
1041
  "description": "GLM-4-FlashX هو إصدار معزز من Flash، يتميز بسرعة استدلال فائقة."
967
1042
  },
@@ -980,6 +1055,18 @@
980
1055
  "glm-4v-plus": {
981
1056
  "description": "GLM-4V-Plus يتمتع بقدرة على فهم محتوى الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط."
982
1057
  },
1058
+ "glm-4v-plus-0111": {
1059
+ "description": "GLM-4V-Plus يتمتع بقدرة على فهم محتوى الفيديو والصور المتعددة، مناسب للمهام متعددة الوسائط."
1060
+ },
1061
+ "glm-z1-air": {
1062
+ "description": "نموذج استدلال: يتمتع بقدرة استدلال قوية، مناسب للمهام التي تتطلب استدلالًا عميقًا."
1063
+ },
1064
+ "glm-z1-airx": {
1065
+ "description": "استدلال فائق السرعة: يتمتع بسرعة استدلال فائقة وأداء استدلال قوي."
1066
+ },
1067
+ "glm-z1-flash": {
1068
+ "description": "سلسلة GLM-Z1 تتمتع بقدرة استدلال معقدة قوية، تظهر أداءً ممتازًا في مجالات الاستدلال المنطقي، الرياضيات، والبرمجة. الحد الأقصى لطول السياق هو 32K."
1069
+ },
983
1070
  "glm-zero-preview": {
984
1071
  "description": "يمتلك GLM-Zero-Preview قدرة قوية على الاستدلال المعقد، ويظهر أداءً ممتازًا في مجالات الاستدلال المنطقي، والرياضيات، والبرمجة."
985
1072
  },
@@ -1199,12 +1286,15 @@
1199
1286
  "hunyuan-turbos-20250226": {
1200
1287
  "description": "hunyuan-TurboS pv2.1.2 هو إصدار ثابت تم تحديث قاعدة التدريب لرموز التوكن؛ تعزيز القدرات الفكرية في الرياضيات/المنطق/البرمجة؛ تحسين تجربة الاستخدام العامة باللغتين الصينية والإنجليزية، بما في ذلك إنشاء النصوص، وفهم النصوص، والأسئلة والأجوبة المعرفية، والدردشة."
1201
1288
  },
1202
- "hunyuan-turbos-20250313": {
1203
- "description": "توحيد أسلوب خطوات حل المسائل الرياضية، وتعزيز الأسئلة والأجوبة الرياضية متعددة الجولات. تحسين أسلوب الإجابة في إنشاء النصوص، وإزالة طابع الذكاء الاصطناعي، وزيادة البلاغة."
1204
- },
1205
1289
  "hunyuan-turbos-latest": {
1206
1290
  "description": "hunyuan-TurboS هو أحدث إصدار من نموذج هونيان الرائد، يتمتع بقدرات تفكير أقوى وتجربة أفضل."
1207
1291
  },
1292
+ "hunyuan-turbos-longtext-128k-20250325": {
1293
+ "description": "بارع في معالجة المهام الطويلة مثل تلخيص الوثائق والأسئلة والأجوبة، كما يمتلك القدرة على معالجة مهام توليد النصوص العامة. يظهر أداءً ممتازًا في تحليل وتوليد النصوص الطويلة، ويمكنه التعامل بفعالية مع متطلبات معالجة المحتوى الطويل والمعقد."
1294
+ },
1295
+ "hunyuan-turbos-vision": {
1296
+ "description": "هذا النموذج مناسب لمشاهد فهم النصوص والصور، وهو نموذج لغة بصري رائد من الجيل الجديد يعتمد على turbos الأحدث، يركز على المهام المتعلقة بفهم النصوص والصور، بما في ذلك التعرف على الكيانات المستندة إلى الصور، الأسئلة والأجوبة المعرفية، إنشاء النصوص، وحل المشكلات من خلال التصوير، مع تحسين شامل مقارنة بالنموذج السابق."
1297
+ },
1208
1298
  "hunyuan-vision": {
1209
1299
  "description": "نموذج Hunyuan الأحدث متعدد الوسائط، يدعم إدخال الصور والنصوص لتوليد محتوى نصي."
1210
1300
  },
@@ -1223,6 +1313,12 @@
1223
1313
  "internlm3-latest": {
1224
1314
  "description": "سلسلة نماذجنا الأحدث، تتمتع بأداء استدلال ممتاز، تتصدر نماذج المصدر المفتوح من نفس الفئة. تشير بشكل افتراضي إلى أحدث نماذج سلسلة InternLM3 التي تم إصدارها."
1225
1315
  },
1316
+ "jamba-large": {
1317
+ "description": "أقوى وأحدث نموذج لدينا، مصمم لمعالجة المهام المعقدة على مستوى المؤسسات، ويتميز بأداء استثنائي."
1318
+ },
1319
+ "jamba-mini": {
1320
+ "description": "النموذج الأكثر كفاءة في فئته، يجمع بين السرعة والجودة، ويتميز بحجمه الصغير."
1321
+ },
1226
1322
  "jina-deepsearch-v1": {
1227
1323
  "description": "البحث العميق يجمع بين البحث عبر الإنترنت، والقراءة، والاستدلال، مما يتيح إجراء تحقيق شامل. يمكنك اعتباره وكيلًا يتولى مهام البحث الخاصة بك - حيث يقوم بإجراء بحث واسع النطاق ويخضع لعدة تكرارات قبل تقديم الإجابة. تتضمن هذه العملية بحثًا مستمرًا، واستدلالًا، وحل المشكلات من زوايا متعددة. وهذا يختلف اختلافًا جوهريًا عن النماذج الكبيرة القياسية التي تولد الإجابات مباشرة من البيانات المدربة مسبقًا، وكذلك عن أنظمة RAG التقليدية التي تعتمد على البحث السطحي لمرة واحدة."
1228
1324
  },
@@ -1568,9 +1664,18 @@
1568
1664
  "o1-preview": {
1569
1665
  "description": "o1 هو نموذج استدلال جديد من OpenAI، مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
1570
1666
  },
1667
+ "o3": {
1668
+ "description": "o3 هو نموذج قوي شامل، يظهر أداءً ممتازًا في مجالات متعددة. يضع معايير جديدة في المهام الرياضية، العلمية، البرمجية، واستدلال الرؤية. كما أنه بارع في الكتابة التقنية واتباع التعليمات. يمكن للمستخدمين استخدامه لتحليل النصوص، الأكواد، والصور، وحل المشكلات المعقدة متعددة الخطوات."
1669
+ },
1571
1670
  "o3-mini": {
1572
1671
  "description": "o3-mini هو أحدث نموذج استدلال صغير لدينا، يقدم ذكاءً عالياً تحت نفس تكاليف التأخير والأداء مثل o1-mini."
1573
1672
  },
1673
+ "o3-mini-high": {
1674
+ "description": "o3-mini إصدار عالي من حيث مستوى الاستدلال، يقدم ذكاءً عاليًا بنفس تكلفة وأهداف التأخير مثل o1-mini."
1675
+ },
1676
+ "o4-mini": {
1677
+ "description": "o4-mini هو أحدث نموذج صغير من سلسلة o. تم تحسينه للاستدلال السريع والفعال، ويظهر كفاءة وأداء عاليين في المهام البرمجية والرؤية."
1678
+ },
1574
1679
  "open-codestral-mamba": {
1575
1680
  "description": "Codestral Mamba هو نموذج لغة Mamba 2 يركز على توليد الشيفرة، ويوفر دعمًا قويًا لمهام الشيفرة المتقدمة والاستدلال."
1576
1681
  },
@@ -1598,6 +1703,12 @@
1598
1703
  "openai/o1-preview": {
1599
1704
  "description": "o1 هو نموذج استدلال جديد من OpenAI، مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
1600
1705
  },
1706
+ "openai/o4-mini": {
1707
+ "description": "o4-mini تم تحسينه للاستدلال السريع والفعال، ويظهر كفاءة وأداء عاليين في المهام البرمجية والرؤية."
1708
+ },
1709
+ "openai/o4-mini-high": {
1710
+ "description": "o4-mini إصدار عالي من حيث مستوى الاستدلال، تم تحسينه للاستدلال السريع والفعال، ويظهر كفاءة وأداء عاليين في المهام البرمجية والرؤية."
1711
+ },
1601
1712
  "openrouter/auto": {
1602
1713
  "description": "استنادًا إلى طول السياق، والموضوع، والتعقيد، سيتم إرسال طلبك إلى Llama 3 70B Instruct، أو Claude 3.5 Sonnet (التعديل الذاتي) أو GPT-4o."
1603
1714
  },
@@ -1793,6 +1904,9 @@
1793
1904
  "qwq-plus-latest": {
1794
1905
  "description": "نموذج استدلال QwQ المدرب على نموذج Qwen2.5، الذي يعزز بشكل كبير من قدرة الاستدلال للنموذج من خلال التعلم المعزز. تصل المؤشرات الأساسية للنموذج (AIME 24/25، LiveCodeBench) وبعض المؤشرات العامة (IFEval، LiveBench وغيرها) إلى مستوى DeepSeek-R1 الكامل."
1795
1906
  },
1907
+ "qwq_32b": {
1908
+ "description": "نموذج استدلال متوسط الحجم من سلسلة Qwen. مقارنة بنماذج تحسين التعليمات التقليدية، يظهر QwQ، الذي يتمتع بقدرة على التفكير والاستدلال، أداءً محسّنًا بشكل ملحوظ في المهام اللاحقة، خاصة عند حل المشكلات الصعبة."
1909
+ },
1796
1910
  "r1-1776": {
1797
1911
  "description": "R1-1776 هو إصدار من نموذج DeepSeek R1، تم تدريبه لاحقًا لتقديم معلومات حقائق غير خاضعة للرقابة وغير متحيزة."
1798
1912
  },
@@ -1853,12 +1967,21 @@
1853
1967
  "step-2-16k": {
1854
1968
  "description": "يدعم تفاعلات سياق كبيرة، مناسب لمشاهد الحوار المعقدة."
1855
1969
  },
1970
+ "step-2-16k-exp": {
1971
+ "description": "الإصدار التجريبي من نموذج step-2، يحتوي على أحدث الميزات، يتم تحديثه بشكل دوري. لا يُوصى باستخدامه في بيئات الإنتاج الرسمية."
1972
+ },
1856
1973
  "step-2-mini": {
1857
1974
  "description": "نموذج كبير سريع يعتمد على بنية الانتباه الجديدة MFA، يحقق نتائج مشابهة لـ step1 بتكلفة منخفضة جداً، مع الحفاظ على قدرة أعلى على المعالجة وزمن استجابة أسرع. يمكنه التعامل مع المهام العامة، ويتميز بقدرات قوية في البرمجة."
1858
1975
  },
1976
+ "step-r1-v-mini": {
1977
+ "description": "هذا النموذج هو نموذج استدلال كبير يتمتع بقدرة قوية على فهم الصور، يمكنه معالجة المعلومات النصية والصورية، ويخرج نصوصًا بعد تفكير عميق. يظهر هذا النموذج أداءً بارزًا في مجال الاستدلال البصري، كما يمتلك قدرات رياضية، برمجية، ونصية من الدرجة الأولى. طول السياق هو 100k."
1978
+ },
1859
1979
  "taichu_llm": {
1860
1980
  "description": "نموذج اللغة الكبير TaiChu يتمتع بقدرات قوية في فهم اللغة، بالإضافة إلى إنشاء النصوص، والإجابة على الأسئلة، وبرمجة الأكواد، والحسابات الرياضية، والاستدلال المنطقي، وتحليل المشاعر، وتلخيص النصوص. يجمع بشكل مبتكر بين التدريب المسبق على البيانات الضخمة والمعرفة الغنية من مصادر متعددة، من خلال تحسين تقنيات الخوارزميات باستمرار واستيعاب المعرفة الجديدة من البيانات النصية الضخمة، مما يحقق تطورًا مستمرًا في أداء النموذج. يوفر للمستخدمين معلومات وخدمات أكثر سهولة وتجربة أكثر ذكاءً."
1861
1981
  },
1982
+ "taichu_o1": {
1983
+ "description": "taichu_o1 هو نموذج استدلال كبير من الجيل الجديد، يحقق سلسلة من التفكير الشبيه بالبشر من خلال التفاعل متعدد الوسائط والتعلم المعزز، يدعم استنتاجات القرارات المعقدة، ويظهر مسارات تفكير قابلة للنموذج مع الحفاظ على دقة عالية في المخرجات، مناسب لتحليل الاستراتيجيات والتفكير العميق."
1984
+ },
1862
1985
  "taichu_vl": {
1863
1986
  "description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويظهر أداءً بارزًا في مجال الأسئلة والأجوبة النصية والصورية."
1864
1987
  },
@@ -5,6 +5,7 @@
5
5
  "off": "إيقاف التصحيح",
6
6
  "on": "عرض معلومات استدعاء البرنامج المساعد",
7
7
  "payload": "حمولة البرنامج المساعد",
8
+ "pluginState": "حالة المكون",
8
9
  "response": "الرد",
9
10
  "tool_call": "طلب استدعاء الأداة"
10
11
  },
@@ -7,6 +7,20 @@
7
7
  "images": "الصور:",
8
8
  "prompt": "كلمة تلميح"
9
9
  },
10
+ "localFiles": {
11
+ "file": "ملف",
12
+ "folder": "مجلد",
13
+ "open": "فتح",
14
+ "openFile": "فتح ملف",
15
+ "openFolder": "فتح مجلد",
16
+ "read": {
17
+ "more": "عرض المزيد"
18
+ },
19
+ "readFile": "قراءة الملف",
20
+ "readFileError": "فشل في قراءة الملف، يرجى التحقق من صحة مسار الملف",
21
+ "readFiles": "قراءة الملفات",
22
+ "readFilesError": "فشل في قراءة الملفات، يرجى التحقق من صحة مسار الملف"
23
+ },
10
24
  "search": {
11
25
  "createNewSearch": "إنشاء سجل بحث جديد",
12
26
  "emptyResult": "لم يتم العثور على نتائج، يرجى تعديل الكلمات الرئيسية والمحاولة مرة أخرى",
@@ -44,5 +58,16 @@
44
58
  "summary": "ملخص",
45
59
  "summaryTooltip": "تلخيص المحتوى الحالي",
46
60
  "viewMoreResults": "عرض المزيد من {{results}} نتيجة"
61
+ },
62
+ "updateArgs": {
63
+ "duplicateKeyError": "يجب أن يكون مفتاح الحقل فريدًا",
64
+ "form": {
65
+ "add": "إضافة عنصر",
66
+ "key": "مفتاح الحقل",
67
+ "value": "قيمة الحقل"
68
+ },
69
+ "formValidationFailed": "فشل التحقق من صحة النموذج، يرجى التحقق من تنسيق المعلمات",
70
+ "keyRequired": "لا يمكن أن يكون مفتاح الحقل فارغًا",
71
+ "stringifyError": "تعذر تسلسل المعلمات، يرجى التحقق من تنسيق المعلمات"
47
72
  }
48
73
  }
@@ -284,6 +284,8 @@
284
284
  "rename": "Преименувай",
285
285
  "reset": "Нулирай",
286
286
  "retry": "Опитай отново",
287
+ "run": "Изпълни",
288
+ "save": "Запази",
287
289
  "send": "Изпрати",
288
290
  "setting": "Настройки",
289
291
  "share": "Сподели",
@@ -0,0 +1,32 @@
1
+ {
2
+ "remoteServer": {
3
+ "authError": "Упълномощаването не бе успешно: {{error}}",
4
+ "authPending": "Моля, завършете упълномощаването в браузъра",
5
+ "configDesc": "Свържете се с отдалечения сървър LobeChat, за да активирате синхронизация на данни",
6
+ "configError": "Грешка в конфигурацията",
7
+ "configTitle": "Конфигуриране на облачна синхронизация",
8
+ "connect": "Свързване и упълномощаване",
9
+ "connected": "Свързан",
10
+ "disconnect": "Прекъсване на връзката",
11
+ "disconnectError": "Неуспешно прекъсване на връзката",
12
+ "disconnected": "Не е свързан",
13
+ "fetchError": "Неуспешно извличане на конфигурацията",
14
+ "invalidUrl": "Моля, въведете валиден URL адрес",
15
+ "serverUrl": "Адрес на сървъра",
16
+ "statusConnected": "Свързан",
17
+ "statusDisconnected": "Не е свързан",
18
+ "urlRequired": "Моля, въведете адреса на сървъра"
19
+ },
20
+ "updater": {
21
+ "downloadingUpdate": "Изтегляне на актуализация",
22
+ "downloadingUpdateDesc": "Актуализацията се изтегля, моля изчакайте...",
23
+ "later": "Актуализирай по-късно",
24
+ "newVersionAvailable": "Налична е нова версия",
25
+ "newVersionAvailableDesc": "Открита е нова версия {{version}}, искате ли да я изтеглите сега?",
26
+ "restartAndInstall": "Рестартирай и инсталирай",
27
+ "updateError": "Грешка при актуализацията",
28
+ "updateReady": "Актуализацията е готова",
29
+ "updateReadyDesc": "Lobe Chat {{version}} е изтеглен, рестартирайте приложението, за да завършите инсталацията.",
30
+ "upgradeNow": "Актуализирай сега"
31
+ }
32
+ }