@lobehub/lobehub 2.0.0-next.50 → 2.0.0-next.52

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (171) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/apps/desktop/src/main/controllers/LocalFileCtr.ts +25 -5
  3. package/apps/desktop/src/main/controllers/ShellCommandCtr.ts +242 -0
  4. package/apps/desktop/src/main/controllers/__tests__/LocalFileCtr.test.ts +4 -1
  5. package/apps/desktop/src/main/controllers/__tests__/ShellCommandCtr.test.ts +499 -0
  6. package/apps/desktop/src/main/modules/fileSearch/__tests__/macOS.integration.test.ts +357 -0
  7. package/apps/desktop/src/main/modules/fileSearch/impl/macOS.ts +30 -22
  8. package/changelog/v1.json +18 -0
  9. package/locales/ar/chat.json +20 -0
  10. package/locales/ar/common.json +1 -0
  11. package/locales/ar/components.json +6 -0
  12. package/locales/ar/models.json +119 -126
  13. package/locales/ar/plugin.json +2 -1
  14. package/locales/bg-BG/chat.json +20 -0
  15. package/locales/bg-BG/common.json +1 -0
  16. package/locales/bg-BG/components.json +6 -0
  17. package/locales/bg-BG/models.json +104 -132
  18. package/locales/bg-BG/plugin.json +2 -1
  19. package/locales/de-DE/chat.json +20 -0
  20. package/locales/de-DE/common.json +1 -0
  21. package/locales/de-DE/components.json +6 -0
  22. package/locales/de-DE/models.json +119 -126
  23. package/locales/de-DE/plugin.json +2 -1
  24. package/locales/en-US/chat.json +20 -0
  25. package/locales/en-US/common.json +1 -0
  26. package/locales/en-US/components.json +6 -0
  27. package/locales/en-US/models.json +167 -126
  28. package/locales/en-US/plugin.json +2 -1
  29. package/locales/es-ES/chat.json +20 -0
  30. package/locales/es-ES/common.json +1 -0
  31. package/locales/es-ES/components.json +6 -0
  32. package/locales/es-ES/models.json +119 -126
  33. package/locales/es-ES/plugin.json +2 -1
  34. package/locales/fa-IR/chat.json +20 -0
  35. package/locales/fa-IR/common.json +1 -0
  36. package/locales/fa-IR/components.json +6 -0
  37. package/locales/fa-IR/models.json +119 -126
  38. package/locales/fa-IR/plugin.json +2 -1
  39. package/locales/fr-FR/chat.json +20 -0
  40. package/locales/fr-FR/common.json +1 -0
  41. package/locales/fr-FR/components.json +6 -0
  42. package/locales/fr-FR/models.json +119 -126
  43. package/locales/fr-FR/plugin.json +2 -1
  44. package/locales/it-IT/chat.json +20 -0
  45. package/locales/it-IT/common.json +1 -0
  46. package/locales/it-IT/components.json +6 -0
  47. package/locales/it-IT/models.json +119 -126
  48. package/locales/it-IT/plugin.json +2 -1
  49. package/locales/ja-JP/chat.json +20 -0
  50. package/locales/ja-JP/common.json +1 -0
  51. package/locales/ja-JP/components.json +6 -0
  52. package/locales/ja-JP/models.json +119 -126
  53. package/locales/ja-JP/plugin.json +2 -1
  54. package/locales/ko-KR/chat.json +20 -0
  55. package/locales/ko-KR/common.json +1 -0
  56. package/locales/ko-KR/components.json +6 -0
  57. package/locales/ko-KR/models.json +119 -126
  58. package/locales/ko-KR/plugin.json +2 -1
  59. package/locales/nl-NL/chat.json +20 -0
  60. package/locales/nl-NL/common.json +1 -0
  61. package/locales/nl-NL/components.json +6 -0
  62. package/locales/nl-NL/models.json +119 -126
  63. package/locales/nl-NL/plugin.json +2 -1
  64. package/locales/pl-PL/chat.json +20 -0
  65. package/locales/pl-PL/common.json +1 -0
  66. package/locales/pl-PL/components.json +6 -0
  67. package/locales/pl-PL/models.json +119 -126
  68. package/locales/pl-PL/plugin.json +2 -1
  69. package/locales/pt-BR/chat.json +20 -0
  70. package/locales/pt-BR/common.json +1 -0
  71. package/locales/pt-BR/components.json +6 -0
  72. package/locales/pt-BR/models.json +119 -126
  73. package/locales/pt-BR/plugin.json +2 -1
  74. package/locales/ru-RU/chat.json +20 -0
  75. package/locales/ru-RU/common.json +1 -0
  76. package/locales/ru-RU/components.json +6 -0
  77. package/locales/ru-RU/models.json +119 -126
  78. package/locales/ru-RU/plugin.json +2 -1
  79. package/locales/tr-TR/chat.json +20 -0
  80. package/locales/tr-TR/common.json +1 -0
  81. package/locales/tr-TR/components.json +6 -0
  82. package/locales/tr-TR/models.json +119 -126
  83. package/locales/tr-TR/plugin.json +2 -1
  84. package/locales/vi-VN/chat.json +20 -0
  85. package/locales/vi-VN/common.json +1 -0
  86. package/locales/vi-VN/components.json +6 -0
  87. package/locales/vi-VN/models.json +119 -126
  88. package/locales/vi-VN/plugin.json +2 -1
  89. package/locales/zh-CN/chat.json +20 -0
  90. package/locales/zh-CN/common.json +1 -0
  91. package/locales/zh-CN/components.json +6 -0
  92. package/locales/zh-CN/models.json +173 -80
  93. package/locales/zh-CN/plugin.json +2 -1
  94. package/locales/zh-TW/chat.json +20 -0
  95. package/locales/zh-TW/common.json +1 -0
  96. package/locales/zh-TW/components.json +6 -0
  97. package/locales/zh-TW/models.json +119 -126
  98. package/locales/zh-TW/plugin.json +2 -1
  99. package/package.json +1 -1
  100. package/packages/agent-runtime/src/core/InterventionChecker.ts +1 -1
  101. package/packages/agent-runtime/src/core/__tests__/InterventionChecker.test.ts +23 -23
  102. package/packages/agent-runtime/src/types/state.ts +7 -1
  103. package/packages/const/src/settings/tool.ts +1 -5
  104. package/packages/electron-client-ipc/src/types/localSystem.ts +26 -2
  105. package/packages/file-loaders/src/loaders/docx/index.ts +1 -1
  106. package/packages/model-bank/src/aiModels/wenxin.ts +1348 -291
  107. package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +58 -0
  108. package/packages/model-runtime/src/core/contextBuilders/openai.ts +24 -10
  109. package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +3 -2
  110. package/packages/model-runtime/src/providers/openai/index.test.ts +44 -0
  111. package/packages/model-runtime/src/providers/wenxin/index.ts +22 -1
  112. package/packages/model-runtime/src/utils/modelParse.ts +6 -0
  113. package/packages/types/src/tool/builtin.ts +15 -4
  114. package/packages/types/src/tool/intervention.ts +32 -2
  115. package/packages/types/src/user/settings/tool.ts +3 -27
  116. package/src/config/modelProviders/wenxin.ts +2 -3
  117. package/src/features/Conversation/MarkdownElements/remarkPlugins/__snapshots__/createRemarkSelfClosingTagPlugin.test.ts.snap +133 -0
  118. package/src/features/Conversation/MarkdownElements/remarkPlugins/createRemarkSelfClosingTagPlugin.test.ts +48 -0
  119. package/src/features/Conversation/MarkdownElements/remarkPlugins/createRemarkSelfClosingTagPlugin.ts +2 -1
  120. package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
  121. package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/Fallback.tsx +98 -0
  122. package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/ModeSelector.tsx +5 -6
  123. package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/index.tsx +40 -36
  124. package/src/features/Conversation/Messages/Group/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
  125. package/src/features/Conversation/Messages/Group/Tool/Render/index.tsx +25 -18
  126. package/src/features/LocalFile/LocalFile.tsx +55 -5
  127. package/src/features/PluginsUI/Render/BuiltinType/index.test.tsx +10 -4
  128. package/src/features/PluginsUI/Render/BuiltinType/index.tsx +2 -2
  129. package/src/locales/default/components.ts +6 -0
  130. package/src/locales/default/plugin.ts +2 -1
  131. package/src/services/chat/chat.test.ts +1 -0
  132. package/src/services/electron/localFileService.ts +4 -0
  133. package/src/store/aiInfra/slices/aiProvider/__tests__/selectors.test.ts +62 -0
  134. package/src/store/aiInfra/slices/aiProvider/selectors.ts +1 -1
  135. package/src/store/chat/agents/GeneralChatAgent.ts +26 -1
  136. package/src/store/chat/agents/__tests__/GeneralChatAgent.test.ts +173 -0
  137. package/src/store/chat/slices/aiChat/actions/conversationControl.ts +8 -40
  138. package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +91 -34
  139. package/src/store/user/selectors.ts +1 -0
  140. package/src/store/user/slices/settings/action.ts +12 -0
  141. package/src/store/user/slices/settings/selectors/__snapshots__/settings.test.ts.snap +0 -7
  142. package/src/store/user/slices/settings/selectors/index.ts +1 -0
  143. package/src/store/user/slices/settings/selectors/settings.test.ts +0 -37
  144. package/src/store/user/slices/settings/selectors/settings.ts +0 -5
  145. package/src/store/user/slices/settings/selectors/toolIntervention.ts +17 -0
  146. package/src/tools/code-interpreter/Render/index.tsx +1 -1
  147. package/src/tools/interventions.ts +32 -0
  148. package/src/tools/local-system/Intervention/RunCommand/index.tsx +56 -0
  149. package/src/tools/local-system/Placeholder/ListFiles.tsx +3 -5
  150. package/src/tools/local-system/Placeholder/SearchFiles.tsx +2 -5
  151. package/src/tools/local-system/Render/ListFiles/index.tsx +16 -21
  152. package/src/tools/local-system/Render/RenameLocalFile/index.tsx +15 -20
  153. package/src/tools/local-system/Render/RunCommand/index.tsx +103 -27
  154. package/src/tools/local-system/Render/SearchFiles/SearchQuery/index.tsx +0 -1
  155. package/src/tools/local-system/Render/SearchFiles/index.tsx +15 -20
  156. package/src/tools/local-system/Render/WriteFile/index.tsx +2 -8
  157. package/src/tools/local-system/index.ts +184 -4
  158. package/src/tools/local-system/systemRole.ts +62 -8
  159. package/src/tools/placeholders.ts +39 -8
  160. package/src/tools/renders.ts +56 -9
  161. package/src/tools/web-browsing/Placeholder/{PageContent.tsx → CrawlMultiPages.tsx} +4 -1
  162. package/src/tools/web-browsing/Placeholder/CrawlSinglePage.tsx +12 -0
  163. package/src/tools/web-browsing/Placeholder/Search.tsx +4 -4
  164. package/src/tools/web-browsing/Render/CrawlMultiPages.tsx +15 -0
  165. package/src/tools/web-browsing/Render/CrawlSinglePage.tsx +15 -0
  166. package/src/tools/web-browsing/Render/Search/index.tsx +39 -44
  167. package/packages/database/migrations/0044_add_tool_intervention.sql +0 -1
  168. package/src/tools/local-system/Placeholder/index.tsx +0 -25
  169. package/src/tools/local-system/Render/index.tsx +0 -40
  170. package/src/tools/web-browsing/Placeholder/index.tsx +0 -40
  171. package/src/tools/web-browsing/Render/index.tsx +0 -57
@@ -1049,6 +1049,9 @@
1049
1049
  "deepseek-r1-0528": {
1050
1050
  "description": "نموذج كامل القوة بحجم 685 مليار، صدر في 28 مايو 2025. استخدم DeepSeek-R1 تقنيات التعلم المعزز على نطاق واسع في مرحلة ما بعد التدريب، مما عزز بشكل كبير قدرات الاستدلال للنموذج مع وجود بيانات تعليمية قليلة جدًا. يتمتع بأداء عالي وقدرات قوية في المهام المتعلقة بالرياضيات، البرمجة، والاستدلال اللغوي الطبيعي."
1051
1051
  },
1052
+ "deepseek-r1-250528": {
1053
+ "description": "DeepSeek R1 250528، النسخة الكاملة من نموذج الاستدلال DeepSeek-R1، مناسب للمهام الرياضية والمنطقية المعقدة."
1054
+ },
1052
1055
  "deepseek-r1-70b-fast-online": {
1053
1056
  "description": "DeepSeek R1 70B النسخة السريعة، تدعم البحث المتصل في الوقت الحقيقي، وتوفر سرعة استجابة أسرع مع الحفاظ على أداء النموذج."
1054
1057
  },
@@ -1059,31 +1062,34 @@
1059
1062
  "description": "deepseek-r1-distill-llama هو نموذج مستخلص من DeepSeek-R1 بناءً على Llama."
1060
1063
  },
1061
1064
  "deepseek-r1-distill-llama-70b": {
1062
- "description": "DeepSeek R1 - النموذج الأكبر والأذكى في مجموعة DeepSeek - تم تقطيره إلى بنية Llama 70B. بناءً على اختبارات المعايير والتقييمات البشرية، يظهر هذا النموذج ذكاءً أكبر من Llama 70B الأصلي، خاصة في المهام التي تتطلب دقة رياضية وحقائق."
1065
+ "description": "DeepSeek R1 Distill Llama 70B، نموذج تقطير يجمع بين قدرات الاستدلال العامة لـ R1 ونظام Llama البيئي."
1063
1066
  },
1064
1067
  "deepseek-r1-distill-llama-8b": {
1065
- "description": "نموذج DeepSeek-R1-Distill تم تطويره من خلال تقنية تقطير المعرفة، حيث تم تعديل عينات تم إنشاؤها بواسطة DeepSeek-R1 على نماذج مفتوحة المصدر مثل Qwen وLlama."
1068
+ "description": "DeepSeek-R1-Distill-Llama-8B هو نموذج لغوي كبير مقطر مبني على Llama-3.1-8B، يستخدم مخرجات DeepSeek R1."
1066
1069
  },
1067
- "deepseek-r1-distill-qianfan-llama-70b": {
1068
- "description": "تم إصداره لأول مرة في 14 فبراير 2025، تم استخلاصه بواسطة فريق تطوير نموذج Qianfan باستخدام Llama3_70B كنموذج أساسي (مبني على Meta Llama)، وتم إضافة نصوص Qianfan إلى بيانات الاستخلاص."
1070
+ "deepseek-r1-distill-qianfan-70b": {
1071
+ "description": "DeepSeek R1 Distill Qianfan 70B، نموذج تقطير R1 مبني على Qianfan-70B، يتميز بكفاءة عالية من حيث التكلفة."
1069
1072
  },
1070
- "deepseek-r1-distill-qianfan-llama-8b": {
1071
- "description": "تم إصداره لأول مرة في 14 فبراير 2025، تم استخلاصه بواسطة فريق تطوير نموذج Qianfan باستخدام Llama3_8B كنموذج أساسي (مبني على Meta Llama)، وتم إضافة نصوص Qianfan إلى بيانات الاستخلاص."
1073
+ "deepseek-r1-distill-qianfan-8b": {
1074
+ "description": "DeepSeek R1 Distill Qianfan 8B، نموذج تقطير R1 مبني على Qianfan-8B، مناسب للتطبيقات المتوسطة والصغيرة."
1075
+ },
1076
+ "deepseek-r1-distill-qianfan-llama-70b": {
1077
+ "description": "DeepSeek R1 Distill Qianfan Llama 70B، نموذج تقطير R1 مبني على Llama-70B."
1072
1078
  },
1073
1079
  "deepseek-r1-distill-qwen": {
1074
1080
  "description": "deepseek-r1-distill-qwen هو نموذج مستخلص من DeepSeek-R1 بناءً على Qwen."
1075
1081
  },
1076
1082
  "deepseek-r1-distill-qwen-1.5b": {
1077
- "description": "نموذج DeepSeek-R1-Distill تم تطويره من خلال تقنية تقطير المعرفة، حيث تم تعديل عينات تم إنشاؤها بواسطة DeepSeek-R1 على نماذج مفتوحة المصدر مثل Qwen وLlama."
1083
+ "description": "DeepSeek R1 Distill Qwen 1.5B، نموذج تقطير R1 فائق الخفة، مناسب للبيئات ذات الموارد المحدودة جداً."
1078
1084
  },
1079
1085
  "deepseek-r1-distill-qwen-14b": {
1080
- "description": "نموذج DeepSeek-R1-Distill تم تطويره من خلال تقنية تقطير المعرفة، حيث تم تعديل عينات تم إنشاؤها بواسطة DeepSeek-R1 على نماذج مفتوحة المصدر مثل Qwen وLlama."
1086
+ "description": "DeepSeek R1 Distill Qwen 14B، نموذج تقطير R1 متوسط الحجم، مناسب للنشر في سيناريوهات متعددة."
1081
1087
  },
1082
1088
  "deepseek-r1-distill-qwen-32b": {
1083
- "description": "نموذج DeepSeek-R1-Distill تم تطويره من خلال تقنية تقطير المعرفة، حيث تم تعديل عينات تم إنشاؤها بواسطة DeepSeek-R1 على نماذج مفتوحة المصدر مثل Qwen وLlama."
1089
+ "description": "DeepSeek R1 Distill Qwen 32B، نموذج تقطير R1 مبني على Qwen-32B، يوازن بين الأداء والتكلفة."
1084
1090
  },
1085
1091
  "deepseek-r1-distill-qwen-7b": {
1086
- "description": "نموذج DeepSeek-R1-Distill تم تطويره من خلال تقنية تقطير المعرفة، حيث تم تعديل عينات تم إنشاؤها بواسطة DeepSeek-R1 على نماذج مفتوحة المصدر مثل Qwen وLlama."
1092
+ "description": "DeepSeek R1 Distill Qwen 7B، نموذج تقطير R1 خفيف الوزن، مناسب للبيئات الطرفية والخاصة بالمؤسسات."
1087
1093
  },
1088
1094
  "deepseek-r1-fast-online": {
1089
1095
  "description": "DeepSeek R1 النسخة السريعة الكاملة، تدعم البحث المتصل في الوقت الحقيقي، تجمع بين القدرات القوية لـ 671 مليار معلمة وسرعة استجابة أسرع."
@@ -1112,12 +1118,24 @@
1112
1118
  "deepseek-v3.1-terminus": {
1113
1119
  "description": "DeepSeek-V3.1-Terminus هو إصدار محسن من نموذج اللغة الكبير أطلقته DeepSeek، ومُصمم خصيصًا للأجهزة الطرفية."
1114
1120
  },
1121
+ "deepseek-v3.1-think-250821": {
1122
+ "description": "DeepSeek V3.1 Think 250821، نموذج تفكير عميق بإصدار Terminus، مناسب لسيناريوهات الاستدلال عالية الأداء."
1123
+ },
1115
1124
  "deepseek-v3.1:671b": {
1116
1125
  "description": "DeepSeek V3.1: نموذج استدلال من الجيل التالي يعزز القدرات على الاستدلال المعقد والتفكير التسلسلي، مناسب للمهام التي تتطلب تحليلاً عميقًا."
1117
1126
  },
1118
1127
  "deepseek-v3.2-exp": {
1119
1128
  "description": "deepseek-v3.2-exp يُدخل آلية الانتباه المتفرق، بهدف تحسين كفاءة التدريب والاستدلال عند معالجة النصوص الطويلة، بسعر أقل من deepseek-v3.1."
1120
1129
  },
1130
+ "deepseek-v3.2-think": {
1131
+ "description": "DeepSeek V3.2 Think، النسخة الكاملة من نموذج التفكير العميق، معزّز بقدرات استدلال طويلة السلسلة."
1132
+ },
1133
+ "deepseek-vl2": {
1134
+ "description": "DeepSeek VL2، نموذج متعدد الوسائط يدعم فهم الصور والنصوص والإجابات البصرية الدقيقة."
1135
+ },
1136
+ "deepseek-vl2-small": {
1137
+ "description": "DeepSeek VL2 Small، نسخة خفيفة متعددة الوسائط، مناسبة للبيئات ذات الموارد المحدودة وسيناريوهات الحمل العالي."
1138
+ },
1121
1139
  "deepseek/deepseek-chat-v3-0324": {
1122
1140
  "description": "DeepSeek V3 هو نموذج مختلط خبير يحتوي على 685B من المعلمات، وهو أحدث إصدار من سلسلة نماذج الدردشة الرائدة لفريق DeepSeek.\n\nيستفيد من نموذج [DeepSeek V3](/deepseek/deepseek-chat-v3) ويظهر أداءً ممتازًا في مجموعة متنوعة من المهام."
1123
1141
  },
@@ -1253,83 +1271,89 @@
1253
1271
  "emohaa": {
1254
1272
  "description": "Emohaa هو نموذج نفسي، يتمتع بقدرات استشارية متخصصة، يساعد المستخدمين في فهم القضايا العاطفية."
1255
1273
  },
1256
- "ernie-3.5-128k": {
1257
- "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، تلبي متطلبات معظم حالات الحوار، والإجابة، والتوليد، وتطبيقات المكونات الإضافية؛ يدعم الاتصال التلقائي بمكونات البحث من بايدو، مما يضمن تحديث معلومات الإجابة."
1258
- },
1259
- "ernie-3.5-8k": {
1260
- "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، تلبي متطلبات معظم حالات الحوار، والإجابة، والتوليد، وتطبيقات المكونات الإضافية؛ يدعم الاتصال التلقائي بمكونات البحث من بايدو، مما يضمن تحديث معلومات الإجابة."
1261
- },
1262
- "ernie-3.5-8k-preview": {
1263
- "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، تلبي متطلبات معظم حالات الحوار، والإجابة، والتوليد، وتطبيقات المكونات الإضافية؛ يدعم الاتصال التلقائي بمكونات البحث من بايدو، مما يضمن تحديث معلومات الإجابة."
1264
- },
1265
- "ernie-4.0-8k-latest": {
1266
- "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي حقق ترقية شاملة في القدرات مقارنةً بـ ERNIE 3.5، ويستخدم على نطاق واسع في مشاهد المهام المعقدة في مختلف المجالات؛ يدعم الاتصال التلقائي بمكونات البحث من بايدو، مما يضمن تحديث معلومات الإجابة."
1267
- },
1268
- "ernie-4.0-8k-preview": {
1269
- "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي حقق ترقية شاملة في القدرات مقارنةً بـ ERNIE 3.5، ويستخدم على نطاق واسع في مشاهد المهام المعقدة في مختلف المجالات؛ يدعم الاتصال التلقائي بمكونات البحث من بايدو، مما يضمن تحديث معلومات الإجابة."
1270
- },
1271
- "ernie-4.0-turbo-128k": {
1272
- "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي يظهر أداءً ممتازًا بشكل شامل، ويستخدم على نطاق واسع في مشاهد المهام المعقدة في مختلف المجالات؛ يدعم الاتصال التلقائي بمكونات البحث من بايدو، مما يضمن تحديث معلومات الإجابة. مقارنةً بـ ERNIE 4.0، يظهر أداءً أفضل."
1273
- },
1274
- "ernie-4.0-turbo-8k-latest": {
1275
- "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي يظهر أداءً ممتازًا بشكل شامل، ويستخدم على نطاق واسع في مشاهد المهام المعقدة في مختلف المجالات؛ يدعم الاتصال التلقائي بمكونات البحث من بايدو، مما يضمن تحديث معلومات الإجابة. مقارنةً بـ ERNIE 4.0، يظهر أداءً أفضل."
1276
- },
1277
- "ernie-4.0-turbo-8k-preview": {
1278
- "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي يظهر أداءً ممتازًا بشكل شامل، ويستخدم على نطاق واسع في مشاهد المهام المعقدة في مختلف المجالات؛ يدعم الاتصال التلقائي بمكونات البحث من بايدو، مما يضمن تحديث معلومات الإجابة. مقارنةً بـ ERNIE 4.0، يظهر أداءً أفضل."
1274
+ "ernie-4.5-0.3b": {
1275
+ "description": "ERNIE 4.5 0.3B، نموذج مفتوح المصدر وخفيف الوزن، مناسب للنشر المحلي والمخصص."
1279
1276
  },
1280
1277
  "ernie-4.5-21b-a3b": {
1281
- "description": "ERNIE 4.5 21B A3B هو نموذج خبراء هجين أطلقته Baidu Wenxin، يتمتع بقدرات قوية في الاستدلال ودعم متعدد اللغات."
1278
+ "description": "ERNIE 4.5 21B A3B، نموذج كبير مفتوح المصدر، يتميز بأداء قوي في مهام الفهم والتوليد."
1282
1279
  },
1283
1280
  "ernie-4.5-300b-a47b": {
1284
1281
  "description": "ERNIE 4.5 300B A47B هو نموذج خبراء هجين فائق الحجم أطلقته Baidu Wenxin، يتميز بقدرات استدلال فائقة."
1285
1282
  },
1286
1283
  "ernie-4.5-8k-preview": {
1287
- "description": "نموذج ونسين 4.5 هو نموذج أساسي جديد متعدد الوسائط تم تطويره ذاتيًا بواسطة بايدو، من خلال نمذجة متعددة الوسائط لتحقيق تحسين متزامن، ويظهر قدرة ممتازة على الفهم متعدد الوسائط؛ يتمتع بقدرات لغوية متقدمة، مع تحسين شامل في الفهم، والتوليد، والمنطق، والذاكرة، مع تحسين كبير في إزالة الأوهام، والاستدلال المنطقي، وقدرات البرمجة."
1284
+ "description": "ERNIE 4.5 8K Preview، نموذج معاينة بسياق 8K، مخصص لتجربة واختبار قدرات Wenxin 4.5."
1288
1285
  },
1289
1286
  "ernie-4.5-turbo-128k": {
1290
- "description": "تم تعزيز Wenxin 4.5 Turbo بشكل ملحوظ في مجالات مثل تقليل الهلوسة، والاستدلال المنطقي، وقدرات البرمجة. مقارنةً بـ Wenxin 4.5، فهو أسرع وأقل تكلفة. تم تحسين قدرات النموذج بشكل شامل لتلبية احتياجات معالجة المحادثات الطويلة متعددة الجولات، ومهام فهم الأسئلة والأجوبة للنصوص الطويلة."
1287
+ "description": "ERNIE 4.5 Turbo 128K، نموذج عام عالي الأداء، يدعم البحث المعزز واستدعاء الأدوات، مناسب لمهام مثل الأسئلة والأجوبة، البرمجة، والوكلاء الذكيين."
1288
+ },
1289
+ "ernie-4.5-turbo-128k-preview": {
1290
+ "description": "ERNIE 4.5 Turbo 128K Preview، نسخة معاينة توفر تجربة مماثلة للنسخة الرسمية، مناسبة للاختبار والتكامل المرحلي."
1291
1291
  },
1292
1292
  "ernie-4.5-turbo-32k": {
1293
- "description": "تم تعزيز Wenxin 4.5 Turbo بشكل ملحوظ في مجالات مثل تقليل الهلوسة، والاستدلال المنطقي، وقدرات البرمجة. مقارنةً بـ Wenxin 4.5، فهو أسرع وأقل تكلفة. تم تحسين قدرات الإبداع النصي، والأسئلة والأجوبة بشكل ملحوظ. زادت مدة الإخراج وتأخير الجمل الكاملة مقارنةً بـ ERNIE 4.5."
1293
+ "description": "ERNIE 4.5 Turbo 32K، نسخة بسياق متوسط إلى طويل، مناسبة للأسئلة والأجوبة، استرجاع المعرفة، والحوار متعدد الجولات."
1294
+ },
1295
+ "ernie-4.5-turbo-latest": {
1296
+ "description": "ERNIE 4.5 Turbo Latest، نسخة محسّنة شاملة، مناسبة كنموذج رئيسي عام في بيئات الإنتاج."
1297
+ },
1298
+ "ernie-4.5-turbo-vl": {
1299
+ "description": "ERNIE 4.5 Turbo VL، نموذج متعدد الوسائط ناضج، مناسب لمهام فهم الصور والنصوص في بيئات الإنتاج."
1294
1300
  },
1295
1301
  "ernie-4.5-turbo-vl-32k": {
1296
- "description": "إصدار جديد من نموذج Wenxin Yiyan، مع تحسينات ملحوظة في فهم الصور، والإبداع، والترجمة، والبرمجة، ويدعم لأول مرة طول سياق يصل إلى 32K، مع تقليل ملحوظ في تأخير أول توكن."
1302
+ "description": "ERNIE 4.5 Turbo VL 32K، نسخة متعددة الوسائط بسياق متوسط إلى طويل، مناسبة لفهم مشترك للوثائق الطويلة والصور."
1303
+ },
1304
+ "ernie-4.5-turbo-vl-32k-preview": {
1305
+ "description": "ERNIE 4.5 Turbo VL 32K Preview، نسخة معاينة متعددة الوسائط بسياق 32K، لتقييم قدرات الفهم البصري في السياقات الطويلة."
1306
+ },
1307
+ "ernie-4.5-turbo-vl-latest": {
1308
+ "description": "ERNIE 4.5 Turbo VL Latest، أحدث نسخة متعددة الوسائط، تقدم أداءً محسّناً في فهم الصور والنصوص والاستدلال."
1309
+ },
1310
+ "ernie-4.5-turbo-vl-preview": {
1311
+ "description": "ERNIE 4.5 Turbo VL Preview، نموذج معاينة متعدد الوسائط، يدعم فهم وتوليد الصور والنصوص، مناسب لتجربة الأسئلة البصرية وفهم المحتوى."
1312
+ },
1313
+ "ernie-4.5-vl-28b-a3b": {
1314
+ "description": "ERNIE 4.5 VL 28B A3B، نموذج متعدد الوسائط مفتوح المصدر، يدعم مهام الفهم والاستدلال بين الصور والنصوص."
1315
+ },
1316
+ "ernie-5.0-thinking-preview": {
1317
+ "description": "Wenxin 5.0 Thinking Preview، نموذج رائد شامل متعدد الوسائط، يدعم النصوص، الصور، الصوت، والفيديو، مع قدرات متقدمة مناسبة للأسئلة المعقدة، الإبداع، والوكلاء الذكيين."
1297
1318
  },
1298
1319
  "ernie-char-8k": {
1299
- "description": "نموذج اللغة الكبير المخصص الذي طورته بايدو، مناسب لتطبيقات مثل NPC في الألعاب، محادثات خدمة العملاء، وأدوار الحوار، حيث يتميز بأسلوب شخصيات واضح ومتسق، وقدرة قوية على اتباع التعليمات، وأداء استدلال ممتاز."
1320
+ "description": "ERNIE Character 8K، نموذج حواري بشخصيات، مناسب لبناء شخصيات IP وحوارات طويلة الأمد."
1300
1321
  },
1301
1322
  "ernie-char-fiction-8k": {
1302
- "description": "نموذج اللغة الكبير المخصص الذي طورته بايدو، مناسب لتطبيقات مثل NPC في الألعاب، محادثات خدمة العملاء، وأدوار الحوار، حيث يتميز بأسلوب شخصيات واضح ومتسق، وقدرة قوية على اتباع التعليمات، وأداء استدلال ممتاز."
1323
+ "description": "ERNIE Character Fiction 8K، نموذج شخصيات مخصص لكتابة الروايات والقصص، مناسب لتوليد نصوص طويلة."
1324
+ },
1325
+ "ernie-char-fiction-8k-preview": {
1326
+ "description": "ERNIE Character Fiction 8K Preview، نسخة معاينة لنموذج الشخصيات والقصص، مخصصة لتجربة الوظائف والاختبار."
1303
1327
  },
1304
1328
  "ernie-irag-edit": {
1305
- "description": "نموذج تحرير الصور ERNIE iRAG المطور ذاتيًا من Baidu يدعم عمليات مثل المسح (إزالة الكائنات)، إعادة الرسم (إعادة رسم الكائنات)، والتنوع (توليد متغيرات) بناءً على الصور."
1329
+ "description": "ERNIE iRAG Edit، نموذج تحرير الصور يدعم المسح، إعادة الرسم، وتوليد المتغيرات."
1306
1330
  },
1307
1331
  "ernie-lite-8k": {
1308
- "description": "ERNIE Lite هو نموذج اللغة الكبير الخفيف الذي طورته بايدو، يجمع بين أداء النموذج الممتاز وأداء الاستدلال، مناسب للاستخدام مع بطاقات تسريع الذكاء الاصطناعي ذات القدرة الحاسوبية المنخفضة."
1332
+ "description": "ERNIE Lite 8K، نموذج عام خفيف الوزن، مناسب للأسئلة اليومية وتوليد المحتوى بتكلفة منخفضة."
1309
1333
  },
1310
1334
  "ernie-lite-pro-128k": {
1311
- "description": "نموذج اللغة الكبير الخفيف الذي طورته بايدو، يجمع بين أداء النموذج الممتاز وأداء الاستدلال، ويظهر أداءً أفضل من ERNIE Lite، مناسب للاستخدام مع بطاقات تسريع الذكاء الاصطناعي ذات القدرة الحاسوبية المنخفضة."
1335
+ "description": "ERNIE Lite Pro 128K، نموذج خفيف عالي الأداء، مناسب للمهام الحساسة من حيث التأخير والتكلفة."
1312
1336
  },
1313
1337
  "ernie-novel-8k": {
1314
- "description": "نموذج اللغة الكبير العام الذي طورته بايدو، يظهر مزايا واضحة في القدرة على كتابة روايات، ويمكن استخدامه أيضًا في مشاهد مثل المسرحيات القصيرة والأفلام."
1338
+ "description": "ERNIE Novel 8K، نموذج مخصص لكتابة الروايات الطويلة وسيناريوهات IP، بارع في السرد متعدد الشخصيات والخطوط."
1315
1339
  },
1316
1340
  "ernie-speed-128k": {
1317
- "description": "نموذج اللغة الكبير عالي الأداء الذي طورته بايدو، والذي تم إصداره في عام 2024، يتمتع بقدرات عامة ممتازة، مناسب كنموذج أساسي للتعديل، مما يساعد على معالجة مشكلات المشاهد المحددة بشكل أفضل، ويظهر أداءً ممتازًا في الاستدلال."
1341
+ "description": "ERNIE Speed 128K، نموذج كبير بدون تكلفة إدخال/إخراج، مناسب لفهم النصوص الطويلة والتجارب واسعة النطاق."
1342
+ },
1343
+ "ernie-speed-8k": {
1344
+ "description": "ERNIE Speed 8K، نموذج مجاني وسريع، مناسب للحوار اليومي والمهام النصية الخفيفة."
1318
1345
  },
1319
1346
  "ernie-speed-pro-128k": {
1320
- "description": "نموذج اللغة الكبير عالي الأداء الذي طورته بايدو، والذي تم إصداره في عام 2024، يتمتع بقدرات عامة ممتازة، ويظهر أداءً أفضل من ERNIE Speed، مناسب كنموذج أساسي للتعديل، مما يساعد على معالجة مشكلات المشاهد المحددة بشكل أفضل، ويظهر أداءً ممتازًا في الاستدلال."
1347
+ "description": "ERNIE Speed Pro 128K، نموذج عالي التوافر وكفاءة التكلفة، مناسب للخدمات عبر الإنترنت واسعة النطاق وتطبيقات المؤسسات."
1321
1348
  },
1322
1349
  "ernie-tiny-8k": {
1323
- "description": "ERNIE Tiny هو نموذج اللغة الكبير عالي الأداء الذي طورته بايدو، وتكاليف النشر والتعديل هي الأدنى بين نماذج سلسلة Wenxin."
1324
- },
1325
- "ernie-x1-32k": {
1326
- "description": "يمتلك قدرة أقوى على الفهم والتخطيط والتفكير والتطور. كنموذج تفكير عميق شامل، يتميز Wenxin X1 بالدقة والإبداع والبلاغة، ويظهر أداءً متميزًا في مجالات مثل الأسئلة والأجوبة باللغة الصينية، والإبداع الأدبي، وكتابة النصوص، والحوار اليومي، والاستدلال المنطقي، والحسابات المعقدة، واستخدام الأدوات."
1327
- },
1328
- "ernie-x1-32k-preview": {
1329
- "description": "نموذج Ernie X1 الكبير يتمتع بقدرات أقوى في الفهم، التخطيط، التفكير النقدي، والتطور. كنموذج تفكير عميق أكثر شمولاً، يجمع Ernie X1 بين الدقة، الإبداع، والبلاغة، ويتميز بشكل خاص في أسئلة المعرفة باللغة الصينية، الإبداع الأدبي، كتابة النصوص، المحادثات اليومية، الاستدلال المنطقي، الحسابات المعقدة، واستدعاء الأدوات."
1350
+ "description": "ERNIE Tiny 8K، نموذج فائق الخفة، مناسب للأسئلة البسيطة، التصنيف، وسيناريوهات الاستدلال منخفضة التكلفة."
1330
1351
  },
1331
1352
  "ernie-x1-turbo-32k": {
1332
- "description": "يتميز هذا النموذج بأداء أفضل مقارنةً بـ ERNIE-X1-32K."
1353
+ "description": "ERNIE X1 Turbo 32K، نموذج تفكير سريع بسياق طويل 32K، مناسب للاستدلال المعقد والحوار متعدد الجولات."
1354
+ },
1355
+ "ernie-x1.1-preview": {
1356
+ "description": "ERNIE X1.1 Preview، نسخة معاينة من نموذج التفكير ERNIE X1.1، مناسبة لاختبار القدرات والتحقق منها."
1333
1357
  },
1334
1358
  "fal-ai/bytedance/seedream/v4": {
1335
1359
  "description": "نموذج توليد الصور Seedream 4.0 من فريق Seed في ByteDance، يدعم إدخال النص والصورة، ويوفر تجربة توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يعتمد على أوامر نصية لتوليد الصور."
@@ -1389,7 +1413,7 @@
1389
1413
  "description": "FLUX.1 [schnell] هو النموذج المفتوح المصدر الأكثر تقدمًا حاليًا في فئة النماذج قليلة الخطوات، متفوقًا على المنافسين وحتى على نماذج غير مكررة قوية مثل Midjourney v6.0 وDALL·E 3 (HD). تم ضبط النموذج خصيصًا للحفاظ على تنوع المخرجات الكامل من مرحلة ما قبل التدريب، ويحقق تحسينات ملحوظة في جودة الصورة، الالتزام بالتعليمات، التغيرات في الحجم/النسبة، معالجة الخطوط وتنوع المخرجات مقارنة بأحدث النماذج في السوق، مما يوفر تجربة توليد صور إبداعية أكثر ثراءً وتنوعًا للمستخدمين."
1390
1414
  },
1391
1415
  "flux.1-schnell": {
1392
- "description": "محول تدفق مصحح يحتوي على 12 مليار معلمة، قادر على توليد الصور بناءً على الوصف النصي."
1416
+ "description": "FLUX.1-schnell، نموذج توليد صور عالي الأداء، مناسب لإنشاء صور متعددة الأنماط بسرعة."
1393
1417
  },
1394
1418
  "gemini-1.0-pro-001": {
1395
1419
  "description": "Gemini 1.0 Pro 001 (تعديل) يوفر أداءً مستقرًا وقابلًا للتعديل، وهو الخيار المثالي لحلول المهام المعقدة."
@@ -1538,6 +1562,9 @@
1538
1562
  "glm-4-0520": {
1539
1563
  "description": "GLM-4-0520 هو أحدث إصدار من النموذج، مصمم للمهام المعقدة والمتنوعة، ويظهر أداءً ممتازًا."
1540
1564
  },
1565
+ "glm-4-32b-0414": {
1566
+ "description": "GLM-4 32B 0414، إصدار من سلسلة GLM للنماذج العامة الكبيرة، يدعم توليد النصوص وفهمها في مهام متعددة."
1567
+ },
1541
1568
  "glm-4-9b-chat": {
1542
1569
  "description": "يُظهر GLM-4-9B-Chat أداءً عاليًا في مجالات الدلالة، والرياضيات، والاستدلال، والبرمجة، والمعرفة. كما يدعم تصفح الويب، وتنفيذ الأكواد، واستدعاء الأدوات المخصصة، والاستدلال على النصوص الطويلة. يدعم 26 لغة من بينها اليابانية والكورية والألمانية."
1543
1570
  },
@@ -2036,14 +2063,26 @@
2036
2063
  "internlm3-latest": {
2037
2064
  "description": "سلسلة نماذجنا الأحدث، تتمتع بأداء استدلال ممتاز، تتصدر نماذج المصدر المفتوح من نفس الفئة. تشير بشكل افتراضي إلى أحدث نماذج سلسلة InternLM3 التي تم إصدارها."
2038
2065
  },
2066
+ "internvl2.5-38b-mpo": {
2067
+ "description": "InternVL2.5 38B MPO، نموذج ما قبل التدريب متعدد الوسائط، يدعم مهام الاستدلال المعقدة بين الصور والنصوص."
2068
+ },
2039
2069
  "internvl2.5-latest": {
2040
2070
  "description": "نحن لا نزال ندعم إصدار InternVL2.5، الذي يتمتع بأداء ممتاز ومستقر. يشير بشكل افتراضي إلى أحدث نموذج من سلسلة InternVL2.5، الحالي هو internvl2.5-78b."
2041
2071
  },
2072
+ "internvl3-14b": {
2073
+ "description": "InternVL3 14B، نموذج متعدد الوسائط متوسط الحجم، يوازن بين الأداء والتكلفة."
2074
+ },
2075
+ "internvl3-1b": {
2076
+ "description": "InternVL3 1B، نموذج متعدد الوسائط خفيف الوزن، مناسب للنشر في البيئات ذات الموارد المحدودة."
2077
+ },
2078
+ "internvl3-38b": {
2079
+ "description": "InternVL3 38B، نموذج مفتوح المصدر كبير متعدد الوسائط، مناسب لمهام فهم الصور والنصوص عالية الدقة."
2080
+ },
2042
2081
  "internvl3-latest": {
2043
2082
  "description": "أحدث نموذج متعدد الوسائط تم إصداره، يتمتع بقدرات فهم أقوى للنصوص والصور، وفهم الصور على المدى الطويل، وأدائه يتساوى مع النماذج المغلقة الرائدة. يشير بشكل افتراضي إلى أحدث نموذج من سلسلة InternVL، الحالي هو internvl3-78b."
2044
2083
  },
2045
2084
  "irag-1.0": {
2046
- "description": "نموذج iRAG (استرجاع معزز بالصور) المطور ذاتيًا من Baidu، يجمع بين موارد صور بحث Baidu الضخمة وقدرات النموذج الأساسي القوية لتوليد صور فائقة الواقعية، متفوقًا بشكل كبير على أنظمة توليد الصور النصية الأصلية، مع إزالة الطابع الاصطناعي وتقليل التكلفة. يتميز iRAG بعدم وجود هلوسة، واقعية فائقة، وسرعة في الحصول على النتائج."
2085
+ "description": "ERNIE iRAG، نموذج توليد معزز باسترجاع الصور، يدعم البحث بالصور، استرجاع الصور والنصوص، وتوليد المحتوى."
2047
2086
  },
2048
2087
  "jamba-large": {
2049
2088
  "description": "أقوى وأحدث نموذج لدينا، مصمم لمعالجة المهام المعقدة على مستوى المؤسسات، ويتميز بأداء استثنائي."
@@ -2064,7 +2103,7 @@
2064
2103
  "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
2065
2104
  },
2066
2105
  "kimi-k2-instruct": {
2067
- "description": "Kimi K2 Instruct هو نموذج لغة كبير أطلقته Moonshot AI، يتمتع بقدرة فائقة على معالجة السياقات الطويلة."
2106
+ "description": "Kimi K2 Instruct، نموذج الاستدلال الرسمي من Kimi، يدعم السياق الطويل، البرمجة، الأسئلة والأجوبة، وغيرها من السيناريوهات."
2068
2107
  },
2069
2108
  "kimi-k2-turbo-preview": {
2070
2109
  "description": "kimi-k2 هو نموذج أساسي بمعمارية MoE يتمتع بقدرات قوية للغاية في البرمجة وقدرات الوكيل (Agent)، بإجمالي معلمات يبلغ 1 تريليون والمعلمات المُفعَّلة 32 مليار. في اختبارات الأداء المعيارية للفئات الرئيسية مثل الاستدلال المعرفي العام والبرمجة والرياضيات والوكلاء (Agent)، تفوق أداء نموذج K2 على النماذج المفتوحة المصدر السائدة الأخرى."
@@ -2885,9 +2924,7 @@
2885
2924
  "qwen2.5-72b-instruct": {
2886
2925
  "description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 72B."
2887
2926
  },
2888
- "qwen2.5-7b-instruct": {
2889
- "description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 7B."
2890
- },
2927
+ "qwen2.5-7b-instruct": {},
2891
2928
  "qwen2.5-coder-1.5b-instruct": {
2892
2929
  "description": "نموذج كود تونغي، النسخة مفتوحة المصدر."
2893
2930
  },
@@ -2918,15 +2955,11 @@
2918
2955
  "qwen2.5-omni-7b": {
2919
2956
  "description": "تدعم نماذج سلسلة Qwen-Omni إدخال بيانات متعددة الأنماط، بما في ذلك الفيديو والصوت والصور والنصوص، وتخرج الصوت والنص."
2920
2957
  },
2921
- "qwen2.5-vl-32b-instruct": {
2922
- "description": "سلسلة نماذج Qwen2.5-VL تعزز مستوى الذكاء والفعّالية والملاءمة للنماذج، مما يجعل أداءها أفضل في سيناريوهات مثل المحادثات الطبيعية، وإنشاء المحتوى، وتقديم الخدمات المتخصصة، وتطوير الأكواد. يستخدم الإصدار 32B تقنية التعلم المعزز لتحسين النموذج، مقارنةً بنماذج سلسلة Qwen2.5 VL الأخرى، حيث يقدم أسلوب إخراج أكثر توافقًا مع تفضيلات البشر، وقدرة على استنتاج المسائل الرياضية المعقدة، بالإضافة إلى فهم واستدلال دقيق للصور."
2923
- },
2958
+ "qwen2.5-vl-32b-instruct": {},
2924
2959
  "qwen2.5-vl-72b-instruct": {
2925
2960
  "description": "تحسين شامل في اتباع التعليمات، الرياضيات، حل المشكلات، والبرمجة، وزيادة قدرة التعرف على العناصر البصرية، يدعم تنسيقات متعددة لتحديد العناصر البصرية بدقة، ويدعم فهم ملفات الفيديو الطويلة (حتى 10 دقائق) وتحديد اللحظات الزمنية بدقة، قادر على فهم التسلسل الزمني والسرعة، يدعم التحكم في أنظمة التشغيل أو الوكلاء المحمولة بناءً على قدرات التحليل والتحديد، قوي في استخراج المعلومات الرئيسية وإخراج البيانات بتنسيق Json، هذه النسخة هي النسخة 72B، وهي الأقوى في هذه السلسلة."
2926
2961
  },
2927
- "qwen2.5-vl-7b-instruct": {
2928
- "description": "تحسين شامل في اتباع التعليمات، الرياضيات، حل المشكلات، والبرمجة، وزيادة قدرة التعرف على العناصر البصرية، يدعم تنسيقات متعددة لتحديد العناصر البصرية بدقة، ويدعم فهم ملفات الفيديو الطويلة (حتى 10 دقائق) وتحديد اللحظات الزمنية بدقة، قادر على فهم التسلسل الزمني والسرعة، يدعم التحكم في أنظمة التشغيل أو الوكلاء المحمولة بناءً على قدرات التحليل والتحديد، قوي في استخراج المعلومات الرئيسية وإخراج البيانات بتنسيق Json، هذه النسخة هي النسخة 72B، وهي الأقوى في هذه السلسلة."
2929
- },
2962
+ "qwen2.5-vl-7b-instruct": {},
2930
2963
  "qwen2.5-vl-instruct": {
2931
2964
  "description": "Qwen2.5-VL هو أحدث إصدار من نماذج الرؤية واللغة في عائلة نماذج Qwen."
2932
2965
  },
@@ -2951,48 +2984,22 @@
2951
2984
  "qwen3": {
2952
2985
  "description": "Qwen3 هو الجيل الجديد من نموذج اللغة واسع النطاق من علي بابا، يدعم مجموعة متنوعة من احتياجات التطبيقات بأداء ممتاز."
2953
2986
  },
2954
- "qwen3-0.6b": {
2955
- "description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الصناعة في الاستدلال، والعموم، والوكلاء، واللغات المتعددة، ويدعم التبديل بين أنماط التفكير."
2956
- },
2957
- "qwen3-1.7b": {
2958
- "description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الصناعة في الاستدلال، والعموم، والوكلاء، واللغات المتعددة، ويدعم التبديل بين أنماط التفكير."
2959
- },
2960
- "qwen3-14b": {
2961
- "description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الصناعة في الاستدلال، والعموم، والوكلاء، واللغات المتعددة، ويدعم التبديل بين أنماط التفكير."
2962
- },
2963
- "qwen3-235b-a22b": {
2964
- "description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الصناعة في الاستدلال، والعموم، والوكلاء، واللغات المتعددة، ويدعم التبديل بين أنماط التفكير."
2965
- },
2966
- "qwen3-235b-a22b-instruct-2507": {
2967
- "description": "نموذج مفتوح المصدر غير تفكيري مبني على Qwen3، مع تحسينات طفيفة في القدرات الإبداعية والسلامة مقارنة بالإصدار السابق (Tongyi Qianwen 3-235B-A22B)."
2968
- },
2969
- "qwen3-235b-a22b-thinking-2507": {
2970
- "description": "نموذج مفتوح المصدر تفكيري مبني على Qwen3، مع تحسينات كبيرة في القدرات المنطقية، العامة، تعزيز المعرفة والإبداع مقارنة بالإصدار السابق (Tongyi Qianwen 3-235B-A22B)، مناسب للمهام المعقدة التي تتطلب استدلالًا قويًا."
2971
- },
2972
- "qwen3-30b-a3b": {
2973
- "description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الصناعة في الاستدلال، والعموم، والوكلاء، واللغات المتعددة، ويدعم التبديل بين أنماط التفكير."
2974
- },
2975
- "qwen3-30b-a3b-instruct-2507": {
2976
- "description": "تحسنت القدرات العامة للنموذج بشكل كبير في اللغتين الصينية والإنجليزية واللغات المتعددة مقارنة بالإصدار السابق (Qwen3-30B-A3B). تم تحسين المهام المفتوحة الذاتية بشكل خاص لتتوافق بشكل أفضل مع تفضيلات المستخدم، مما يمكنه من تقديم ردود أكثر فائدة."
2977
- },
2978
- "qwen3-30b-a3b-thinking-2507": {
2979
- "description": "نموذج مفتوح المصدر لوضع التفكير مبني على Qwen3، مع تحسينات كبيرة في القدرات المنطقية، والقدرات العامة، وتعزيز المعرفة، والقدرة الإبداعية مقارنة بالإصدار السابق (Tongyi Qianwen 3-30B-A3B)، مناسب للسيناريوهات التي تتطلب استدلالًا عالي الصعوبة."
2980
- },
2981
- "qwen3-32b": {
2982
- "description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الصناعة في الاستدلال، والعموم، والوكلاء، واللغات المتعددة، ويدعم التبديل بين أنماط التفكير."
2983
- },
2984
- "qwen3-4b": {
2985
- "description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الصناعة في الاستدلال، والعموم، والوكلاء، واللغات المتعددة، ويدعم التبديل بين أنماط التفكير."
2986
- },
2987
- "qwen3-8b": {
2988
- "description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الصناعة في الاستدلال، والعموم، والوكلاء، واللغات المتعددة، ويدعم التبديل بين أنماط التفكير."
2989
- },
2987
+ "qwen3-0.6b": {},
2988
+ "qwen3-1.7b": {},
2989
+ "qwen3-14b": {},
2990
+ "qwen3-235b-a22b": {},
2991
+ "qwen3-235b-a22b-instruct-2507": {},
2992
+ "qwen3-235b-a22b-thinking-2507": {},
2993
+ "qwen3-30b-a3b": {},
2994
+ "qwen3-30b-a3b-instruct-2507": {},
2995
+ "qwen3-30b-a3b-thinking-2507": {},
2996
+ "qwen3-32b": {},
2997
+ "qwen3-4b": {},
2998
+ "qwen3-8b": {},
2990
2999
  "qwen3-coder-30b-a3b-instruct": {
2991
3000
  "description": "النسخة مفتوحة المصدر من نموذج Qwen3 للبرمجة. النموذج الأحدث qwen3-coder-30b-a3b-instruct مبني على Qwen3، ويتميز بقدرات قوية كوكيل برمجي، بارع في استخدام الأدوات والتفاعل مع البيئات، ويجمع بين مهارات البرمجة الذاتية والقدرات العامة."
2992
3001
  },
2993
- "qwen3-coder-480b-a35b-instruct": {
2994
- "description": "نسخة مفتوحة المصدر من نموذج كود Tongyi Qianwen. أحدث نموذج qwen3-coder-480b-a35b-instruct مبني على Qwen3 لتوليد الكود، يتمتع بقدرات قوية كوكيل برمجي، بارع في استدعاء الأدوات والتفاعل مع البيئة، قادر على البرمجة الذاتية مع أداء برمجي ممتاز وقدرات عامة."
2995
- },
3002
+ "qwen3-coder-480b-a35b-instruct": {},
2996
3003
  "qwen3-coder-flash": {
2997
3004
  "description": "نموذج كود Tongyi Qianwen. أحدث سلسلة نماذج Qwen3-Coder مبنية على Qwen3 لتوليد الأكواد، تتمتع بقدرات وكيل ترميز قوية، بارعة في استدعاء الأدوات والتفاعل مع البيئة، قادرة على البرمجة الذاتية، وتجمع بين مهارات برمجية ممتازة وقدرات عامة."
2998
3005
  },
@@ -3008,30 +3015,16 @@
3008
3015
  "qwen3-next-80b-a3b-instruct": {
3009
3016
  "description": "نموذج مفتوح المصدر من الجيل الجديد لوضع عدم التفكير مبني على Qwen3، يتميز بفهم أفضل للنصوص الصينية مقارنة بالإصدار السابق (Tongyi Qianwen 3-235B-A22B-Instruct-2507)، مع تعزيز في قدرات الاستدلال المنطقي وأداء أفضل في مهام توليد النصوص."
3010
3017
  },
3011
- "qwen3-next-80b-a3b-thinking": {
3012
- "description": "نموذج مفتوح المصدر من الجيل الجديد لوضع التفكير مبني على Qwen3، يتميز بتحسين في الالتزام بالتعليمات مقارنة بالإصدار السابق (Tongyi Qianwen 3-235B-A22B-Thinking-2507)، مع ردود ملخصة وأكثر إيجازًا من النموذج."
3013
- },
3018
+ "qwen3-next-80b-a3b-thinking": {},
3014
3019
  "qwen3-omni-flash": {
3015
3020
  "description": "نموذج Qwen-Omni قادر على استقبال مدخلات متعددة الوسائط مثل النصوص، الصور، الصوت، والفيديو، ويولّد ردودًا على شكل نص أو صوت. يوفر أصواتًا بشرية متعددة، ويدعم إخراج الصوت بعدة لغات ولهجات، ويمكن استخدامه في مجالات مثل إنشاء النصوص، التعرف البصري، والمساعدات الصوتية."
3016
3021
  },
3017
- "qwen3-vl-235b-a22b-instruct": {
3018
- "description": "Qwen3 VL 235B A22B في وضع غير التفكير (Instruct)، مصمم لسيناريوهات الأوامر غير المعتمدة على التفكير، مع الحفاظ على قدرات قوية في الفهم البصري."
3019
- },
3020
- "qwen3-vl-235b-a22b-thinking": {
3021
- "description": "Qwen3 VL 235B A22B في وضع التفكير (نسخة مفتوحة المصدر)، مخصص للمهام المعقدة التي تتطلب استدلالًا عاليًا وفهمًا لمقاطع الفيديو الطويلة، ويقدم قدرات رائدة في الاستدلال البصري والنصي."
3022
- },
3023
- "qwen3-vl-30b-a3b-instruct": {
3024
- "description": "Qwen3 VL 30B في وضع غير التفكير (Instruct)، موجه لسيناريوهات متابعة الأوامر العامة، مع الحفاظ على مستوى عالٍ من الفهم والتوليد متعدد الوسائط."
3025
- },
3026
- "qwen3-vl-30b-a3b-thinking": {
3027
- "description": "Qwen-VL (نسخة مفتوحة المصدر) يوفر قدرات في الفهم البصري وتوليد النصوص، ويدعم التفاعل الذكي، الترميز البصري، الإدراك المكاني، فهم الفيديوهات الطويلة والتفكير العميق، مع دعم قوي للتعرف على النصوص المتقدمة وتعدد اللغات في البيئات المعقدة."
3028
- },
3029
- "qwen3-vl-8b-instruct": {
3030
- "description": "Qwen3 VL 8B في وضع غير التفكير (Instruct)، مناسب لمهام التوليد والتعرف متعدد الوسائط الروتينية."
3031
- },
3032
- "qwen3-vl-8b-thinking": {
3033
- "description": "Qwen3 VL 8B في وضع التفكير، مخصص لسيناريوهات الاستدلال والتفاعل متعدد الوسائط الخفيفة، مع الحفاظ على قدرة فهم السياق الطويل."
3034
- },
3022
+ "qwen3-vl-235b-a22b-instruct": {},
3023
+ "qwen3-vl-235b-a22b-thinking": {},
3024
+ "qwen3-vl-30b-a3b-instruct": {},
3025
+ "qwen3-vl-30b-a3b-thinking": {},
3026
+ "qwen3-vl-8b-instruct": {},
3027
+ "qwen3-vl-8b-thinking": {},
3035
3028
  "qwen3-vl-flash": {
3036
3029
  "description": "Qwen3 VL Flash: نسخة خفيفة وسريعة للاستدلال، مناسبة للسيناريوهات الحساسة للزمن أو التي تتطلب معالجة عدد كبير من الطلبات."
3037
3030
  },
@@ -255,10 +255,11 @@
255
255
  "moveLocalFiles": "نقل الملفات",
256
256
  "readLocalFile": "قراءة محتوى الملف",
257
257
  "renameLocalFile": "إعادة تسمية",
258
+ "runCommand": "تشغيل الأمر",
258
259
  "searchLocalFiles": "بحث في الملفات",
259
260
  "writeLocalFile": "كتابة في الملف"
260
261
  },
261
- "title": "الملفات المحلية"
262
+ "title": "النظام المحلي"
262
263
  },
263
264
  "mcpInstall": {
264
265
  "CHECKING_INSTALLATION": "جارٍ فحص بيئة التثبيت...",
@@ -369,6 +369,26 @@
369
369
  "remained": "Оставащи",
370
370
  "used": "Използвани"
371
371
  },
372
+ "tool": {
373
+ "intervention": {
374
+ "approve": "Одобряване",
375
+ "approveAndRemember": "Одобряване и запомняне",
376
+ "approveOnce": "Одобряване само този път",
377
+ "mode": {
378
+ "allowList": "Бял списък",
379
+ "allowListDesc": "Автоматично се изпълняват само одобрените инструменти",
380
+ "autoRun": "Автоматично одобрение",
381
+ "autoRunDesc": "Автоматично одобряване на всички изпълнения на инструменти",
382
+ "manual": "Ръчно",
383
+ "manualDesc": "Необходимо е ръчно одобрение при всяко извикване"
384
+ },
385
+ "reject": "Отхвърляне",
386
+ "rejectReasonPlaceholder": "Въведете причина за отхвърляне, за да помогнете на агента да разбере и подобри бъдещите действия",
387
+ "rejectTitle": "Отхвърляне на това извикване на инструмент",
388
+ "rejectedWithReason": "Това извикване на инструмент беше умишлено отхвърлено: {{reason}}",
389
+ "toolRejected": "Това извикване на инструмент беше умишлено отхвърлено"
390
+ }
391
+ },
372
392
  "topic": {
373
393
  "checkOpenNewTopic": "Да се отвори ли нова тема?",
374
394
  "checkSaveCurrentMessages": "Искате ли да запазите текущата сесия като тема?",
@@ -135,6 +135,7 @@
135
135
  }
136
136
  },
137
137
  "close": "Затвори",
138
+ "confirm": "Потвърди",
138
139
  "contact": "Свържете се с нас",
139
140
  "copy": "Копирай",
140
141
  "copyFail": "Копирането не е успешно",
@@ -106,6 +106,12 @@
106
106
  "keyPlaceholder": "Ключ",
107
107
  "valuePlaceholder": "Стойност"
108
108
  },
109
+ "LocalFile": {
110
+ "action": {
111
+ "open": "Отвори",
112
+ "showInFolder": "Показване в папката"
113
+ }
114
+ },
109
115
  "MaxTokenSlider": {
110
116
  "unlimited": "Неограничено"
111
117
  },