@lobehub/lobehub 2.0.0-next.51 → 2.0.0-next.53

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (107) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/README.md +8 -8
  3. package/README.zh-CN.md +8 -8
  4. package/apps/desktop/package.json +1 -1
  5. package/apps/desktop/src/main/controllers/LocalFileCtr.ts +25 -5
  6. package/apps/desktop/src/main/controllers/__tests__/LocalFileCtr.test.ts +4 -1
  7. package/apps/desktop/src/main/modules/fileSearch/__tests__/macOS.integration.test.ts +357 -0
  8. package/apps/desktop/src/main/modules/fileSearch/impl/macOS.ts +30 -22
  9. package/changelog/v1.json +21 -0
  10. package/locales/ar/models.json +119 -126
  11. package/locales/ar/plugin.json +1 -1
  12. package/locales/bg-BG/models.json +104 -132
  13. package/locales/bg-BG/plugin.json +1 -1
  14. package/locales/de-DE/models.json +119 -126
  15. package/locales/de-DE/plugin.json +1 -1
  16. package/locales/en-US/models.json +167 -126
  17. package/locales/en-US/plugin.json +1 -1
  18. package/locales/es-ES/models.json +119 -126
  19. package/locales/es-ES/plugin.json +1 -1
  20. package/locales/fa-IR/models.json +119 -126
  21. package/locales/fa-IR/plugin.json +1 -1
  22. package/locales/fr-FR/models.json +119 -126
  23. package/locales/fr-FR/plugin.json +1 -1
  24. package/locales/it-IT/models.json +119 -126
  25. package/locales/it-IT/plugin.json +1 -1
  26. package/locales/ja-JP/models.json +119 -126
  27. package/locales/ja-JP/plugin.json +1 -1
  28. package/locales/ko-KR/models.json +119 -126
  29. package/locales/ko-KR/plugin.json +1 -1
  30. package/locales/nl-NL/models.json +119 -126
  31. package/locales/nl-NL/plugin.json +1 -1
  32. package/locales/pl-PL/models.json +119 -126
  33. package/locales/pl-PL/plugin.json +1 -1
  34. package/locales/pt-BR/models.json +119 -126
  35. package/locales/pt-BR/plugin.json +1 -1
  36. package/locales/ru-RU/models.json +119 -126
  37. package/locales/ru-RU/plugin.json +1 -1
  38. package/locales/tr-TR/models.json +119 -126
  39. package/locales/tr-TR/plugin.json +1 -1
  40. package/locales/vi-VN/models.json +119 -126
  41. package/locales/vi-VN/plugin.json +1 -1
  42. package/locales/zh-CN/models.json +173 -80
  43. package/locales/zh-CN/plugin.json +1 -1
  44. package/locales/zh-TW/models.json +119 -126
  45. package/locales/zh-TW/plugin.json +1 -1
  46. package/package.json +2 -2
  47. package/packages/const/src/models.ts +2 -0
  48. package/packages/electron-client-ipc/src/types/localSystem.ts +26 -2
  49. package/packages/electron-server-ipc/src/ipcClient.ts +31 -31
  50. package/packages/electron-server-ipc/src/ipcServer.ts +15 -15
  51. package/packages/model-bank/src/aiModels/aihubmix.ts +106 -2
  52. package/packages/model-bank/src/aiModels/openai.ts +107 -3
  53. package/packages/model-bank/src/aiModels/qwen.ts +76 -7
  54. package/packages/model-bank/src/types/aiModel.ts +1 -0
  55. package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +58 -0
  56. package/packages/model-runtime/src/core/contextBuilders/openai.ts +24 -10
  57. package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +3 -2
  58. package/packages/model-runtime/src/providers/openai/index.test.ts +44 -0
  59. package/packages/types/src/agent/chatConfig.ts +9 -0
  60. package/packages/types/src/tool/builtin.ts +6 -4
  61. package/src/app/[variants]/(main)/chat/components/WorkspaceLayout.tsx +32 -23
  62. package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +12 -0
  63. package/src/features/ChatInput/ActionBar/Model/GPT51ReasoningEffortSlider.tsx +58 -0
  64. package/src/features/ChatItem/components/MessageContent.tsx +3 -1
  65. package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
  66. package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/ApprovalActions.tsx +34 -13
  67. package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/index.tsx +2 -2
  68. package/src/features/Conversation/Messages/Group/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
  69. package/src/features/Conversation/Messages/User/index.tsx +11 -1
  70. package/src/features/PluginsUI/Render/BuiltinType/index.test.tsx +10 -4
  71. package/src/features/PluginsUI/Render/BuiltinType/index.tsx +2 -2
  72. package/src/libs/mcp/__tests__/__snapshots__/index.test.ts.snap +0 -6
  73. package/src/locales/default/chat.ts +2 -0
  74. package/src/locales/default/plugin.ts +1 -1
  75. package/src/services/chat/chat.test.ts +1 -0
  76. package/src/services/chat/index.ts +7 -0
  77. package/src/store/aiInfra/slices/aiProvider/__tests__/selectors.test.ts +62 -0
  78. package/src/store/aiInfra/slices/aiProvider/selectors.ts +1 -1
  79. package/src/store/chat/slices/aiChat/actions/conversationControl.ts +42 -0
  80. package/src/tools/code-interpreter/Render/index.tsx +1 -1
  81. package/src/tools/interventions.ts +28 -4
  82. package/src/tools/local-system/Intervention/RunCommand/index.tsx +4 -5
  83. package/src/tools/local-system/Placeholder/ListFiles.tsx +3 -5
  84. package/src/tools/local-system/Placeholder/SearchFiles.tsx +2 -5
  85. package/src/tools/local-system/Render/ListFiles/index.tsx +16 -21
  86. package/src/tools/local-system/Render/ReadLocalFile/ReadFileView.tsx +2 -1
  87. package/src/tools/local-system/Render/RenameLocalFile/index.tsx +15 -20
  88. package/src/tools/local-system/Render/RunCommand/index.tsx +67 -70
  89. package/src/tools/local-system/Render/SearchFiles/SearchQuery/index.tsx +0 -1
  90. package/src/tools/local-system/Render/SearchFiles/index.tsx +15 -20
  91. package/src/tools/local-system/Render/WriteFile/index.tsx +2 -8
  92. package/src/tools/local-system/index.ts +5 -4
  93. package/src/tools/local-system/systemRole.ts +1 -1
  94. package/src/tools/placeholders.ts +39 -8
  95. package/src/tools/renders.ts +56 -9
  96. package/src/tools/web-browsing/Placeholder/{PageContent.tsx → CrawlMultiPages.tsx} +4 -1
  97. package/src/tools/web-browsing/Placeholder/CrawlSinglePage.tsx +12 -0
  98. package/src/tools/web-browsing/Placeholder/Search.tsx +4 -4
  99. package/src/tools/web-browsing/Render/CrawlMultiPages.tsx +15 -0
  100. package/src/tools/web-browsing/Render/CrawlSinglePage.tsx +15 -0
  101. package/src/tools/web-browsing/Render/Search/index.tsx +39 -44
  102. package/packages/database/migrations/0044_add_tool_intervention.sql +0 -1
  103. package/src/tools/local-system/Intervention/index.tsx +0 -17
  104. package/src/tools/local-system/Placeholder/index.tsx +0 -25
  105. package/src/tools/local-system/Render/index.tsx +0 -42
  106. package/src/tools/web-browsing/Placeholder/index.tsx +0 -40
  107. package/src/tools/web-browsing/Render/index.tsx +0 -57
@@ -1049,6 +1049,9 @@
1049
1049
  "deepseek-r1-0528": {
1050
1050
  "description": "مدل کامل 685 میلیارد پارامتری، منتشر شده در ۲۸ مه ۲۰۲۵. DeepSeek-R1 در مرحله پس‌آموزش به طور گسترده از تکنیک‌های یادگیری تقویتی استفاده کرده است و با داده‌های برچسب‌خورده بسیار کم، توانایی استدلال مدل را به طور قابل توجهی افزایش داده است. این مدل در وظایف ریاضی، کدنویسی و استدلال زبان طبیعی عملکرد و توانایی بالایی دارد."
1051
1051
  },
1052
+ "deepseek-r1-250528": {
1053
+ "description": "DeepSeek R1 250528، نسخه کامل مدل استنتاجی DeepSeek-R1، مناسب برای وظایف دشوار ریاضی و منطقی."
1054
+ },
1052
1055
  "deepseek-r1-70b-fast-online": {
1053
1056
  "description": "DeepSeek R1 70B نسخه سریع است که از جستجوی آنلاین زنده پشتیبانی می‌کند و در عین حفظ عملکرد مدل، سرعت پاسخ‌دهی سریع‌تری را ارائه می‌دهد."
1054
1057
  },
@@ -1059,31 +1062,34 @@
1059
1062
  "description": "deepseek-r1-distill-llama مدلی است که بر اساس Llama از DeepSeek-R1 استخراج شده است."
1060
1063
  },
1061
1064
  "deepseek-r1-distill-llama-70b": {
1062
- "description": "DeepSeek R1 - مدل بزرگتر و هوشمندتر در مجموعه DeepSeek - به معماری Llama 70B تقطیر شده است. بر اساس آزمون‌های معیار و ارزیابی‌های انسانی، این مدل از Llama 70B اصلی هوشمندتر است، به ویژه در وظایفی که نیاز به دقت ریاضی و واقعی دارند."
1065
+ "description": "DeepSeek R1 Distill Llama 70B، مدل تقطیر شده‌ای که توانایی استنتاج R1 را با اکوسیستم Llama ترکیب می‌کند."
1063
1066
  },
1064
1067
  "deepseek-r1-distill-llama-8b": {
1065
- "description": "مدل‌های سری DeepSeek-R1-Distill از طریق تکنیک تقطیر دانش، نمونه‌های تولید شده توسط DeepSeek-R1 را برای تنظیم دقیق بر روی مدل‌های متن‌باز مانند Qwen و Llama به کار می‌برند."
1068
+ "description": "DeepSeek-R1-Distill-Llama-8B، یک مدل زبان بزرگ تقطیر شده بر پایه Llama-3.1-8B با استفاده از خروجی‌های DeepSeek R1."
1066
1069
  },
1067
- "deepseek-r1-distill-qianfan-llama-70b": {
1068
- "description": "این مدل در تاریخ 14 فوریه 2025 برای اولین بار منتشر شد و توسط تیم توسعه مدل بزرگ Qianfan با استفاده از Llama3_70B به عنوان مدل پایه (ساخته شده با متا لاما) تقطیر شده است و داده‌های تقطیر شده همچنین شامل متون Qianfan است."
1070
+ "deepseek-r1-distill-qianfan-70b": {
1071
+ "description": "DeepSeek R1 Distill Qianfan 70B، مدل تقطیر شده R1 بر پایه Qianfan-70B با بهره‌وری بالا."
1069
1072
  },
1070
- "deepseek-r1-distill-qianfan-llama-8b": {
1071
- "description": "این مدل در تاریخ 14 فوریه 2025 برای اولین بار منتشر شد و توسط تیم توسعه مدل بزرگ Qianfan با استفاده از Llama3_8B به عنوان مدل پایه (ساخته شده با متا لاما) تقطیر شده است و داده‌های تقطیر شده همچنین شامل متون Qianfan است."
1073
+ "deepseek-r1-distill-qianfan-8b": {
1074
+ "description": "DeepSeek R1 Distill Qianfan 8B، مدل تقطیر شده R1 بر پایه Qianfan-8B، مناسب برای کاربردهای کوچک و متوسط."
1075
+ },
1076
+ "deepseek-r1-distill-qianfan-llama-70b": {
1077
+ "description": "DeepSeek R1 Distill Qianfan Llama 70B، مدل تقطیر شده R1 بر پایه Llama-70B."
1072
1078
  },
1073
1079
  "deepseek-r1-distill-qwen": {
1074
1080
  "description": "deepseek-r1-distill-qwen مدلی است که بر اساس Qwen از DeepSeek-R1 استخراج شده است."
1075
1081
  },
1076
1082
  "deepseek-r1-distill-qwen-1.5b": {
1077
- "description": "مدل‌های سری DeepSeek-R1-Distill از طریق تکنیک تقطیر دانش، نمونه‌های تولید شده توسط DeepSeek-R1 را برای تنظیم دقیق بر روی مدل‌های متن‌باز مانند Qwen و Llama به کار می‌برند."
1083
+ "description": "DeepSeek R1 Distill Qwen 1.5B، مدل تقطیر شده فوق سبک R1، مناسب برای محیط‌های با منابع بسیار محدود."
1078
1084
  },
1079
1085
  "deepseek-r1-distill-qwen-14b": {
1080
- "description": "مدل‌های سری DeepSeek-R1-Distill از طریق تکنیک تقطیر دانش، نمونه‌های تولید شده توسط DeepSeek-R1 را برای تنظیم دقیق بر روی مدل‌های متن‌باز مانند Qwen و Llama به کار می‌برند."
1086
+ "description": "DeepSeek R1 Distill Qwen 14B، مدل تقطیر شده R1 با مقیاس متوسط، مناسب برای استقرار در سناریوهای مختلف."
1081
1087
  },
1082
1088
  "deepseek-r1-distill-qwen-32b": {
1083
- "description": "مدل‌های سری DeepSeek-R1-Distill از طریق تکنیک تقطیر دانش، نمونه‌های تولید شده توسط DeepSeek-R1 را برای تنظیم دقیق بر روی مدل‌های متن‌باز مانند Qwen و Llama به کار می‌برند."
1089
+ "description": "DeepSeek R1 Distill Qwen 32B، مدل تقطیر شده R1 بر پایه Qwen-32B، با تعادل بین عملکرد و هزینه."
1084
1090
  },
1085
1091
  "deepseek-r1-distill-qwen-7b": {
1086
- "description": "مدل‌های سری DeepSeek-R1-Distill از طریق تکنیک تقطیر دانش، نمونه‌های تولید شده توسط DeepSeek-R1 را برای تنظیم دقیق بر روی مدل‌های متن‌باز مانند Qwen و Llama به کار می‌برند."
1092
+ "description": "DeepSeek R1 Distill Qwen 7B، مدل تقطیر شده سبک R1، مناسب برای محیط‌های لبه‌ای و خصوصی‌سازی سازمانی."
1087
1093
  },
1088
1094
  "deepseek-r1-fast-online": {
1089
1095
  "description": "DeepSeek R1 نسخه سریع کامل است که از جستجوی آنلاین زنده پشتیبانی می‌کند و ترکیبی از توانایی‌های قوی 671B پارامتر و سرعت پاسخ‌دهی سریع‌تر است."
@@ -1112,12 +1118,24 @@
1112
1118
  "deepseek-v3.1-terminus": {
1113
1119
  "description": "DeepSeek-V3.1-Terminus نسخه‌ای بهینه‌سازی‌شده از مدل زبان بزرگ DeepSeek است که به‌طور خاص برای دستگاه‌های نهایی طراحی شده است."
1114
1120
  },
1121
+ "deepseek-v3.1-think-250821": {
1122
+ "description": "DeepSeek V3.1 Think 250821، مدل تفکر عمیق نسخه Terminus، مناسب برای سناریوهای استنتاج با عملکرد بالا."
1123
+ },
1115
1124
  "deepseek-v3.1:671b": {
1116
1125
  "description": "DeepSeek V3.1: مدل استنتاج نسل بعدی که توانایی‌های استنتاج پیچیده و تفکر زنجیره‌ای را بهبود بخشیده و برای وظایفی که نیاز به تحلیل عمیق دارند مناسب است."
1117
1126
  },
1118
1127
  "deepseek-v3.2-exp": {
1119
1128
  "description": "deepseek-v3.2-exp مکانیزم توجه پراکنده را معرفی می‌کند که هدف آن افزایش کارایی آموزش و استنتاج در پردازش متون بلند است و قیمت آن کمتر از deepseek-v3.1 می‌باشد."
1120
1129
  },
1130
+ "deepseek-v3.2-think": {
1131
+ "description": "DeepSeek V3.2 Think، نسخه کامل مدل تفکر عمیق با توانایی تقویت‌شده در استنتاج زنجیره‌ای طولانی."
1132
+ },
1133
+ "deepseek-vl2": {
1134
+ "description": "DeepSeek VL2، مدل چندوجهی با پشتیبانی از درک تصویر و متن و پرسش و پاسخ بصری دقیق."
1135
+ },
1136
+ "deepseek-vl2-small": {
1137
+ "description": "DeepSeek VL2 Small، نسخه سبک چندوجهی، مناسب برای محیط‌های با منابع محدود و بارگذاری بالا."
1138
+ },
1121
1139
  "deepseek/deepseek-chat-v3-0324": {
1122
1140
  "description": "DeepSeek V3 یک مدل ترکیبی متخصص با 685B پارامتر است و جدیدترین نسخه از سری مدل‌های چت پرچمدار تیم DeepSeek می‌باشد.\n\nاین مدل از [DeepSeek V3](/deepseek/deepseek-chat-v3) به ارث برده و در انواع وظایف عملکرد عالی از خود نشان می‌دهد."
1123
1141
  },
@@ -1253,83 +1271,89 @@
1253
1271
  "emohaa": {
1254
1272
  "description": "Emohaa یک مدل روان‌شناختی است که دارای توانایی مشاوره حرفه‌ای بوده و به کاربران در درک مسائل احساسی کمک می‌کند."
1255
1273
  },
1256
- "ernie-3.5-128k": {
1257
- "description": "مدل زبان بزرگ پرچمدار خود توسعه یافته توسط بایدو، که شامل حجم وسیعی از متون چینی و انگلیسی است و دارای توانایی‌های عمومی قوی است که می‌تواند نیازهای اکثر موارد پرسش و پاسخ، تولید خلاقانه و کاربردهای افزونه را برآورده کند؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
1258
- },
1259
- "ernie-3.5-8k": {
1260
- "description": "مدل زبان بزرگ پرچمدار خود توسعه یافته توسط بایدو، که شامل حجم وسیعی از متون چینی و انگلیسی است و دارای توانایی‌های عمومی قوی است که می‌تواند نیازهای اکثر موارد پرسش و پاسخ، تولید خلاقانه و کاربردهای افزونه را برآورده کند؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
1261
- },
1262
- "ernie-3.5-8k-preview": {
1263
- "description": "مدل زبان بزرگ پرچمدار خود توسعه یافته توسط بایدو، که شامل حجم وسیعی از متون چینی و انگلیسی است و دارای توانایی‌های عمومی قوی است که می‌تواند نیازهای اکثر موارد پرسش و پاسخ، تولید خلاقانه و کاربردهای افزونه را برآورده کند؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
1264
- },
1265
- "ernie-4.0-8k-latest": {
1266
- "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که نسبت به ERNIE 3.5 به‌روزرسانی‌های جامع‌تری در توانایی‌های مدل داشته و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
1267
- },
1268
- "ernie-4.0-8k-preview": {
1269
- "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که نسبت به ERNIE 3.5 به‌روزرسانی‌های جامع‌تری در توانایی‌های مدل داشته و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
1270
- },
1271
- "ernie-4.0-turbo-128k": {
1272
- "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
1273
- },
1274
- "ernie-4.0-turbo-8k-latest": {
1275
- "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
1276
- },
1277
- "ernie-4.0-turbo-8k-preview": {
1278
- "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
1274
+ "ernie-4.5-0.3b": {
1275
+ "description": "ERNIE 4.5 0.3B، مدل سبک متن‌باز، مناسب برای استقرار محلی و سفارشی‌سازی."
1279
1276
  },
1280
1277
  "ernie-4.5-21b-a3b": {
1281
- "description": "ERNIE 4.5 21B A3B یک مدل متخصص ترکیبی است که توسط Wenxin Baidu توسعه یافته و دارای توانایی‌های قوی در استدلال و پشتیبانی از چند زبان می‌باشد."
1278
+ "description": "ERNIE 4.5 21B A3B، مدل بزرگ متن‌باز با عملکرد قوی در وظایف درک و تولید."
1282
1279
  },
1283
1280
  "ernie-4.5-300b-a47b": {
1284
1281
  "description": "ERNIE 4.5 300B A47B یک مدل بسیار بزرگ متخصص ترکیبی است که توسط Wenxin Baidu ارائه شده و از توانایی استدلالی برجسته‌ای برخوردار است."
1285
1282
  },
1286
1283
  "ernie-4.5-8k-preview": {
1287
- "description": "مدل بزرگ 4.5 Ernie یک مدل پایه چندرسانه‌ای نسل جدید است که توسط بایدو به‌طور مستقل توسعه یافته و از طریق مدل‌سازی مشترک چندین حالت به بهینه‌سازی هم‌زمان دست می‌یابد و توانایی درک چندرسانه‌ای فوق‌العاده‌ای دارد؛ دارای توانایی‌های زبانی پیشرفته‌تر، درک، تولید، منطق و حافظه به‌طور کلی بهبود یافته و توانایی‌های حذف توهم، استدلال منطقی و کد به‌طور قابل توجهی افزایش یافته است."
1284
+ "description": "ERNIE 4.5 8K Preview، مدل پیش‌نمایش با زمینه 8K، برای تجربه و آزمایش قابلیت‌های Wenxin 4.5."
1288
1285
  },
1289
1286
  "ernie-4.5-turbo-128k": {
1290
- "description": "Wenxin 4.5 Turbo در زمینه‌های کاهش توهم، استدلال منطقی و توانایی کدنویسی به‌طور قابل توجهی بهبود یافته است. در مقایسه با Wenxin 4.5، سرعت بالاتر و قیمت کمتری دارد. توانایی‌های مدل به‌طور کلی افزایش یافته و بهتر می‌تواند به پردازش مکالمات طولانی با تاریخچه چند دور و وظایف درک پرسش و پاسخ متون طولانی پاسخ دهد."
1287
+ "description": "ERNIE 4.5 Turbo 128K، مدل عمومی با عملکرد بالا، پشتیبانی از جستجوی تقویتی و ابزارها، مناسب برای پرسش و پاسخ، کدنویسی و عامل‌های هوشمند."
1288
+ },
1289
+ "ernie-4.5-turbo-128k-preview": {
1290
+ "description": "ERNIE 4.5 Turbo 128K Preview، نسخه پیش‌نمایش با قابلیت‌های مشابه نسخه رسمی، مناسب برای تست و هماهنگی."
1291
1291
  },
1292
1292
  "ernie-4.5-turbo-32k": {
1293
- "description": "Wenxin 4.5 Turbo در زمینه‌های کاهش توهم، استدلال منطقی و توانایی کدنویسی به‌طور قابل توجهی بهبود یافته است. در مقایسه با Wenxin 4.5، سرعت بالاتر و قیمت کمتری دارد. توانایی‌های خلق متن و پرسش و پاسخ به‌طور قابل توجهی افزایش یافته است. طول خروجی و تأخیر در جملات کامل نسبت به ERNIE 4.5 افزایش یافته است."
1293
+ "description": "ERNIE 4.5 Turbo 32K، نسخه با زمینه متوسط تا بلند، مناسب برای پرسش و پاسخ، جستجوی پایگاه دانش و مکالمات چندمرحله‌ای."
1294
+ },
1295
+ "ernie-4.5-turbo-latest": {
1296
+ "description": "ERNIE 4.5 Turbo آخرین نسخه، با بهینه‌سازی عملکرد کلی، مناسب به‌عنوان مدل اصلی در محیط‌های تولیدی."
1297
+ },
1298
+ "ernie-4.5-turbo-vl": {
1299
+ "description": "ERNIE 4.5 Turbo VL، مدل چندوجهی بالغ، مناسب برای درک و شناسایی تصویر و متن در محیط‌های تولیدی."
1294
1300
  },
1295
1301
  "ernie-4.5-turbo-vl-32k": {
1296
- "description": "نسخه جدید مدل بزرگ Wenxin، توانایی‌های درک تصویر، خلق، ترجمه و کدنویسی به‌طور قابل توجهی افزایش یافته است و برای اولین بار از طول زمینه 32K پشتیبانی می‌کند، تأخیر در اولین توکن به‌طور قابل توجهی کاهش یافته است."
1302
+ "description": "ERNIE 4.5 Turbo VL 32K، نسخه چندوجهی با زمینه متوسط تا بلند، مناسب برای درک ترکیبی اسناد بلند و تصاویر."
1303
+ },
1304
+ "ernie-4.5-turbo-vl-32k-preview": {
1305
+ "description": "ERNIE 4.5 Turbo VL 32K Preview، نسخه پیش‌نمایش چندوجهی 32K، مناسب برای ارزیابی توانایی درک بصری با زمینه بلند."
1306
+ },
1307
+ "ernie-4.5-turbo-vl-latest": {
1308
+ "description": "ERNIE 4.5 Turbo VL Latest، آخرین نسخه چندوجهی با درک و استنتاج تصویر و متن بهینه‌شده."
1309
+ },
1310
+ "ernie-4.5-turbo-vl-preview": {
1311
+ "description": "ERNIE 4.5 Turbo VL Preview، مدل پیش‌نمایش چندوجهی، پشتیبانی از درک و تولید تصویر و متن، مناسب برای تجربه پرسش و پاسخ بصری و درک محتوا."
1312
+ },
1313
+ "ernie-4.5-vl-28b-a3b": {
1314
+ "description": "ERNIE 4.5 VL 28B A3B، مدل چندوجهی متن‌باز، پشتیبانی از وظایف درک و استنتاج تصویر و متن."
1315
+ },
1316
+ "ernie-5.0-thinking-preview": {
1317
+ "description": "پیش‌نمایش ERNIE 5.0 Thinking، مدل پرچم‌دار چندوجهی بومی، پشتیبانی از مدل‌سازی یکپارچه متن، تصویر، صدا و ویدیو، با ارتقاء جامع توانایی‌ها، مناسب برای پرسش و پاسخ پیچیده، تولید محتوا و عامل‌های هوشمند."
1297
1318
  },
1298
1319
  "ernie-char-8k": {
1299
- "description": "مدل زبان بزرگ با کاربرد خاص که توسط بایدو توسعه یافته است و برای کاربردهایی مانند NPCهای بازی، مکالمات خدمات مشتری، و نقش‌آفرینی در مکالمات مناسب است، سبک شخصیت آن واضح‌تر و یکدست‌تر است و توانایی پیروی از دستورات و عملکرد استدلال بهتری دارد."
1320
+ "description": "ERNIE Character 8K، مدل مکالمه با شخصیت، مناسب برای ساخت شخصیت‌های IP و گفت‌وگوی همراه بلندمدت."
1300
1321
  },
1301
1322
  "ernie-char-fiction-8k": {
1302
- "description": "مدل زبان بزرگ با کاربرد خاص که توسط بایدو توسعه یافته است و برای کاربردهایی مانند NPCهای بازی، مکالمات خدمات مشتری، و نقش‌آفرینی در مکالمات مناسب است، سبک شخصیت آن واضح‌تر و یکدست‌تر است و توانایی پیروی از دستورات و عملکرد استدلال بهتری دارد."
1323
+ "description": "ERNIE Character Fiction 8K، مدل شخصیت‌پردازی برای داستان‌نویسی و خلق روایت، مناسب برای تولید داستان‌های بلند."
1324
+ },
1325
+ "ernie-char-fiction-8k-preview": {
1326
+ "description": "ERNIE Character Fiction 8K Preview، نسخه پیش‌نمایش مدل شخصیت و داستان‌پردازی، برای تجربه و آزمایش عملکرد."
1303
1327
  },
1304
1328
  "ernie-irag-edit": {
1305
- "description": "مدل ویرایش تصویر ERNIE iRAG که توسط بایدو توسعه یافته است، از عملیات‌هایی مانند حذف (erase)، بازنقاشی (repaint) و تولید واریاسیون (variation) بر اساس تصویر پشتیبانی می‌کند."
1329
+ "description": "ERNIE iRAG Edit، مدل ویرایش تصویر با قابلیت حذف، بازسازی و تولید نسخه‌های متنوع."
1306
1330
  },
1307
1331
  "ernie-lite-8k": {
1308
- "description": "ERNIE Lite مدل زبان بزرگ سبک خود توسعه یافته توسط بایدو است که تعادل خوبی بین عملکرد مدل و عملکرد استدلال دارد و برای استفاده در کارت‌های تسریع AI با توان محاسباتی پایین مناسب است."
1332
+ "description": "ERNIE Lite 8K، مدل عمومی سبک، مناسب برای پرسش و پاسخ روزمره و تولید محتوا با هزینه پایین."
1309
1333
  },
1310
1334
  "ernie-lite-pro-128k": {
1311
- "description": "مدل زبان بزرگ سبک خود توسعه یافته توسط بایدو که تعادل خوبی بین عملکرد مدل و عملکرد استدلال دارد و عملکرد بهتری نسبت به ERNIE Lite دارد و برای استفاده در کارت‌های تسریع AI با توان محاسباتی پایین مناسب است."
1335
+ "description": "ERNIE Lite Pro 128K، مدل سبک با عملکرد بالا، مناسب برای سناریوهای حساس به تأخیر و هزینه."
1312
1336
  },
1313
1337
  "ernie-novel-8k": {
1314
- "description": "مدل زبان بزرگ عمومی خود توسعه یافته توسط بایدو که در توانایی ادامه نوشتن رمان مزیت قابل توجهی دارد و همچنین می‌تواند در صحنه‌های کوتاه‌نمایش و فیلم‌ها استفاده شود."
1338
+ "description": "ERNIE Novel 8K، مدل تولید رمان بلند و داستان‌های IP، متخصص در روایت چندشخصیتی و چندخطی."
1315
1339
  },
1316
1340
  "ernie-speed-128k": {
1317
- "description": "مدل زبان بزرگ با عملکرد بالا که به تازگی در سال 2024 توسط بایدو منتشر شده است، دارای توانایی‌های عمومی عالی است و برای تنظیم دقیق به عنوان مدل پایه مناسب است و می‌تواند به خوبی مسائل خاص را مدیریت کند و همچنین دارای عملکرد استدلال بسیار خوبی است."
1341
+ "description": "ERNIE Speed 128K، مدل بزرگ بدون هزینه ورودی/خروجی، مناسب برای درک متن بلند و آزمایش‌های گسترده."
1342
+ },
1343
+ "ernie-speed-8k": {
1344
+ "description": "ERNIE Speed 8K، مدل رایگان و سریع، مناسب برای مکالمات روزمره و وظایف متنی سبک."
1318
1345
  },
1319
1346
  "ernie-speed-pro-128k": {
1320
- "description": "مدل زبان بزرگ با عملکرد بالا که به تازگی در سال 2024 توسط بایدو منتشر شده است، دارای توانایی‌های عمومی عالی است و عملکرد بهتری نسبت به ERNIE Speed دارد و برای تنظیم دقیق به عنوان مدل پایه مناسب است و می‌تواند به خوبی مسائل خاص را مدیریت کند و همچنین دارای عملکرد استدلال بسیار خوبی است."
1347
+ "description": "ERNIE Speed Pro 128K، مدل با کارایی بالا و هزینه مناسب، مناسب برای خدمات آنلاین گسترده و کاربردهای سازمانی."
1321
1348
  },
1322
1349
  "ernie-tiny-8k": {
1323
- "description": "ERNIE Tiny مدل زبان بزرگ با عملکرد فوق‌العاده بالا است که هزینه‌های استقرار و تنظیم آن در بین مدل‌های سری Wenxin کمترین است."
1324
- },
1325
- "ernie-x1-32k": {
1326
- "description": "دارای توانایی‌های قوی‌تر در درک، برنامه‌ریزی، تفکر و تکامل. به عنوان یک مدل تفکر عمیق با قابلیت‌های جامع‌تر، Wenxin X1 دقت، خلاقیت و بلاغت را در کنار هم دارد و در زمینه‌های پرسش و پاسخ دانش چینی، خلق ادبیات، نوشتن متون، گفتگوهای روزمره، استدلال منطقی، محاسبات پیچیده و استفاده از ابزارها به‌ویژه عملکرد برجسته‌ای دارد."
1327
- },
1328
- "ernie-x1-32k-preview": {
1329
- "description": "مدل بزرگ ERNIE X1 دارای توانایی‌های قوی‌تری در درک، برنامه‌ریزی، تفکر و تکامل است. به عنوان یک مدل تفکر عمیق با قابلیت‌های جامع‌تر، ERNIE X1 دقت، خلاقیت و بلاغت را در زمینه‌های پرسش و پاسخ دانش چینی، خلق ادبیات، نوشتن متون، گفتگوهای روزمره، استدلال منطقی، محاسبات پیچیده و فراخوانی ابزارها به نمایش می‌گذارد."
1350
+ "description": "ERNIE Tiny 8K، مدل فوق سبک، مناسب برای پرسش و پاسخ ساده، طبقه‌بندی و استنتاج کم‌هزینه."
1330
1351
  },
1331
1352
  "ernie-x1-turbo-32k": {
1332
- "description": "مدل نسبت به ERNIE-X1-32K از نظر عملکرد و کارایی بهتر است."
1353
+ "description": "ERNIE X1 Turbo 32K، مدل تفکر سریع با زمینه بلند 32K، مناسب برای استنتاج پیچیده و مکالمات چندمرحله‌ای."
1354
+ },
1355
+ "ernie-x1.1-preview": {
1356
+ "description": "ERNIE X1.1 Preview، نسخه پیش‌نمایش مدل تفکر ERNIE X1.1، مناسب برای ارزیابی و آزمایش توانایی‌ها."
1333
1357
  },
1334
1358
  "fal-ai/bytedance/seedream/v4": {
1335
1359
  "description": "مدل تولید تصویر Seedream 4.0 توسط تیم Seed شرکت ByteDance توسعه یافته است، از ورودی متن و تصویر پشتیبانی می‌کند و تجربه‌ای با کنترل بالا و کیفیت عالی در تولید تصویر ارائه می‌دهد. تصاویر بر اساس متن توصیفی تولید می‌شوند."
@@ -1389,7 +1413,7 @@
1389
1413
  "description": "FLUX.1 [schnell] به عنوان پیشرفته‌ترین مدل متن‌باز با گام‌های کم، نه تنها از رقبا پیشی گرفته بلکه از مدل‌های غیرتقطیر قدرتمندی مانند Midjourney v6.0 و DALL·E 3 (HD) نیز بهتر است. این مدل به طور خاص تنظیم شده تا تنوع کامل خروجی‌های پیش‌آموزش را حفظ کند و نسبت به مدل‌های پیشرفته بازار، بهبودهای قابل توجهی در کیفیت بصری، پیروی از دستورالعمل، تغییر اندازه/نسبت، پردازش فونت و تنوع خروجی ارائه می‌دهد و تجربه تولید تصاویر خلاقانه و متنوع‌تری را برای کاربران فراهم می‌کند."
1390
1414
  },
1391
1415
  "flux.1-schnell": {
1392
- "description": "ترنسفورمر جریان اصلاح‌شده با 12 میلیارد پارامتر که قادر است تصاویر را بر اساس توصیف متنی تولید کند."
1416
+ "description": "FLUX.1-schnell، مدل تولید تصویر با عملکرد بالا، مناسب برای تولید سریع تصاویر با سبک‌های متنوع."
1393
1417
  },
1394
1418
  "gemini-1.0-pro-001": {
1395
1419
  "description": "Gemini 1.0 Pro 001 (تنظیم) عملکردی پایدار و قابل تنظیم ارائه می‌دهد و انتخابی ایده‌آل برای راه‌حل‌های وظایف پیچیده است."
@@ -1538,6 +1562,9 @@
1538
1562
  "glm-4-0520": {
1539
1563
  "description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع طراحی شده و عملکردی عالی دارد."
1540
1564
  },
1565
+ "glm-4-32b-0414": {
1566
+ "description": "GLM-4 32B 0414، نسخه عمومی مدل بزرگ سری GLM، پشتیبانی از تولید و درک متن در وظایف چندگانه."
1567
+ },
1541
1568
  "glm-4-9b-chat": {
1542
1569
  "description": "GLM-4-9B-Chat عملکرد بالایی در زمینه‌های معناشناسی، ریاضیات، استدلال، کدنویسی و دانش دارد. همچنین از مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی و استدلال متون بلند پشتیبانی می‌کند. این مدل از ۲۶ زبان از جمله ژاپنی، کره‌ای و آلمانی پشتیبانی می‌نماید."
1543
1570
  },
@@ -2036,14 +2063,26 @@
2036
2063
  "internlm3-latest": {
2037
2064
  "description": "سری جدیدترین مدل‌های ما با عملکرد استدلال برجسته، پیشتاز مدل‌های متن‌باز در همان سطح هستند. به طور پیش‌فرض به جدیدترین مدل‌های سری InternLM3 ما اشاره دارد."
2038
2065
  },
2066
+ "internvl2.5-38b-mpo": {
2067
+ "description": "InternVL2.5 38B MPO، مدل پیش‌آموزش چندوجهی، پشتیبانی از وظایف پیچیده استنتاج تصویر و متن."
2068
+ },
2039
2069
  "internvl2.5-latest": {
2040
2070
  "description": "ما هنوز در حال نگهداری نسخه InternVL2.5 هستیم که دارای عملکرد عالی و پایدار است. به طور پیش‌فرض به جدیدترین مدل‌های سری InternVL2.5 ما اشاره دارد که در حال حاضر به internvl2.5-78b اشاره دارد."
2041
2071
  },
2072
+ "internvl3-14b": {
2073
+ "description": "InternVL3 14B، مدل چندوجهی با مقیاس متوسط، با تعادل بین عملکرد و هزینه."
2074
+ },
2075
+ "internvl3-1b": {
2076
+ "description": "InternVL3 1B، مدل چندوجهی سبک، مناسب برای استقرار در محیط‌های با منابع محدود."
2077
+ },
2078
+ "internvl3-38b": {
2079
+ "description": "InternVL3 38B، مدل بزرگ چندوجهی متن‌باز، مناسب برای وظایف درک تصویر و متن با دقت بالا."
2080
+ },
2042
2081
  "internvl3-latest": {
2043
2082
  "description": "ما جدیدترین مدل بزرگ چندرسانه‌ای خود را منتشر کرده‌ایم که دارای توانایی‌های قوی‌تر در درک متن و تصویر و درک تصاویر در زمان‌های طولانی است و عملکرد آن با مدل‌های برتر بسته به منبع قابل مقایسه است. به طور پیش‌فرض به جدیدترین مدل‌های سری InternVL ما اشاره دارد که در حال حاضر به internvl3-78b اشاره دارد."
2044
2083
  },
2045
2084
  "irag-1.0": {
2046
- "description": "iRAG (image based RAG) که توسط بایدو توسعه یافته، فناوری تولید تصویر تقویت‌شده با بازیابی است که منابع میلیاردی تصاویر جستجوی بایدو را با توانایی‌های مدل پایه قدرتمند ترکیب می‌کند تا تصاویر بسیار واقعی تولید کند. این سیستم به طور قابل توجهی از سیستم‌های تولید تصویر بومی بهتر است، بدون حس مصنوعی بودن و با هزینه پایین. iRAG ویژگی‌هایی مانند بدون توهم، فوق‌العاده واقعی و آماده تحویل فوری دارد."
2085
+ "description": "ERNIE iRAG، مدل تولید تقویت‌شده با بازیابی تصویر، پشتیبانی از جستجوی تصویری، بازیابی تصویر و متن و تولید محتوا."
2047
2086
  },
2048
2087
  "jamba-large": {
2049
2088
  "description": "قدرت‌مندترین و پیشرفته‌ترین مدل ما، که به‌طور خاص برای پردازش وظایف پیچیده در سطح سازمانی طراحی شده و دارای عملکرد فوق‌العاده‌ای است."
@@ -2064,7 +2103,7 @@
2064
2103
  "description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
2065
2104
  },
2066
2105
  "kimi-k2-instruct": {
2067
- "description": "Kimi K2 Instruct یک مدل زبان بزرگ است که توسط Moonshot AI توسعه یافته و دارای توانایی پردازش زمینه‌های بسیار طولانی می‌باشد."
2106
+ "description": "Kimi K2 Instruct، مدل استنتاج رسمی Kimi، پشتیبانی از زمینه بلند، کدنویسی، پرسش و پاسخ و سناریوهای متنوع."
2068
2107
  },
2069
2108
  "kimi-k2-turbo-preview": {
2070
2109
  "description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای توانمندی‌های بسیار قوی در حوزهٔ برنامه‌نویسی و عامل‌ها (Agent) می‌باشد. مجموع پارامترها 1T و پارامترهای فعال‌شده 32B است. در آزمون‌های بنچمارک در دسته‌های اصلی مانند استدلال دانش عمومی، برنامه‌نویسی، ریاضیات و Agent، عملکرد مدل K2 از سایر مدل‌های متن‌باز مرسوم پیشی گرفته است."
@@ -2885,9 +2924,7 @@
2885
2924
  "qwen2.5-72b-instruct": {
2886
2925
  "description": "مدل 72B مقیاس بازمتن Qwen 2.5 برای استفاده عمومی."
2887
2926
  },
2888
- "qwen2.5-7b-instruct": {
2889
- "description": "مدل 7B متن‌باز Qwen 2.5 برای استفاده عمومی."
2890
- },
2927
+ "qwen2.5-7b-instruct": {},
2891
2928
  "qwen2.5-coder-1.5b-instruct": {
2892
2929
  "description": "نسخه متن‌باز مدل کد Qwen."
2893
2930
  },
@@ -2918,15 +2955,11 @@
2918
2955
  "qwen2.5-omni-7b": {
2919
2956
  "description": "مدل‌های سری Qwen-Omni از ورودی‌های چندگانه شامل ویدیو، صدا، تصویر و متن پشتیبانی می‌کنند و خروجی‌هایی به صورت صدا و متن ارائه می‌دهند."
2920
2957
  },
2921
- "qwen2.5-vl-32b-instruct": {
2922
- "description": "سری مدل‌های Qwen2.5-VL سطح هوش، کاربردی بودن و مناسب بودن مدل را افزایش داده است تا عملکرد بهتری در مکالمات طبیعی، خلق محتوا، ارائه خدمات دانش تخصصی و توسعه کد ارائه دهد. نسخه 32B با استفاده از تکنیک‌های یادگیری تقویتی مدل را بهینه کرده است و نسبت به سایر مدل‌های سری Qwen2.5 VL، سبک خروجی مطابق با ترجیحات انسانی، توانایی استدلال در مسائل ریاضی پیچیده و درک و استدلال دقیق تصاویر را فراهم می‌کند."
2923
- },
2958
+ "qwen2.5-vl-32b-instruct": {},
2924
2959
  "qwen2.5-vl-72b-instruct": {
2925
2960
  "description": "پیروی از دستورات، ریاضیات، حل مسائل، بهبود کلی کد، بهبود توانایی شناسایی همه چیز، پشتیبانی از فرمت‌های مختلف برای شناسایی دقیق عناصر بصری، پشتیبانی از درک فایل‌های ویدیویی طولانی (حداکثر 10 دقیقه) و شناسایی لحظات رویداد در سطح ثانیه، توانایی درک زمان و سرعت، بر اساس توانایی تجزیه و تحلیل و شناسایی، پشتیبانی از کنترل عامل‌های OS یا Mobile، توانایی استخراج اطلاعات کلیدی و خروجی به فرمت Json قوی، این نسخه 72B است و قوی‌ترین نسخه در این سری است."
2926
2961
  },
2927
- "qwen2.5-vl-7b-instruct": {
2928
- "description": "پیروی از دستورات، ریاضیات، حل مسائل، بهبود کلی کد، بهبود توانایی شناسایی همه چیز، پشتیبانی از فرمت‌های مختلف برای شناسایی دقیق عناصر بصری، پشتیبانی از درک فایل‌های ویدیویی طولانی (حداکثر 10 دقیقه) و شناسایی لحظات رویداد در سطح ثانیه، توانایی درک زمان و سرعت، بر اساس توانایی تجزیه و تحلیل و شناسایی، پشتیبانی از کنترل عامل‌های OS یا Mobile، توانایی استخراج اطلاعات کلیدی و خروجی به فرمت Json قوی، این نسخه 72B است و قوی‌ترین نسخه در این سری است."
2929
- },
2962
+ "qwen2.5-vl-7b-instruct": {},
2930
2963
  "qwen2.5-vl-instruct": {
2931
2964
  "description": "Qwen2.5-VL نسخه جدید مدل زبانی و بصری از خانواده مدل‌های Qwen است."
2932
2965
  },
@@ -2951,48 +2984,22 @@
2951
2984
  "qwen3": {
2952
2985
  "description": "Qwen3 مدل زبان نسل جدید علی‌بابا است که با عملکرد عالی، نیازهای متنوع کاربردی را پشتیبانی می‌کند."
2953
2986
  },
2954
- "qwen3-0.6b": {
2955
- "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2956
- },
2957
- "qwen3-1.7b": {
2958
- "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2959
- },
2960
- "qwen3-14b": {
2961
- "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2962
- },
2963
- "qwen3-235b-a22b": {
2964
- "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2965
- },
2966
- "qwen3-235b-a22b-instruct-2507": {
2967
- "description": "مدل متن‌باز حالت غیرتفکری مبتنی بر Qwen3 که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B) در توانایی خلاقیت ذهنی و ایمنی مدل بهبودهای جزئی داشته است."
2968
- },
2969
- "qwen3-235b-a22b-thinking-2507": {
2970
- "description": "مدل متن‌باز حالت تفکری مبتنی بر Qwen3 که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B) در توانایی‌های منطقی، عمومی، تقویت دانش و خلاقیت بهبودهای قابل توجهی داشته و برای سناریوهای استدلال پیچیده و دشوار مناسب است."
2971
- },
2972
- "qwen3-30b-a3b": {
2973
- "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2974
- },
2975
- "qwen3-30b-a3b-instruct-2507": {
2976
- "description": "در مقایسه با نسخه قبلی (Qwen3-30B-A3B)، توانایی‌های کلی چندزبانه و انگلیسی به طور قابل توجهی بهبود یافته است. بهینه‌سازی ویژه برای وظایف ذهنی و باز، که به طور قابل توجهی با ترجیحات کاربران هماهنگ‌تر است و پاسخ‌های مفیدتری ارائه می‌دهد."
2977
- },
2978
- "qwen3-30b-a3b-thinking-2507": {
2979
- "description": "مدل متن‌باز حالت تفکر مبتنی بر Qwen3، که نسبت به نسخه قبلی (Tongyi Qianwen 3-30B-A3B) بهبودهای قابل توجهی در توانایی‌های منطقی، عمومی، دانش و خلاقیت دارد و برای سناریوهای دشوار و استدلال قوی مناسب است."
2980
- },
2981
- "qwen3-32b": {
2982
- "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2983
- },
2984
- "qwen3-4b": {
2985
- "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2986
- },
2987
- "qwen3-8b": {
2988
- "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2989
- },
2987
+ "qwen3-0.6b": {},
2988
+ "qwen3-1.7b": {},
2989
+ "qwen3-14b": {},
2990
+ "qwen3-235b-a22b": {},
2991
+ "qwen3-235b-a22b-instruct-2507": {},
2992
+ "qwen3-235b-a22b-thinking-2507": {},
2993
+ "qwen3-30b-a3b": {},
2994
+ "qwen3-30b-a3b-instruct-2507": {},
2995
+ "qwen3-30b-a3b-thinking-2507": {},
2996
+ "qwen3-32b": {},
2997
+ "qwen3-4b": {},
2998
+ "qwen3-8b": {},
2990
2999
  "qwen3-coder-30b-a3b-instruct": {
2991
3000
  "description": "نسخه متن‌باز مدل کدنویسی Qwen. مدل جدید qwen3-coder-30b-a3b-instruct بر پایه Qwen3 ساخته شده و دارای توانایی‌های قدرتمند در نقش عامل کدنویس (Coding Agent) است. این مدل در فراخوانی ابزارها و تعامل با محیط مهارت دارد و ضمن حفظ توانایی‌های عمومی، قابلیت برنامه‌نویسی خودکار و تولید کد پیشرفته را ارائه می‌دهد."
2992
3001
  },
2993
- "qwen3-coder-480b-a35b-instruct": {
2994
- "description": "نسخه متن‌باز مدل کدنویسی Tongyi Qianwen. جدیدترین مدل qwen3-coder-480b-a35b-instruct مبتنی بر Qwen3 است و دارای توانایی‌های قوی عامل کدنویسی، مهارت در فراخوانی ابزارها و تعامل با محیط است و قادر به برنامه‌نویسی خودکار با توانایی کدنویسی برجسته و همچنین توانایی‌های عمومی است."
2995
- },
3002
+ "qwen3-coder-480b-a35b-instruct": {},
2996
3003
  "qwen3-coder-flash": {
2997
3004
  "description": "مدل کد نویسی Tongyi Qianwen. جدیدترین مدل‌های سری Qwen3-Coder بر پایه Qwen3 ساخته شده‌اند و دارای توانایی‌های قدرتمند Coding Agent هستند، در فراخوانی ابزارها و تعامل با محیط مهارت دارند، قادر به برنامه‌نویسی خودکار هستند و در کنار توانایی‌های کدنویسی برجسته، قابلیت‌های عمومی نیز دارند."
2998
3005
  },
@@ -3008,30 +3015,16 @@
3008
3015
  "qwen3-next-80b-a3b-instruct": {
3009
3016
  "description": "مدل متن‌باز نسل جدید بدون حالت تفکر مبتنی بر Qwen3، که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B-Instruct-2507) در درک متن‌های چینی بهتر است، توانایی استدلال منطقی بهبود یافته و عملکرد بهتری در وظایف تولید متن دارد."
3010
3017
  },
3011
- "qwen3-next-80b-a3b-thinking": {
3012
- "description": "مدل متن‌باز نسل جدید با حالت تفکر مبتنی بر Qwen3، که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B-Thinking-2507) در پیروی از دستورات پیشرفت داشته و پاسخ‌های مدل خلاصه‌تر شده‌اند."
3013
- },
3018
+ "qwen3-next-80b-a3b-thinking": {},
3014
3019
  "qwen3-omni-flash": {
3015
3020
  "description": "مدل Qwen-Omni قادر است ورودی‌هایی از انواع مختلف مانند متن، تصویر، صدا و ویدیو را دریافت کرده و پاسخ‌هایی به صورت متن یا گفتار تولید کند. این مدل از صداهای شبه‌انسانی متنوع، چندزبانگی و گویش‌های مختلف پشتیبانی می‌کند و در کاربردهایی مانند تولید محتوا، تشخیص بصری و دستیار صوتی قابل استفاده است."
3016
3021
  },
3017
- "qwen3-vl-235b-a22b-instruct": {
3018
- "description": "Qwen3 VL 235B A22B در حالت غیرتفکری (Instruct) طراحی شده و برای سناریوهای دستورالعملی بدون نیاز به استدلال مناسب است، در حالی که توانایی قوی در درک بصری را حفظ می‌کند."
3019
- },
3020
- "qwen3-vl-235b-a22b-thinking": {
3021
- "description": "Qwen3 VL 235B A22B در حالت تفکری (نسخه متن‌باز) برای سناریوهای پیچیده با نیاز به استدلال قوی و درک ویدیوهای طولانی طراحی شده و توانایی استدلال ترکیبی متن و تصویر در سطح بالا را ارائه می‌دهد."
3022
- },
3023
- "qwen3-vl-30b-a3b-instruct": {
3024
- "description": "Qwen3 VL 30B در حالت غیرتفکری (Instruct) برای سناریوهای معمول پیروی از دستورالعمل طراحی شده و توانایی درک و تولید چندرسانه‌ای بالایی را حفظ می‌کند."
3025
- },
3026
- "qwen3-vl-30b-a3b-thinking": {
3027
- "description": "Qwen-VL (نسخه متن‌باز) توانایی درک بصری و تولید متن را ارائه می‌دهد و از تعامل با عامل‌ها، رمزگذاری بصری، درک فضایی، تحلیل ویدیوهای طولانی و تفکر عمیق پشتیبانی می‌کند. همچنین در سناریوهای پیچیده، توانایی تشخیص متن و پشتیبانی چندزبانه قوی‌تری دارد."
3028
- },
3029
- "qwen3-vl-8b-instruct": {
3030
- "description": "Qwen3 VL 8B در حالت غیرتفکری (Instruct) برای وظایف معمول تولید و شناسایی چندرسانه‌ای مناسب است."
3031
- },
3032
- "qwen3-vl-8b-thinking": {
3033
- "description": "Qwen3 VL 8B در حالت تفکری برای سناریوهای سبک استدلال چندرسانه‌ای و تعامل طراحی شده و توانایی درک متون با زمینه طولانی را حفظ می‌کند."
3034
- },
3022
+ "qwen3-vl-235b-a22b-instruct": {},
3023
+ "qwen3-vl-235b-a22b-thinking": {},
3024
+ "qwen3-vl-30b-a3b-instruct": {},
3025
+ "qwen3-vl-30b-a3b-thinking": {},
3026
+ "qwen3-vl-8b-instruct": {},
3027
+ "qwen3-vl-8b-thinking": {},
3035
3028
  "qwen3-vl-flash": {
3036
3029
  "description": "Qwen3 VL Flash نسخه‌ای سبک و با سرعت بالای استدلال است که برای سناریوهای حساس به تأخیر یا درخواست‌های حجیم مناسب می‌باشد."
3037
3030
  },
@@ -259,7 +259,7 @@
259
259
  "searchLocalFiles": "جستجوی فایل‌ها",
260
260
  "writeLocalFile": "نوشتن در فایل"
261
261
  },
262
- "title": "فایل‌های محلی"
262
+ "title": "سیستم محلی"
263
263
  },
264
264
  "mcpInstall": {
265
265
  "CHECKING_INSTALLATION": "در حال بررسی محیط نصب...",