@lobehub/lobehub 2.0.0-next.51 → 2.0.0-next.53
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/README.md +8 -8
- package/README.zh-CN.md +8 -8
- package/apps/desktop/package.json +1 -1
- package/apps/desktop/src/main/controllers/LocalFileCtr.ts +25 -5
- package/apps/desktop/src/main/controllers/__tests__/LocalFileCtr.test.ts +4 -1
- package/apps/desktop/src/main/modules/fileSearch/__tests__/macOS.integration.test.ts +357 -0
- package/apps/desktop/src/main/modules/fileSearch/impl/macOS.ts +30 -22
- package/changelog/v1.json +21 -0
- package/locales/ar/models.json +119 -126
- package/locales/ar/plugin.json +1 -1
- package/locales/bg-BG/models.json +104 -132
- package/locales/bg-BG/plugin.json +1 -1
- package/locales/de-DE/models.json +119 -126
- package/locales/de-DE/plugin.json +1 -1
- package/locales/en-US/models.json +167 -126
- package/locales/en-US/plugin.json +1 -1
- package/locales/es-ES/models.json +119 -126
- package/locales/es-ES/plugin.json +1 -1
- package/locales/fa-IR/models.json +119 -126
- package/locales/fa-IR/plugin.json +1 -1
- package/locales/fr-FR/models.json +119 -126
- package/locales/fr-FR/plugin.json +1 -1
- package/locales/it-IT/models.json +119 -126
- package/locales/it-IT/plugin.json +1 -1
- package/locales/ja-JP/models.json +119 -126
- package/locales/ja-JP/plugin.json +1 -1
- package/locales/ko-KR/models.json +119 -126
- package/locales/ko-KR/plugin.json +1 -1
- package/locales/nl-NL/models.json +119 -126
- package/locales/nl-NL/plugin.json +1 -1
- package/locales/pl-PL/models.json +119 -126
- package/locales/pl-PL/plugin.json +1 -1
- package/locales/pt-BR/models.json +119 -126
- package/locales/pt-BR/plugin.json +1 -1
- package/locales/ru-RU/models.json +119 -126
- package/locales/ru-RU/plugin.json +1 -1
- package/locales/tr-TR/models.json +119 -126
- package/locales/tr-TR/plugin.json +1 -1
- package/locales/vi-VN/models.json +119 -126
- package/locales/vi-VN/plugin.json +1 -1
- package/locales/zh-CN/models.json +173 -80
- package/locales/zh-CN/plugin.json +1 -1
- package/locales/zh-TW/models.json +119 -126
- package/locales/zh-TW/plugin.json +1 -1
- package/package.json +2 -2
- package/packages/const/src/models.ts +2 -0
- package/packages/electron-client-ipc/src/types/localSystem.ts +26 -2
- package/packages/electron-server-ipc/src/ipcClient.ts +31 -31
- package/packages/electron-server-ipc/src/ipcServer.ts +15 -15
- package/packages/model-bank/src/aiModels/aihubmix.ts +106 -2
- package/packages/model-bank/src/aiModels/openai.ts +107 -3
- package/packages/model-bank/src/aiModels/qwen.ts +76 -7
- package/packages/model-bank/src/types/aiModel.ts +1 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +58 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.ts +24 -10
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +3 -2
- package/packages/model-runtime/src/providers/openai/index.test.ts +44 -0
- package/packages/types/src/agent/chatConfig.ts +9 -0
- package/packages/types/src/tool/builtin.ts +6 -4
- package/src/app/[variants]/(main)/chat/components/WorkspaceLayout.tsx +32 -23
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +12 -0
- package/src/features/ChatInput/ActionBar/Model/GPT51ReasoningEffortSlider.tsx +58 -0
- package/src/features/ChatItem/components/MessageContent.tsx +3 -1
- package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
- package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/ApprovalActions.tsx +34 -13
- package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/index.tsx +2 -2
- package/src/features/Conversation/Messages/Group/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
- package/src/features/Conversation/Messages/User/index.tsx +11 -1
- package/src/features/PluginsUI/Render/BuiltinType/index.test.tsx +10 -4
- package/src/features/PluginsUI/Render/BuiltinType/index.tsx +2 -2
- package/src/libs/mcp/__tests__/__snapshots__/index.test.ts.snap +0 -6
- package/src/locales/default/chat.ts +2 -0
- package/src/locales/default/plugin.ts +1 -1
- package/src/services/chat/chat.test.ts +1 -0
- package/src/services/chat/index.ts +7 -0
- package/src/store/aiInfra/slices/aiProvider/__tests__/selectors.test.ts +62 -0
- package/src/store/aiInfra/slices/aiProvider/selectors.ts +1 -1
- package/src/store/chat/slices/aiChat/actions/conversationControl.ts +42 -0
- package/src/tools/code-interpreter/Render/index.tsx +1 -1
- package/src/tools/interventions.ts +28 -4
- package/src/tools/local-system/Intervention/RunCommand/index.tsx +4 -5
- package/src/tools/local-system/Placeholder/ListFiles.tsx +3 -5
- package/src/tools/local-system/Placeholder/SearchFiles.tsx +2 -5
- package/src/tools/local-system/Render/ListFiles/index.tsx +16 -21
- package/src/tools/local-system/Render/ReadLocalFile/ReadFileView.tsx +2 -1
- package/src/tools/local-system/Render/RenameLocalFile/index.tsx +15 -20
- package/src/tools/local-system/Render/RunCommand/index.tsx +67 -70
- package/src/tools/local-system/Render/SearchFiles/SearchQuery/index.tsx +0 -1
- package/src/tools/local-system/Render/SearchFiles/index.tsx +15 -20
- package/src/tools/local-system/Render/WriteFile/index.tsx +2 -8
- package/src/tools/local-system/index.ts +5 -4
- package/src/tools/local-system/systemRole.ts +1 -1
- package/src/tools/placeholders.ts +39 -8
- package/src/tools/renders.ts +56 -9
- package/src/tools/web-browsing/Placeholder/{PageContent.tsx → CrawlMultiPages.tsx} +4 -1
- package/src/tools/web-browsing/Placeholder/CrawlSinglePage.tsx +12 -0
- package/src/tools/web-browsing/Placeholder/Search.tsx +4 -4
- package/src/tools/web-browsing/Render/CrawlMultiPages.tsx +15 -0
- package/src/tools/web-browsing/Render/CrawlSinglePage.tsx +15 -0
- package/src/tools/web-browsing/Render/Search/index.tsx +39 -44
- package/packages/database/migrations/0044_add_tool_intervention.sql +0 -1
- package/src/tools/local-system/Intervention/index.tsx +0 -17
- package/src/tools/local-system/Placeholder/index.tsx +0 -25
- package/src/tools/local-system/Render/index.tsx +0 -42
- package/src/tools/web-browsing/Placeholder/index.tsx +0 -40
- package/src/tools/web-browsing/Render/index.tsx +0 -57
|
@@ -1049,6 +1049,9 @@
|
|
|
1049
1049
|
"deepseek-r1-0528": {
|
|
1050
1050
|
"description": "مدل کامل 685 میلیارد پارامتری، منتشر شده در ۲۸ مه ۲۰۲۵. DeepSeek-R1 در مرحله پسآموزش به طور گسترده از تکنیکهای یادگیری تقویتی استفاده کرده است و با دادههای برچسبخورده بسیار کم، توانایی استدلال مدل را به طور قابل توجهی افزایش داده است. این مدل در وظایف ریاضی، کدنویسی و استدلال زبان طبیعی عملکرد و توانایی بالایی دارد."
|
|
1051
1051
|
},
|
|
1052
|
+
"deepseek-r1-250528": {
|
|
1053
|
+
"description": "DeepSeek R1 250528، نسخه کامل مدل استنتاجی DeepSeek-R1، مناسب برای وظایف دشوار ریاضی و منطقی."
|
|
1054
|
+
},
|
|
1052
1055
|
"deepseek-r1-70b-fast-online": {
|
|
1053
1056
|
"description": "DeepSeek R1 70B نسخه سریع است که از جستجوی آنلاین زنده پشتیبانی میکند و در عین حفظ عملکرد مدل، سرعت پاسخدهی سریعتری را ارائه میدهد."
|
|
1054
1057
|
},
|
|
@@ -1059,31 +1062,34 @@
|
|
|
1059
1062
|
"description": "deepseek-r1-distill-llama مدلی است که بر اساس Llama از DeepSeek-R1 استخراج شده است."
|
|
1060
1063
|
},
|
|
1061
1064
|
"deepseek-r1-distill-llama-70b": {
|
|
1062
|
-
"description": "DeepSeek R1
|
|
1065
|
+
"description": "DeepSeek R1 Distill Llama 70B، مدل تقطیر شدهای که توانایی استنتاج R1 را با اکوسیستم Llama ترکیب میکند."
|
|
1063
1066
|
},
|
|
1064
1067
|
"deepseek-r1-distill-llama-8b": {
|
|
1065
|
-
"description": "
|
|
1068
|
+
"description": "DeepSeek-R1-Distill-Llama-8B، یک مدل زبان بزرگ تقطیر شده بر پایه Llama-3.1-8B با استفاده از خروجیهای DeepSeek R1."
|
|
1066
1069
|
},
|
|
1067
|
-
"deepseek-r1-distill-qianfan-
|
|
1068
|
-
"description": "
|
|
1070
|
+
"deepseek-r1-distill-qianfan-70b": {
|
|
1071
|
+
"description": "DeepSeek R1 Distill Qianfan 70B، مدل تقطیر شده R1 بر پایه Qianfan-70B با بهرهوری بالا."
|
|
1069
1072
|
},
|
|
1070
|
-
"deepseek-r1-distill-qianfan-
|
|
1071
|
-
"description": "
|
|
1073
|
+
"deepseek-r1-distill-qianfan-8b": {
|
|
1074
|
+
"description": "DeepSeek R1 Distill Qianfan 8B، مدل تقطیر شده R1 بر پایه Qianfan-8B، مناسب برای کاربردهای کوچک و متوسط."
|
|
1075
|
+
},
|
|
1076
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
|
1077
|
+
"description": "DeepSeek R1 Distill Qianfan Llama 70B، مدل تقطیر شده R1 بر پایه Llama-70B."
|
|
1072
1078
|
},
|
|
1073
1079
|
"deepseek-r1-distill-qwen": {
|
|
1074
1080
|
"description": "deepseek-r1-distill-qwen مدلی است که بر اساس Qwen از DeepSeek-R1 استخراج شده است."
|
|
1075
1081
|
},
|
|
1076
1082
|
"deepseek-r1-distill-qwen-1.5b": {
|
|
1077
|
-
"description": "
|
|
1083
|
+
"description": "DeepSeek R1 Distill Qwen 1.5B، مدل تقطیر شده فوق سبک R1، مناسب برای محیطهای با منابع بسیار محدود."
|
|
1078
1084
|
},
|
|
1079
1085
|
"deepseek-r1-distill-qwen-14b": {
|
|
1080
|
-
"description": "
|
|
1086
|
+
"description": "DeepSeek R1 Distill Qwen 14B، مدل تقطیر شده R1 با مقیاس متوسط، مناسب برای استقرار در سناریوهای مختلف."
|
|
1081
1087
|
},
|
|
1082
1088
|
"deepseek-r1-distill-qwen-32b": {
|
|
1083
|
-
"description": "
|
|
1089
|
+
"description": "DeepSeek R1 Distill Qwen 32B، مدل تقطیر شده R1 بر پایه Qwen-32B، با تعادل بین عملکرد و هزینه."
|
|
1084
1090
|
},
|
|
1085
1091
|
"deepseek-r1-distill-qwen-7b": {
|
|
1086
|
-
"description": "
|
|
1092
|
+
"description": "DeepSeek R1 Distill Qwen 7B، مدل تقطیر شده سبک R1، مناسب برای محیطهای لبهای و خصوصیسازی سازمانی."
|
|
1087
1093
|
},
|
|
1088
1094
|
"deepseek-r1-fast-online": {
|
|
1089
1095
|
"description": "DeepSeek R1 نسخه سریع کامل است که از جستجوی آنلاین زنده پشتیبانی میکند و ترکیبی از تواناییهای قوی 671B پارامتر و سرعت پاسخدهی سریعتر است."
|
|
@@ -1112,12 +1118,24 @@
|
|
|
1112
1118
|
"deepseek-v3.1-terminus": {
|
|
1113
1119
|
"description": "DeepSeek-V3.1-Terminus نسخهای بهینهسازیشده از مدل زبان بزرگ DeepSeek است که بهطور خاص برای دستگاههای نهایی طراحی شده است."
|
|
1114
1120
|
},
|
|
1121
|
+
"deepseek-v3.1-think-250821": {
|
|
1122
|
+
"description": "DeepSeek V3.1 Think 250821، مدل تفکر عمیق نسخه Terminus، مناسب برای سناریوهای استنتاج با عملکرد بالا."
|
|
1123
|
+
},
|
|
1115
1124
|
"deepseek-v3.1:671b": {
|
|
1116
1125
|
"description": "DeepSeek V3.1: مدل استنتاج نسل بعدی که تواناییهای استنتاج پیچیده و تفکر زنجیرهای را بهبود بخشیده و برای وظایفی که نیاز به تحلیل عمیق دارند مناسب است."
|
|
1117
1126
|
},
|
|
1118
1127
|
"deepseek-v3.2-exp": {
|
|
1119
1128
|
"description": "deepseek-v3.2-exp مکانیزم توجه پراکنده را معرفی میکند که هدف آن افزایش کارایی آموزش و استنتاج در پردازش متون بلند است و قیمت آن کمتر از deepseek-v3.1 میباشد."
|
|
1120
1129
|
},
|
|
1130
|
+
"deepseek-v3.2-think": {
|
|
1131
|
+
"description": "DeepSeek V3.2 Think، نسخه کامل مدل تفکر عمیق با توانایی تقویتشده در استنتاج زنجیرهای طولانی."
|
|
1132
|
+
},
|
|
1133
|
+
"deepseek-vl2": {
|
|
1134
|
+
"description": "DeepSeek VL2، مدل چندوجهی با پشتیبانی از درک تصویر و متن و پرسش و پاسخ بصری دقیق."
|
|
1135
|
+
},
|
|
1136
|
+
"deepseek-vl2-small": {
|
|
1137
|
+
"description": "DeepSeek VL2 Small، نسخه سبک چندوجهی، مناسب برای محیطهای با منابع محدود و بارگذاری بالا."
|
|
1138
|
+
},
|
|
1121
1139
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1122
1140
|
"description": "DeepSeek V3 یک مدل ترکیبی متخصص با 685B پارامتر است و جدیدترین نسخه از سری مدلهای چت پرچمدار تیم DeepSeek میباشد.\n\nاین مدل از [DeepSeek V3](/deepseek/deepseek-chat-v3) به ارث برده و در انواع وظایف عملکرد عالی از خود نشان میدهد."
|
|
1123
1141
|
},
|
|
@@ -1253,83 +1271,89 @@
|
|
|
1253
1271
|
"emohaa": {
|
|
1254
1272
|
"description": "Emohaa یک مدل روانشناختی است که دارای توانایی مشاوره حرفهای بوده و به کاربران در درک مسائل احساسی کمک میکند."
|
|
1255
1273
|
},
|
|
1256
|
-
"ernie-
|
|
1257
|
-
"description": "
|
|
1258
|
-
},
|
|
1259
|
-
"ernie-3.5-8k": {
|
|
1260
|
-
"description": "مدل زبان بزرگ پرچمدار خود توسعه یافته توسط بایدو، که شامل حجم وسیعی از متون چینی و انگلیسی است و دارای تواناییهای عمومی قوی است که میتواند نیازهای اکثر موارد پرسش و پاسخ، تولید خلاقانه و کاربردهای افزونه را برآورده کند؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ به روز باشد."
|
|
1261
|
-
},
|
|
1262
|
-
"ernie-3.5-8k-preview": {
|
|
1263
|
-
"description": "مدل زبان بزرگ پرچمدار خود توسعه یافته توسط بایدو، که شامل حجم وسیعی از متون چینی و انگلیسی است و دارای تواناییهای عمومی قوی است که میتواند نیازهای اکثر موارد پرسش و پاسخ، تولید خلاقانه و کاربردهای افزونه را برآورده کند؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ به روز باشد."
|
|
1264
|
-
},
|
|
1265
|
-
"ernie-4.0-8k-latest": {
|
|
1266
|
-
"description": "مدل زبان بزرگ فوقالعاده پرچمدار خود توسعه یافته توسط بایدو، که نسبت به ERNIE 3.5 بهروزرسانیهای جامعتری در تواناییهای مدل داشته و به طور گستردهای در زمینههای مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ به روز باشد."
|
|
1267
|
-
},
|
|
1268
|
-
"ernie-4.0-8k-preview": {
|
|
1269
|
-
"description": "مدل زبان بزرگ فوقالعاده پرچمدار خود توسعه یافته توسط بایدو، که نسبت به ERNIE 3.5 بهروزرسانیهای جامعتری در تواناییهای مدل داشته و به طور گستردهای در زمینههای مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ به روز باشد."
|
|
1270
|
-
},
|
|
1271
|
-
"ernie-4.0-turbo-128k": {
|
|
1272
|
-
"description": "مدل زبان بزرگ فوقالعاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گستردهای در زمینههای مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
|
|
1273
|
-
},
|
|
1274
|
-
"ernie-4.0-turbo-8k-latest": {
|
|
1275
|
-
"description": "مدل زبان بزرگ فوقالعاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گستردهای در زمینههای مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
|
|
1276
|
-
},
|
|
1277
|
-
"ernie-4.0-turbo-8k-preview": {
|
|
1278
|
-
"description": "مدل زبان بزرگ فوقالعاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گستردهای در زمینههای مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
|
|
1274
|
+
"ernie-4.5-0.3b": {
|
|
1275
|
+
"description": "ERNIE 4.5 0.3B، مدل سبک متنباز، مناسب برای استقرار محلی و سفارشیسازی."
|
|
1279
1276
|
},
|
|
1280
1277
|
"ernie-4.5-21b-a3b": {
|
|
1281
|
-
"description": "ERNIE 4.5 21B A3B
|
|
1278
|
+
"description": "ERNIE 4.5 21B A3B، مدل بزرگ متنباز با عملکرد قوی در وظایف درک و تولید."
|
|
1282
1279
|
},
|
|
1283
1280
|
"ernie-4.5-300b-a47b": {
|
|
1284
1281
|
"description": "ERNIE 4.5 300B A47B یک مدل بسیار بزرگ متخصص ترکیبی است که توسط Wenxin Baidu ارائه شده و از توانایی استدلالی برجستهای برخوردار است."
|
|
1285
1282
|
},
|
|
1286
1283
|
"ernie-4.5-8k-preview": {
|
|
1287
|
-
"description": "
|
|
1284
|
+
"description": "ERNIE 4.5 8K Preview، مدل پیشنمایش با زمینه 8K، برای تجربه و آزمایش قابلیتهای Wenxin 4.5."
|
|
1288
1285
|
},
|
|
1289
1286
|
"ernie-4.5-turbo-128k": {
|
|
1290
|
-
"description": "
|
|
1287
|
+
"description": "ERNIE 4.5 Turbo 128K، مدل عمومی با عملکرد بالا، پشتیبانی از جستجوی تقویتی و ابزارها، مناسب برای پرسش و پاسخ، کدنویسی و عاملهای هوشمند."
|
|
1288
|
+
},
|
|
1289
|
+
"ernie-4.5-turbo-128k-preview": {
|
|
1290
|
+
"description": "ERNIE 4.5 Turbo 128K Preview، نسخه پیشنمایش با قابلیتهای مشابه نسخه رسمی، مناسب برای تست و هماهنگی."
|
|
1291
1291
|
},
|
|
1292
1292
|
"ernie-4.5-turbo-32k": {
|
|
1293
|
-
"description": "
|
|
1293
|
+
"description": "ERNIE 4.5 Turbo 32K، نسخه با زمینه متوسط تا بلند، مناسب برای پرسش و پاسخ، جستجوی پایگاه دانش و مکالمات چندمرحلهای."
|
|
1294
|
+
},
|
|
1295
|
+
"ernie-4.5-turbo-latest": {
|
|
1296
|
+
"description": "ERNIE 4.5 Turbo آخرین نسخه، با بهینهسازی عملکرد کلی، مناسب بهعنوان مدل اصلی در محیطهای تولیدی."
|
|
1297
|
+
},
|
|
1298
|
+
"ernie-4.5-turbo-vl": {
|
|
1299
|
+
"description": "ERNIE 4.5 Turbo VL، مدل چندوجهی بالغ، مناسب برای درک و شناسایی تصویر و متن در محیطهای تولیدی."
|
|
1294
1300
|
},
|
|
1295
1301
|
"ernie-4.5-turbo-vl-32k": {
|
|
1296
|
-
"description": "
|
|
1302
|
+
"description": "ERNIE 4.5 Turbo VL 32K، نسخه چندوجهی با زمینه متوسط تا بلند، مناسب برای درک ترکیبی اسناد بلند و تصاویر."
|
|
1303
|
+
},
|
|
1304
|
+
"ernie-4.5-turbo-vl-32k-preview": {
|
|
1305
|
+
"description": "ERNIE 4.5 Turbo VL 32K Preview، نسخه پیشنمایش چندوجهی 32K، مناسب برای ارزیابی توانایی درک بصری با زمینه بلند."
|
|
1306
|
+
},
|
|
1307
|
+
"ernie-4.5-turbo-vl-latest": {
|
|
1308
|
+
"description": "ERNIE 4.5 Turbo VL Latest، آخرین نسخه چندوجهی با درک و استنتاج تصویر و متن بهینهشده."
|
|
1309
|
+
},
|
|
1310
|
+
"ernie-4.5-turbo-vl-preview": {
|
|
1311
|
+
"description": "ERNIE 4.5 Turbo VL Preview، مدل پیشنمایش چندوجهی، پشتیبانی از درک و تولید تصویر و متن، مناسب برای تجربه پرسش و پاسخ بصری و درک محتوا."
|
|
1312
|
+
},
|
|
1313
|
+
"ernie-4.5-vl-28b-a3b": {
|
|
1314
|
+
"description": "ERNIE 4.5 VL 28B A3B، مدل چندوجهی متنباز، پشتیبانی از وظایف درک و استنتاج تصویر و متن."
|
|
1315
|
+
},
|
|
1316
|
+
"ernie-5.0-thinking-preview": {
|
|
1317
|
+
"description": "پیشنمایش ERNIE 5.0 Thinking، مدل پرچمدار چندوجهی بومی، پشتیبانی از مدلسازی یکپارچه متن، تصویر، صدا و ویدیو، با ارتقاء جامع تواناییها، مناسب برای پرسش و پاسخ پیچیده، تولید محتوا و عاملهای هوشمند."
|
|
1297
1318
|
},
|
|
1298
1319
|
"ernie-char-8k": {
|
|
1299
|
-
"description": "
|
|
1320
|
+
"description": "ERNIE Character 8K، مدل مکالمه با شخصیت، مناسب برای ساخت شخصیتهای IP و گفتوگوی همراه بلندمدت."
|
|
1300
1321
|
},
|
|
1301
1322
|
"ernie-char-fiction-8k": {
|
|
1302
|
-
"description": "
|
|
1323
|
+
"description": "ERNIE Character Fiction 8K، مدل شخصیتپردازی برای داستاننویسی و خلق روایت، مناسب برای تولید داستانهای بلند."
|
|
1324
|
+
},
|
|
1325
|
+
"ernie-char-fiction-8k-preview": {
|
|
1326
|
+
"description": "ERNIE Character Fiction 8K Preview، نسخه پیشنمایش مدل شخصیت و داستانپردازی، برای تجربه و آزمایش عملکرد."
|
|
1303
1327
|
},
|
|
1304
1328
|
"ernie-irag-edit": {
|
|
1305
|
-
"description": "
|
|
1329
|
+
"description": "ERNIE iRAG Edit، مدل ویرایش تصویر با قابلیت حذف، بازسازی و تولید نسخههای متنوع."
|
|
1306
1330
|
},
|
|
1307
1331
|
"ernie-lite-8k": {
|
|
1308
|
-
"description": "ERNIE Lite مدل
|
|
1332
|
+
"description": "ERNIE Lite 8K، مدل عمومی سبک، مناسب برای پرسش و پاسخ روزمره و تولید محتوا با هزینه پایین."
|
|
1309
1333
|
},
|
|
1310
1334
|
"ernie-lite-pro-128k": {
|
|
1311
|
-
"description": "
|
|
1335
|
+
"description": "ERNIE Lite Pro 128K، مدل سبک با عملکرد بالا، مناسب برای سناریوهای حساس به تأخیر و هزینه."
|
|
1312
1336
|
},
|
|
1313
1337
|
"ernie-novel-8k": {
|
|
1314
|
-
"description": "
|
|
1338
|
+
"description": "ERNIE Novel 8K، مدل تولید رمان بلند و داستانهای IP، متخصص در روایت چندشخصیتی و چندخطی."
|
|
1315
1339
|
},
|
|
1316
1340
|
"ernie-speed-128k": {
|
|
1317
|
-
"description": "
|
|
1341
|
+
"description": "ERNIE Speed 128K، مدل بزرگ بدون هزینه ورودی/خروجی، مناسب برای درک متن بلند و آزمایشهای گسترده."
|
|
1342
|
+
},
|
|
1343
|
+
"ernie-speed-8k": {
|
|
1344
|
+
"description": "ERNIE Speed 8K، مدل رایگان و سریع، مناسب برای مکالمات روزمره و وظایف متنی سبک."
|
|
1318
1345
|
},
|
|
1319
1346
|
"ernie-speed-pro-128k": {
|
|
1320
|
-
"description": "
|
|
1347
|
+
"description": "ERNIE Speed Pro 128K، مدل با کارایی بالا و هزینه مناسب، مناسب برای خدمات آنلاین گسترده و کاربردهای سازمانی."
|
|
1321
1348
|
},
|
|
1322
1349
|
"ernie-tiny-8k": {
|
|
1323
|
-
"description": "ERNIE Tiny مدل
|
|
1324
|
-
},
|
|
1325
|
-
"ernie-x1-32k": {
|
|
1326
|
-
"description": "دارای تواناییهای قویتر در درک، برنامهریزی، تفکر و تکامل. به عنوان یک مدل تفکر عمیق با قابلیتهای جامعتر، Wenxin X1 دقت، خلاقیت و بلاغت را در کنار هم دارد و در زمینههای پرسش و پاسخ دانش چینی، خلق ادبیات، نوشتن متون، گفتگوهای روزمره، استدلال منطقی، محاسبات پیچیده و استفاده از ابزارها بهویژه عملکرد برجستهای دارد."
|
|
1327
|
-
},
|
|
1328
|
-
"ernie-x1-32k-preview": {
|
|
1329
|
-
"description": "مدل بزرگ ERNIE X1 دارای تواناییهای قویتری در درک، برنامهریزی، تفکر و تکامل است. به عنوان یک مدل تفکر عمیق با قابلیتهای جامعتر، ERNIE X1 دقت، خلاقیت و بلاغت را در زمینههای پرسش و پاسخ دانش چینی، خلق ادبیات، نوشتن متون، گفتگوهای روزمره، استدلال منطقی، محاسبات پیچیده و فراخوانی ابزارها به نمایش میگذارد."
|
|
1350
|
+
"description": "ERNIE Tiny 8K، مدل فوق سبک، مناسب برای پرسش و پاسخ ساده، طبقهبندی و استنتاج کمهزینه."
|
|
1330
1351
|
},
|
|
1331
1352
|
"ernie-x1-turbo-32k": {
|
|
1332
|
-
"description": "مدل
|
|
1353
|
+
"description": "ERNIE X1 Turbo 32K، مدل تفکر سریع با زمینه بلند 32K، مناسب برای استنتاج پیچیده و مکالمات چندمرحلهای."
|
|
1354
|
+
},
|
|
1355
|
+
"ernie-x1.1-preview": {
|
|
1356
|
+
"description": "ERNIE X1.1 Preview، نسخه پیشنمایش مدل تفکر ERNIE X1.1، مناسب برای ارزیابی و آزمایش تواناییها."
|
|
1333
1357
|
},
|
|
1334
1358
|
"fal-ai/bytedance/seedream/v4": {
|
|
1335
1359
|
"description": "مدل تولید تصویر Seedream 4.0 توسط تیم Seed شرکت ByteDance توسعه یافته است، از ورودی متن و تصویر پشتیبانی میکند و تجربهای با کنترل بالا و کیفیت عالی در تولید تصویر ارائه میدهد. تصاویر بر اساس متن توصیفی تولید میشوند."
|
|
@@ -1389,7 +1413,7 @@
|
|
|
1389
1413
|
"description": "FLUX.1 [schnell] به عنوان پیشرفتهترین مدل متنباز با گامهای کم، نه تنها از رقبا پیشی گرفته بلکه از مدلهای غیرتقطیر قدرتمندی مانند Midjourney v6.0 و DALL·E 3 (HD) نیز بهتر است. این مدل به طور خاص تنظیم شده تا تنوع کامل خروجیهای پیشآموزش را حفظ کند و نسبت به مدلهای پیشرفته بازار، بهبودهای قابل توجهی در کیفیت بصری، پیروی از دستورالعمل، تغییر اندازه/نسبت، پردازش فونت و تنوع خروجی ارائه میدهد و تجربه تولید تصاویر خلاقانه و متنوعتری را برای کاربران فراهم میکند."
|
|
1390
1414
|
},
|
|
1391
1415
|
"flux.1-schnell": {
|
|
1392
|
-
"description": "
|
|
1416
|
+
"description": "FLUX.1-schnell، مدل تولید تصویر با عملکرد بالا، مناسب برای تولید سریع تصاویر با سبکهای متنوع."
|
|
1393
1417
|
},
|
|
1394
1418
|
"gemini-1.0-pro-001": {
|
|
1395
1419
|
"description": "Gemini 1.0 Pro 001 (تنظیم) عملکردی پایدار و قابل تنظیم ارائه میدهد و انتخابی ایدهآل برای راهحلهای وظایف پیچیده است."
|
|
@@ -1538,6 +1562,9 @@
|
|
|
1538
1562
|
"glm-4-0520": {
|
|
1539
1563
|
"description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع طراحی شده و عملکردی عالی دارد."
|
|
1540
1564
|
},
|
|
1565
|
+
"glm-4-32b-0414": {
|
|
1566
|
+
"description": "GLM-4 32B 0414، نسخه عمومی مدل بزرگ سری GLM، پشتیبانی از تولید و درک متن در وظایف چندگانه."
|
|
1567
|
+
},
|
|
1541
1568
|
"glm-4-9b-chat": {
|
|
1542
1569
|
"description": "GLM-4-9B-Chat عملکرد بالایی در زمینههای معناشناسی، ریاضیات، استدلال، کدنویسی و دانش دارد. همچنین از مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی و استدلال متون بلند پشتیبانی میکند. این مدل از ۲۶ زبان از جمله ژاپنی، کرهای و آلمانی پشتیبانی مینماید."
|
|
1543
1570
|
},
|
|
@@ -2036,14 +2063,26 @@
|
|
|
2036
2063
|
"internlm3-latest": {
|
|
2037
2064
|
"description": "سری جدیدترین مدلهای ما با عملکرد استدلال برجسته، پیشتاز مدلهای متنباز در همان سطح هستند. به طور پیشفرض به جدیدترین مدلهای سری InternLM3 ما اشاره دارد."
|
|
2038
2065
|
},
|
|
2066
|
+
"internvl2.5-38b-mpo": {
|
|
2067
|
+
"description": "InternVL2.5 38B MPO، مدل پیشآموزش چندوجهی، پشتیبانی از وظایف پیچیده استنتاج تصویر و متن."
|
|
2068
|
+
},
|
|
2039
2069
|
"internvl2.5-latest": {
|
|
2040
2070
|
"description": "ما هنوز در حال نگهداری نسخه InternVL2.5 هستیم که دارای عملکرد عالی و پایدار است. به طور پیشفرض به جدیدترین مدلهای سری InternVL2.5 ما اشاره دارد که در حال حاضر به internvl2.5-78b اشاره دارد."
|
|
2041
2071
|
},
|
|
2072
|
+
"internvl3-14b": {
|
|
2073
|
+
"description": "InternVL3 14B، مدل چندوجهی با مقیاس متوسط، با تعادل بین عملکرد و هزینه."
|
|
2074
|
+
},
|
|
2075
|
+
"internvl3-1b": {
|
|
2076
|
+
"description": "InternVL3 1B، مدل چندوجهی سبک، مناسب برای استقرار در محیطهای با منابع محدود."
|
|
2077
|
+
},
|
|
2078
|
+
"internvl3-38b": {
|
|
2079
|
+
"description": "InternVL3 38B، مدل بزرگ چندوجهی متنباز، مناسب برای وظایف درک تصویر و متن با دقت بالا."
|
|
2080
|
+
},
|
|
2042
2081
|
"internvl3-latest": {
|
|
2043
2082
|
"description": "ما جدیدترین مدل بزرگ چندرسانهای خود را منتشر کردهایم که دارای تواناییهای قویتر در درک متن و تصویر و درک تصاویر در زمانهای طولانی است و عملکرد آن با مدلهای برتر بسته به منبع قابل مقایسه است. به طور پیشفرض به جدیدترین مدلهای سری InternVL ما اشاره دارد که در حال حاضر به internvl3-78b اشاره دارد."
|
|
2044
2083
|
},
|
|
2045
2084
|
"irag-1.0": {
|
|
2046
|
-
"description": "iRAG
|
|
2085
|
+
"description": "ERNIE iRAG، مدل تولید تقویتشده با بازیابی تصویر، پشتیبانی از جستجوی تصویری، بازیابی تصویر و متن و تولید محتوا."
|
|
2047
2086
|
},
|
|
2048
2087
|
"jamba-large": {
|
|
2049
2088
|
"description": "قدرتمندترین و پیشرفتهترین مدل ما، که بهطور خاص برای پردازش وظایف پیچیده در سطح سازمانی طراحی شده و دارای عملکرد فوقالعادهای است."
|
|
@@ -2064,7 +2103,7 @@
|
|
|
2064
2103
|
"description": "مدل پیشنمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و تواناییهای قویتری در برنامهنویسی عاملمحور، زیبایی و کاربردی بودن کدهای فرانتاند و درک بهتر متن دارد."
|
|
2065
2104
|
},
|
|
2066
2105
|
"kimi-k2-instruct": {
|
|
2067
|
-
"description": "Kimi K2 Instruct
|
|
2106
|
+
"description": "Kimi K2 Instruct، مدل استنتاج رسمی Kimi، پشتیبانی از زمینه بلند، کدنویسی، پرسش و پاسخ و سناریوهای متنوع."
|
|
2068
2107
|
},
|
|
2069
2108
|
"kimi-k2-turbo-preview": {
|
|
2070
2109
|
"description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای توانمندیهای بسیار قوی در حوزهٔ برنامهنویسی و عاملها (Agent) میباشد. مجموع پارامترها 1T و پارامترهای فعالشده 32B است. در آزمونهای بنچمارک در دستههای اصلی مانند استدلال دانش عمومی، برنامهنویسی، ریاضیات و Agent، عملکرد مدل K2 از سایر مدلهای متنباز مرسوم پیشی گرفته است."
|
|
@@ -2885,9 +2924,7 @@
|
|
|
2885
2924
|
"qwen2.5-72b-instruct": {
|
|
2886
2925
|
"description": "مدل 72B مقیاس بازمتن Qwen 2.5 برای استفاده عمومی."
|
|
2887
2926
|
},
|
|
2888
|
-
"qwen2.5-7b-instruct": {
|
|
2889
|
-
"description": "مدل 7B متنباز Qwen 2.5 برای استفاده عمومی."
|
|
2890
|
-
},
|
|
2927
|
+
"qwen2.5-7b-instruct": {},
|
|
2891
2928
|
"qwen2.5-coder-1.5b-instruct": {
|
|
2892
2929
|
"description": "نسخه متنباز مدل کد Qwen."
|
|
2893
2930
|
},
|
|
@@ -2918,15 +2955,11 @@
|
|
|
2918
2955
|
"qwen2.5-omni-7b": {
|
|
2919
2956
|
"description": "مدلهای سری Qwen-Omni از ورودیهای چندگانه شامل ویدیو، صدا، تصویر و متن پشتیبانی میکنند و خروجیهایی به صورت صدا و متن ارائه میدهند."
|
|
2920
2957
|
},
|
|
2921
|
-
"qwen2.5-vl-32b-instruct": {
|
|
2922
|
-
"description": "سری مدلهای Qwen2.5-VL سطح هوش، کاربردی بودن و مناسب بودن مدل را افزایش داده است تا عملکرد بهتری در مکالمات طبیعی، خلق محتوا، ارائه خدمات دانش تخصصی و توسعه کد ارائه دهد. نسخه 32B با استفاده از تکنیکهای یادگیری تقویتی مدل را بهینه کرده است و نسبت به سایر مدلهای سری Qwen2.5 VL، سبک خروجی مطابق با ترجیحات انسانی، توانایی استدلال در مسائل ریاضی پیچیده و درک و استدلال دقیق تصاویر را فراهم میکند."
|
|
2923
|
-
},
|
|
2958
|
+
"qwen2.5-vl-32b-instruct": {},
|
|
2924
2959
|
"qwen2.5-vl-72b-instruct": {
|
|
2925
2960
|
"description": "پیروی از دستورات، ریاضیات، حل مسائل، بهبود کلی کد، بهبود توانایی شناسایی همه چیز، پشتیبانی از فرمتهای مختلف برای شناسایی دقیق عناصر بصری، پشتیبانی از درک فایلهای ویدیویی طولانی (حداکثر 10 دقیقه) و شناسایی لحظات رویداد در سطح ثانیه، توانایی درک زمان و سرعت، بر اساس توانایی تجزیه و تحلیل و شناسایی، پشتیبانی از کنترل عاملهای OS یا Mobile، توانایی استخراج اطلاعات کلیدی و خروجی به فرمت Json قوی، این نسخه 72B است و قویترین نسخه در این سری است."
|
|
2926
2961
|
},
|
|
2927
|
-
"qwen2.5-vl-7b-instruct": {
|
|
2928
|
-
"description": "پیروی از دستورات، ریاضیات، حل مسائل، بهبود کلی کد، بهبود توانایی شناسایی همه چیز، پشتیبانی از فرمتهای مختلف برای شناسایی دقیق عناصر بصری، پشتیبانی از درک فایلهای ویدیویی طولانی (حداکثر 10 دقیقه) و شناسایی لحظات رویداد در سطح ثانیه، توانایی درک زمان و سرعت، بر اساس توانایی تجزیه و تحلیل و شناسایی، پشتیبانی از کنترل عاملهای OS یا Mobile، توانایی استخراج اطلاعات کلیدی و خروجی به فرمت Json قوی، این نسخه 72B است و قویترین نسخه در این سری است."
|
|
2929
|
-
},
|
|
2962
|
+
"qwen2.5-vl-7b-instruct": {},
|
|
2930
2963
|
"qwen2.5-vl-instruct": {
|
|
2931
2964
|
"description": "Qwen2.5-VL نسخه جدید مدل زبانی و بصری از خانواده مدلهای Qwen است."
|
|
2932
2965
|
},
|
|
@@ -2951,48 +2984,22 @@
|
|
|
2951
2984
|
"qwen3": {
|
|
2952
2985
|
"description": "Qwen3 مدل زبان نسل جدید علیبابا است که با عملکرد عالی، نیازهای متنوع کاربردی را پشتیبانی میکند."
|
|
2953
2986
|
},
|
|
2954
|
-
"qwen3-0.6b": {
|
|
2955
|
-
|
|
2956
|
-
},
|
|
2957
|
-
"qwen3-
|
|
2958
|
-
|
|
2959
|
-
},
|
|
2960
|
-
"qwen3-
|
|
2961
|
-
|
|
2962
|
-
},
|
|
2963
|
-
"qwen3-
|
|
2964
|
-
|
|
2965
|
-
},
|
|
2966
|
-
"qwen3-235b-a22b-instruct-2507": {
|
|
2967
|
-
"description": "مدل متنباز حالت غیرتفکری مبتنی بر Qwen3 که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B) در توانایی خلاقیت ذهنی و ایمنی مدل بهبودهای جزئی داشته است."
|
|
2968
|
-
},
|
|
2969
|
-
"qwen3-235b-a22b-thinking-2507": {
|
|
2970
|
-
"description": "مدل متنباز حالت تفکری مبتنی بر Qwen3 که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B) در تواناییهای منطقی، عمومی، تقویت دانش و خلاقیت بهبودهای قابل توجهی داشته و برای سناریوهای استدلال پیچیده و دشوار مناسب است."
|
|
2971
|
-
},
|
|
2972
|
-
"qwen3-30b-a3b": {
|
|
2973
|
-
"description": "Qwen3 یک مدل جدید نسل جدید با تواناییهای به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی میکند."
|
|
2974
|
-
},
|
|
2975
|
-
"qwen3-30b-a3b-instruct-2507": {
|
|
2976
|
-
"description": "در مقایسه با نسخه قبلی (Qwen3-30B-A3B)، تواناییهای کلی چندزبانه و انگلیسی به طور قابل توجهی بهبود یافته است. بهینهسازی ویژه برای وظایف ذهنی و باز، که به طور قابل توجهی با ترجیحات کاربران هماهنگتر است و پاسخهای مفیدتری ارائه میدهد."
|
|
2977
|
-
},
|
|
2978
|
-
"qwen3-30b-a3b-thinking-2507": {
|
|
2979
|
-
"description": "مدل متنباز حالت تفکر مبتنی بر Qwen3، که نسبت به نسخه قبلی (Tongyi Qianwen 3-30B-A3B) بهبودهای قابل توجهی در تواناییهای منطقی، عمومی، دانش و خلاقیت دارد و برای سناریوهای دشوار و استدلال قوی مناسب است."
|
|
2980
|
-
},
|
|
2981
|
-
"qwen3-32b": {
|
|
2982
|
-
"description": "Qwen3 یک مدل جدید نسل جدید با تواناییهای به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی میکند."
|
|
2983
|
-
},
|
|
2984
|
-
"qwen3-4b": {
|
|
2985
|
-
"description": "Qwen3 یک مدل جدید نسل جدید با تواناییهای به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی میکند."
|
|
2986
|
-
},
|
|
2987
|
-
"qwen3-8b": {
|
|
2988
|
-
"description": "Qwen3 یک مدل جدید نسل جدید با تواناییهای به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی میکند."
|
|
2989
|
-
},
|
|
2987
|
+
"qwen3-0.6b": {},
|
|
2988
|
+
"qwen3-1.7b": {},
|
|
2989
|
+
"qwen3-14b": {},
|
|
2990
|
+
"qwen3-235b-a22b": {},
|
|
2991
|
+
"qwen3-235b-a22b-instruct-2507": {},
|
|
2992
|
+
"qwen3-235b-a22b-thinking-2507": {},
|
|
2993
|
+
"qwen3-30b-a3b": {},
|
|
2994
|
+
"qwen3-30b-a3b-instruct-2507": {},
|
|
2995
|
+
"qwen3-30b-a3b-thinking-2507": {},
|
|
2996
|
+
"qwen3-32b": {},
|
|
2997
|
+
"qwen3-4b": {},
|
|
2998
|
+
"qwen3-8b": {},
|
|
2990
2999
|
"qwen3-coder-30b-a3b-instruct": {
|
|
2991
3000
|
"description": "نسخه متنباز مدل کدنویسی Qwen. مدل جدید qwen3-coder-30b-a3b-instruct بر پایه Qwen3 ساخته شده و دارای تواناییهای قدرتمند در نقش عامل کدنویس (Coding Agent) است. این مدل در فراخوانی ابزارها و تعامل با محیط مهارت دارد و ضمن حفظ تواناییهای عمومی، قابلیت برنامهنویسی خودکار و تولید کد پیشرفته را ارائه میدهد."
|
|
2992
3001
|
},
|
|
2993
|
-
"qwen3-coder-480b-a35b-instruct": {
|
|
2994
|
-
"description": "نسخه متنباز مدل کدنویسی Tongyi Qianwen. جدیدترین مدل qwen3-coder-480b-a35b-instruct مبتنی بر Qwen3 است و دارای تواناییهای قوی عامل کدنویسی، مهارت در فراخوانی ابزارها و تعامل با محیط است و قادر به برنامهنویسی خودکار با توانایی کدنویسی برجسته و همچنین تواناییهای عمومی است."
|
|
2995
|
-
},
|
|
3002
|
+
"qwen3-coder-480b-a35b-instruct": {},
|
|
2996
3003
|
"qwen3-coder-flash": {
|
|
2997
3004
|
"description": "مدل کد نویسی Tongyi Qianwen. جدیدترین مدلهای سری Qwen3-Coder بر پایه Qwen3 ساخته شدهاند و دارای تواناییهای قدرتمند Coding Agent هستند، در فراخوانی ابزارها و تعامل با محیط مهارت دارند، قادر به برنامهنویسی خودکار هستند و در کنار تواناییهای کدنویسی برجسته، قابلیتهای عمومی نیز دارند."
|
|
2998
3005
|
},
|
|
@@ -3008,30 +3015,16 @@
|
|
|
3008
3015
|
"qwen3-next-80b-a3b-instruct": {
|
|
3009
3016
|
"description": "مدل متنباز نسل جدید بدون حالت تفکر مبتنی بر Qwen3، که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B-Instruct-2507) در درک متنهای چینی بهتر است، توانایی استدلال منطقی بهبود یافته و عملکرد بهتری در وظایف تولید متن دارد."
|
|
3010
3017
|
},
|
|
3011
|
-
"qwen3-next-80b-a3b-thinking": {
|
|
3012
|
-
"description": "مدل متنباز نسل جدید با حالت تفکر مبتنی بر Qwen3، که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B-Thinking-2507) در پیروی از دستورات پیشرفت داشته و پاسخهای مدل خلاصهتر شدهاند."
|
|
3013
|
-
},
|
|
3018
|
+
"qwen3-next-80b-a3b-thinking": {},
|
|
3014
3019
|
"qwen3-omni-flash": {
|
|
3015
3020
|
"description": "مدل Qwen-Omni قادر است ورودیهایی از انواع مختلف مانند متن، تصویر، صدا و ویدیو را دریافت کرده و پاسخهایی به صورت متن یا گفتار تولید کند. این مدل از صداهای شبهانسانی متنوع، چندزبانگی و گویشهای مختلف پشتیبانی میکند و در کاربردهایی مانند تولید محتوا، تشخیص بصری و دستیار صوتی قابل استفاده است."
|
|
3016
3021
|
},
|
|
3017
|
-
"qwen3-vl-235b-a22b-instruct": {
|
|
3018
|
-
|
|
3019
|
-
},
|
|
3020
|
-
"qwen3-vl-
|
|
3021
|
-
|
|
3022
|
-
},
|
|
3023
|
-
"qwen3-vl-30b-a3b-instruct": {
|
|
3024
|
-
"description": "Qwen3 VL 30B در حالت غیرتفکری (Instruct) برای سناریوهای معمول پیروی از دستورالعمل طراحی شده و توانایی درک و تولید چندرسانهای بالایی را حفظ میکند."
|
|
3025
|
-
},
|
|
3026
|
-
"qwen3-vl-30b-a3b-thinking": {
|
|
3027
|
-
"description": "Qwen-VL (نسخه متنباز) توانایی درک بصری و تولید متن را ارائه میدهد و از تعامل با عاملها، رمزگذاری بصری، درک فضایی، تحلیل ویدیوهای طولانی و تفکر عمیق پشتیبانی میکند. همچنین در سناریوهای پیچیده، توانایی تشخیص متن و پشتیبانی چندزبانه قویتری دارد."
|
|
3028
|
-
},
|
|
3029
|
-
"qwen3-vl-8b-instruct": {
|
|
3030
|
-
"description": "Qwen3 VL 8B در حالت غیرتفکری (Instruct) برای وظایف معمول تولید و شناسایی چندرسانهای مناسب است."
|
|
3031
|
-
},
|
|
3032
|
-
"qwen3-vl-8b-thinking": {
|
|
3033
|
-
"description": "Qwen3 VL 8B در حالت تفکری برای سناریوهای سبک استدلال چندرسانهای و تعامل طراحی شده و توانایی درک متون با زمینه طولانی را حفظ میکند."
|
|
3034
|
-
},
|
|
3022
|
+
"qwen3-vl-235b-a22b-instruct": {},
|
|
3023
|
+
"qwen3-vl-235b-a22b-thinking": {},
|
|
3024
|
+
"qwen3-vl-30b-a3b-instruct": {},
|
|
3025
|
+
"qwen3-vl-30b-a3b-thinking": {},
|
|
3026
|
+
"qwen3-vl-8b-instruct": {},
|
|
3027
|
+
"qwen3-vl-8b-thinking": {},
|
|
3035
3028
|
"qwen3-vl-flash": {
|
|
3036
3029
|
"description": "Qwen3 VL Flash نسخهای سبک و با سرعت بالای استدلال است که برای سناریوهای حساس به تأخیر یا درخواستهای حجیم مناسب میباشد."
|
|
3037
3030
|
},
|