@lobehub/chat 1.106.3 → 1.106.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +33 -0
- package/apps/desktop/src/preload/routeInterceptor.ts +28 -0
- package/changelog/v1.json +12 -0
- package/locales/ar/models.json +164 -5
- package/locales/bg-BG/models.json +164 -5
- package/locales/de-DE/models.json +164 -5
- package/locales/en-US/models.json +164 -5
- package/locales/es-ES/models.json +164 -5
- package/locales/fa-IR/models.json +164 -5
- package/locales/fr-FR/models.json +164 -5
- package/locales/it-IT/models.json +164 -5
- package/locales/ja-JP/models.json +164 -5
- package/locales/ko-KR/models.json +164 -5
- package/locales/nl-NL/models.json +164 -5
- package/locales/pl-PL/models.json +164 -5
- package/locales/pt-BR/models.json +164 -5
- package/locales/ru-RU/models.json +164 -5
- package/locales/tr-TR/models.json +164 -5
- package/locales/vi-VN/models.json +164 -5
- package/locales/zh-CN/models.json +164 -5
- package/locales/zh-TW/models.json +164 -5
- package/package.json +1 -1
- package/src/server/services/mcp/index.test.ts +161 -0
- package/src/server/services/mcp/index.ts +4 -1
@@ -32,6 +32,9 @@
|
|
32
32
|
"4.0Ultra": {
|
33
33
|
"description": "Spark Ultra قدرتمندترین نسخه از سری مدلهای بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصهسازی محتوای متنی را بهبود میبخشد. این یک راهحل جامع برای افزایش بهرهوری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته میشود."
|
34
34
|
},
|
35
|
+
"AnimeSharp": {
|
36
|
+
"description": "AnimeSharp (که با نام \"4x‑AnimeSharp\" نیز شناخته میشود) یک مدل ابررزولوشن متنباز است که توسط Kim2091 بر اساس معماری ESRGAN توسعه یافته است و بر بزرگنمایی و تیزکردن تصاویر با سبک انیمه تمرکز دارد. این مدل در فوریه ۲۰۲۲ از \"4x-TextSharpV1\" تغییر نام داد و در ابتدا برای تصاویر متنی نیز کاربرد داشت اما عملکرد آن به طور قابل توجهی برای محتوای انیمه بهینه شده است."
|
37
|
+
},
|
35
38
|
"Baichuan2-Turbo": {
|
36
39
|
"description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزهای و دانش کل وب متصل میکند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرسهای وب پشتیبانی میکند. اطلاعات بهموقع و جامع دریافت میشود و نتایج خروجی دقیق و حرفهای هستند."
|
37
40
|
},
|
@@ -89,6 +92,9 @@
|
|
89
92
|
"Doubao-pro-4k": {
|
90
93
|
"description": "مدل اصلی با بهترین عملکرد، مناسب برای انجام وظایف پیچیده است و در زمینههایی مانند پاسخ به سوالات مرجع، خلاصهسازی، خلق محتوا، دستهبندی متن و نقشآفرینی عملکرد بسیار خوبی دارد. از پنجره متنی 4k برای استدلال و تنظیم دقیق پشتیبانی میکند."
|
91
94
|
},
|
95
|
+
"DreamO": {
|
96
|
+
"description": "DreamO یک مدل تولید تصویر سفارشی متنباز است که توسط شرکت بایتدنس و دانشگاه پکن به صورت مشترک توسعه یافته است و هدف آن پشتیبانی از تولید چندوظیفهای تصویر از طریق معماری یکپارچه است. این مدل از روش مدلسازی ترکیبی کارآمد استفاده میکند و میتواند تصاویر بسیار سازگار و سفارشیشدهای را بر اساس شرایطی مانند هویت، موضوع، سبک و پسزمینه که توسط کاربر تعیین میشود، تولید کند."
|
97
|
+
},
|
92
98
|
"ERNIE-3.5-128K": {
|
93
99
|
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین کند."
|
94
100
|
},
|
@@ -122,15 +128,39 @@
|
|
122
128
|
"ERNIE-Speed-Pro-128K": {
|
123
129
|
"description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو بهطور مستقل توسعه یافته است. این مدل دارای تواناییهای عمومی برجستهای است و عملکرد بهتری نسبت به ERNIE Speed دارد. مناسب برای استفاده به عنوان مدل پایه برای تنظیم دقیق و حل بهتر مسائل در سناریوهای خاص، همچنین دارای عملکرد استنتاجی بسیار عالی است."
|
124
130
|
},
|
131
|
+
"FLUX.1-Kontext-dev": {
|
132
|
+
"description": "FLUX.1-Kontext-dev یک مدل تولید و ویرایش تصویر چندرسانهای است که توسط Black Forest Labs توسعه یافته و بر اساس معماری Rectified Flow Transformer ساخته شده است. این مدل با 12 میلیارد پارامتر، بر تولید، بازسازی، تقویت یا ویرایش تصاویر تحت شرایط متنی تمرکز دارد. این مدل ترکیبی از مزایای تولید کنترلشده مدلهای انتشار و قابلیت مدلسازی زمینهای ترنسفورمر است و از خروجی تصاویر با کیفیت بالا پشتیبانی میکند و در وظایفی مانند ترمیم تصویر، تکمیل تصویر و بازسازی صحنههای بصری کاربرد گسترده دارد."
|
133
|
+
},
|
134
|
+
"FLUX.1-dev": {
|
135
|
+
"description": "FLUX.1-dev یک مدل زبان چندرسانهای متنباز است که توسط Black Forest Labs توسعه یافته و برای وظایف ترکیبی تصویر و متن بهینه شده است. این مدل بر پایه مدلهای زبان بزرگ پیشرفته مانند Mistral-7B ساخته شده و با استفاده از رمزگذار بصری طراحیشده و تنظیم دقیق چندمرحلهای دستوری، توانایی پردازش همزمان تصویر و متن و استدلال در وظایف پیچیده را دارد."
|
136
|
+
},
|
125
137
|
"Gryphe/MythoMax-L2-13b": {
|
126
138
|
"description": "MythoMax-L2 (13B) یک مدل نوآورانه است که برای کاربردهای چندرشتهای و وظایف پیچیده مناسب است."
|
127
139
|
},
|
140
|
+
"HelloMeme": {
|
141
|
+
"description": "HelloMeme یک ابزار هوش مصنوعی است که میتواند بر اساس تصاویر یا حرکاتی که شما ارائه میدهید، به طور خودکار میم، گیف یا ویدیوهای کوتاه تولید کند. این ابزار نیازی به دانش نقاشی یا برنامهنویسی ندارد و تنها با داشتن تصاویر مرجع، میتواند محتوایی زیبا، سرگرمکننده و با سبک یکپارچه برای شما بسازد."
|
142
|
+
},
|
143
|
+
"HiDream-I1-Full": {
|
144
|
+
"description": "HiDream-E1-Full یک مدل بزرگ ویرایش تصویر چندرسانهای متنباز است که توسط HiDream.ai توسعه یافته است. این مدل بر پایه معماری پیشرفته Diffusion Transformer ساخته شده و با توانایی قوی درک زبان (با LLaMA 3.1-8B-Instruct داخلی) از طریق دستورات زبان طبیعی، تولید تصویر، انتقال سبک، ویرایش موضعی و بازنقاشی محتوا را پشتیبانی میکند و دارای قابلیتهای برجسته در درک و اجرای ترکیب تصویر و متن است."
|
145
|
+
},
|
146
|
+
"HunyuanDiT-v1.2-Diffusers-Distilled": {
|
147
|
+
"description": "hunyuandit-v1.2-distilled یک مدل سبک تولید تصویر از متن است که با استفاده از تکنیک تقطیر بهینه شده و قادر است به سرعت تصاویر با کیفیت بالا تولید کند، به ویژه مناسب محیطهای با منابع محدود و وظایف تولید در زمان واقعی است."
|
148
|
+
},
|
149
|
+
"InstantCharacter": {
|
150
|
+
"description": "InstantCharacter یک مدل تولید شخصیت شخصیسازی شده بدون نیاز به تنظیم دقیق است که توسط تیم هوش مصنوعی Tencent در سال ۲۰۲۵ منتشر شده است. هدف این مدل تولید شخصیتهای با وفاداری بالا و سازگار در صحنههای مختلف است. این مدل تنها با یک تصویر مرجع قادر به مدلسازی شخصیت است و میتواند آن را به سبکها، حرکات و پسزمینههای مختلف به طور انعطافپذیر منتقل کند."
|
151
|
+
},
|
128
152
|
"InternVL2-8B": {
|
129
153
|
"description": "InternVL2-8B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی میکند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخهای مرتبط تولید کند."
|
130
154
|
},
|
131
155
|
"InternVL2.5-26B": {
|
132
156
|
"description": "InternVL2.5-26B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی میکند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخهای مرتبط تولید کند."
|
133
157
|
},
|
158
|
+
"Kolors": {
|
159
|
+
"description": "Kolors یک مدل تولید تصویر از متن است که توسط تیم Kolors شرکت Kuaishou توسعه یافته است. این مدل با میلیاردها پارامتر آموزش دیده و در کیفیت بصری، درک معنایی زبان چینی و رندر متن عملکرد برجستهای دارد."
|
160
|
+
},
|
161
|
+
"Kwai-Kolors/Kolors": {
|
162
|
+
"description": "Kolors یک مدل بزرگ تولید تصویر از متن مبتنی بر انتشار نهفته است که توسط تیم Kolors شرکت Kuaishou توسعه یافته است. این مدل با آموزش روی میلیاردها جفت متن-تصویر، در کیفیت بصری، دقت معنایی پیچیده و رندر کاراکترهای چینی و انگلیسی عملکرد برجستهای دارد. این مدل نه تنها از ورودیهای چینی و انگلیسی پشتیبانی میکند بلکه در درک و تولید محتوای خاص زبان چینی نیز بسیار توانمند است."
|
163
|
+
},
|
134
164
|
"Llama-3.2-11B-Vision-Instruct": {
|
135
165
|
"description": "توانایی استدلال تصویری عالی در تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری."
|
136
166
|
},
|
@@ -164,9 +194,15 @@
|
|
164
194
|
"MiniMaxAI/MiniMax-M1-80k": {
|
165
195
|
"description": "MiniMax-M1 یک مدل استنتاج بزرگ با وزنهای متنباز و توجه ترکیبی است که دارای ۴۵۶ میلیارد پارامتر است و هر توکن میتواند حدود ۴۵.۹ میلیارد پارامتر را فعال کند. این مدل به طور بومی از زمینه بسیار طولانی ۱ میلیون توکن پشتیبانی میکند و با مکانیزم توجه سریع، در وظایف تولید ۱۰۰ هزار توکن نسبت به DeepSeek R1، ۷۵٪ از محاسبات نقطه شناور را صرفهجویی میکند. همچنین، MiniMax-M1 از معماری MoE (متخصصان ترکیبی) بهره میبرد و با ترکیب الگوریتم CISPO و طراحی توجه ترکیبی در آموزش تقویتی کارآمد، عملکرد پیشرو در صنعت را در استنتاج ورودیهای طولانی و سناریوهای واقعی مهندسی نرمافزار ارائه میدهد."
|
166
196
|
},
|
197
|
+
"Moonshot-Kimi-K2-Instruct": {
|
198
|
+
"description": "مدل با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در میان مدلهای غیرتفکری، در دانش پیشرفته، ریاضیات و برنامهنویسی در سطح برتر قرار دارد و در وظایف عامل عمومی تخصص دارد. به طور ویژه برای وظایف نمایندگی بهینه شده است، نه تنها قادر به پاسخگویی به سوالات بلکه قادر به انجام اقدامات است. بهترین گزینه برای گفتگوهای بداهه، چت عمومی و تجربههای نمایندگی است و یک مدل واکنشی بدون نیاز به تفکر طولانی مدت محسوب میشود."
|
199
|
+
},
|
167
200
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
168
201
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است."
|
169
202
|
},
|
203
|
+
"OmniConsistency": {
|
204
|
+
"description": "OmniConsistency با معرفی مدلهای بزرگ Diffusion Transformers (DiTs) و دادههای سبکدار جفتشده، انسجام سبک و قابلیت تعمیم در وظایف تصویر به تصویر (Image-to-Image) را بهبود میبخشد و از افت کیفیت سبک جلوگیری میکند."
|
205
|
+
},
|
170
206
|
"Phi-3-medium-128k-instruct": {
|
171
207
|
"description": "همان مدل Phi-3-medium، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
|
172
208
|
},
|
@@ -218,6 +254,9 @@
|
|
218
254
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
219
255
|
"description": "DeepSeek-V3 یک مدل زبان با 671 میلیارد پارامتر است که از معماری متخصصان ترکیبی (MoE) و توجه چندسر (MLA) استفاده میکند و با استراتژی تعادل بار بدون ضرر کمکی بهینهسازی کارایی استنتاج و آموزش را انجام میدهد. این مدل با پیشآموزش بر روی 14.8 تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، در عملکرد از سایر مدلهای متنباز پیشی میگیرد و به مدلهای بسته پیشرو نزدیک میشود."
|
220
256
|
},
|
257
|
+
"Pro/moonshotai/Kimi-K2-Instruct": {
|
258
|
+
"description": "Kimi K2 یک مدل پایه با معماری MoE است که دارای تواناییهای بسیار قوی در کدنویسی و عامل است، با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در آزمونهای معیار عملکرد در حوزههای دانش عمومی، برنامهنویسی، ریاضیات و عامل، مدل K2 عملکردی فراتر از سایر مدلهای متنباز اصلی دارد."
|
259
|
+
},
|
221
260
|
"QwQ-32B-Preview": {
|
222
261
|
"description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است."
|
223
262
|
},
|
@@ -278,6 +317,12 @@
|
|
278
317
|
"Qwen/Qwen3-235B-A22B": {
|
279
318
|
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
|
280
319
|
},
|
320
|
+
"Qwen/Qwen3-235B-A22B-Instruct-2507": {
|
321
|
+
"description": "Qwen3-235B-A22B-Instruct-2507 یک مدل زبان بزرگ ترکیبی (MoE) پرچمدار از سری Qwen3 است که توسط تیم Tongyi Qianwen شرکت علیبابا توسعه یافته است. این مدل دارای 235 میلیارد پارامتر کل و 22 میلیارد پارامتر فعال در هر استنتاج است. نسخه بهروزشدهای از حالت غیرتفکری Qwen3-235B-A22B است که تمرکز بر بهبود قابل توجه در پیروی از دستورالعملها، استدلال منطقی، درک متن، ریاضیات، علوم، برنامهنویسی و استفاده از ابزارها دارد. همچنین پوشش دانش چندزبانه و ترجیحات کاربر در وظایف ذهنی و باز را بهبود بخشیده تا متنهای مفیدتر و با کیفیت بالاتری تولید کند."
|
322
|
+
},
|
323
|
+
"Qwen/Qwen3-235B-A22B-Thinking-2507": {
|
324
|
+
"description": "Qwen3-235B-A22B-Thinking-2507 عضوی از سری مدلهای بزرگ زبان Qwen3 است که توسط تیم Tongyi Qianwen شرکت علیبابا توسعه یافته و بر وظایف استدلال پیچیده و دشوار تمرکز دارد. این مدل بر پایه معماری MoE با 235 میلیارد پارامتر کل ساخته شده و در هر توکن حدود 22 میلیارد پارامتر فعال میکند که باعث افزایش کارایی محاسباتی در عین حفظ قدرت عملکرد میشود. به عنوان یک مدل اختصاصی \"تفکر\"، در استدلال منطقی، ریاضیات، علوم، برنامهنویسی و آزمونهای علمی که نیازمند تخصص انسانی هستند، عملکرد برجستهای دارد و در میان مدلهای تفکری متنباز در سطح برتر قرار دارد. همچنین تواناییهای عمومی مانند پیروی از دستورالعملها، استفاده از ابزار و تولید متن را تقویت کرده و به طور بومی از درک متنهای طولانی تا 256 هزار توکن پشتیبانی میکند که برای سناریوهای نیازمند استدلال عمیق و پردازش اسناد طولانی بسیار مناسب است."
|
325
|
+
},
|
281
326
|
"Qwen/Qwen3-30B-A3B": {
|
282
327
|
"description": "Qwen3 یک مدل بزرگ جدید با تواناییهای بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی میکند."
|
283
328
|
},
|
@@ -944,6 +989,9 @@
|
|
944
989
|
"doubao-seed-1.6-thinking": {
|
945
990
|
"description": "مدل Doubao-Seed-1.6-thinking با توانایی تفکر بهطور قابل توجهی تقویت شده است، نسبت به Doubao-1.5-thinking-pro در مهارتهای پایهای مانند برنامهنویسی، ریاضیات و استدلال منطقی پیشرفت داشته و از درک تصویری پشتیبانی میکند. از پنجره متنی ۲۵۶ هزار توکنی پشتیبانی میکند و طول خروجی تا ۱۶ هزار توکن را امکانپذیر میسازد."
|
946
991
|
},
|
992
|
+
"doubao-seedream-3-0-t2i-250415": {
|
993
|
+
"description": "مدل تولید تصویر Doubao توسط تیم Seed شرکت بایتدنس توسعه یافته است و از ورودیهای متن و تصویر پشتیبانی میکند و تجربه تولید تصویر با کنترل بالا و کیفیت عالی را ارائه میدهد. تصاویر بر اساس متن توصیفی تولید میشوند."
|
994
|
+
},
|
947
995
|
"doubao-vision-lite-32k": {
|
948
996
|
"description": "مدل Doubao-vision یک مدل چندرسانهای بزرگ است که توسط Doubao ارائه شده و دارای تواناییهای قوی در درک و استدلال تصاویر و همچنین درک دقیق دستورات است. این مدل در استخراج اطلاعات متنی از تصاویر و وظایف استدلال مبتنی بر تصویر عملکرد قدرتمندی نشان داده و میتواند در وظایف پیچیدهتر و گستردهتر پرسش و پاسخ بصری به کار رود."
|
949
997
|
},
|
@@ -995,6 +1043,9 @@
|
|
995
1043
|
"ernie-char-fiction-8k": {
|
996
1044
|
"description": "مدل زبان بزرگ با کاربرد خاص که توسط بایدو توسعه یافته است و برای کاربردهایی مانند NPCهای بازی، مکالمات خدمات مشتری، و نقشآفرینی در مکالمات مناسب است، سبک شخصیت آن واضحتر و یکدستتر است و توانایی پیروی از دستورات و عملکرد استدلال بهتری دارد."
|
997
1045
|
},
|
1046
|
+
"ernie-irag-edit": {
|
1047
|
+
"description": "مدل ویرایش تصویر ERNIE iRAG که توسط بایدو توسعه یافته است، از عملیاتهایی مانند حذف (erase)، بازنقاشی (repaint) و تولید واریاسیون (variation) بر اساس تصویر پشتیبانی میکند."
|
1048
|
+
},
|
998
1049
|
"ernie-lite-8k": {
|
999
1050
|
"description": "ERNIE Lite مدل زبان بزرگ سبک خود توسعه یافته توسط بایدو است که تعادل خوبی بین عملکرد مدل و عملکرد استدلال دارد و برای استفاده در کارتهای تسریع AI با توان محاسباتی پایین مناسب است."
|
1000
1051
|
},
|
@@ -1022,12 +1073,27 @@
|
|
1022
1073
|
"ernie-x1-turbo-32k": {
|
1023
1074
|
"description": "مدل نسبت به ERNIE-X1-32K از نظر عملکرد و کارایی بهتر است."
|
1024
1075
|
},
|
1076
|
+
"flux-1-schnell": {
|
1077
|
+
"description": "مدل تولید تصویر از متن با 12 میلیارد پارامتر که توسط Black Forest Labs توسعه یافته است و از تکنولوژی تقطیر انتشار متخاصم نهفته استفاده میکند و قادر است در 1 تا 4 مرحله تصاویر با کیفیت بالا تولید کند. این مدل عملکردی مشابه نمونههای بسته دارد و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است."
|
1078
|
+
},
|
1079
|
+
"flux-dev": {
|
1080
|
+
"description": "FLUX.1 [dev] یک مدل وزن باز و پالایش شده متنباز برای کاربردهای غیرتجاری است. این مدل کیفیت تصویر و پیروی از دستورالعمل را نزدیک به نسخه حرفهای FLUX حفظ کرده و در عین حال کارایی اجرایی بالاتری دارد. نسبت به مدلهای استاندارد با اندازه مشابه، بهرهوری منابع بهتری دارد."
|
1081
|
+
},
|
1025
1082
|
"flux-kontext/dev": {
|
1026
1083
|
"description": "مدل ویرایش تصویر Frontier."
|
1027
1084
|
},
|
1085
|
+
"flux-merged": {
|
1086
|
+
"description": "مدل FLUX.1-merged ترکیبی از ویژگیهای عمیق کشف شده در مرحله توسعه \"DEV\" و مزایای اجرای سریع \"Schnell\" است. این اقدام باعث افزایش مرزهای عملکرد مدل و گسترش دامنه کاربردهای آن شده است."
|
1087
|
+
},
|
1028
1088
|
"flux-pro/kontext": {
|
1029
1089
|
"description": "FLUX.1 Kontext [pro] قادر است متن و تصاویر مرجع را به عنوان ورودی پردازش کند و ویرایشهای موضعی هدفمند و تغییرات پیچیده در کل صحنه را بهصورت یکپارچه انجام دهد."
|
1030
1090
|
},
|
1091
|
+
"flux-schnell": {
|
1092
|
+
"description": "FLUX.1 [schnell] به عنوان پیشرفتهترین مدل متنباز با گامهای کم، نه تنها از رقبا پیشی گرفته بلکه از مدلهای غیرتقطیر قدرتمندی مانند Midjourney v6.0 و DALL·E 3 (HD) نیز بهتر است. این مدل به طور خاص تنظیم شده تا تنوع کامل خروجیهای پیشآموزش را حفظ کند و نسبت به مدلهای پیشرفته بازار، بهبودهای قابل توجهی در کیفیت بصری، پیروی از دستورالعمل، تغییر اندازه/نسبت، پردازش فونت و تنوع خروجی ارائه میدهد و تجربه تولید تصاویر خلاقانه و متنوعتری را برای کاربران فراهم میکند."
|
1093
|
+
},
|
1094
|
+
"flux.1-schnell": {
|
1095
|
+
"description": "ترنسفورمر جریان اصلاحشده با 12 میلیارد پارامتر که قادر است تصاویر را بر اساس توصیف متنی تولید کند."
|
1096
|
+
},
|
1031
1097
|
"flux/schnell": {
|
1032
1098
|
"description": "FLUX.1 [schnell] یک مدل تبدیل جریانی با 12 میلیارد پارامتر است که میتواند در 1 تا 4 مرحله تصاویر با کیفیت بالا را از متن تولید کند و برای استفاده شخصی و تجاری مناسب است."
|
1033
1099
|
},
|
@@ -1109,9 +1175,6 @@
|
|
1109
1175
|
"gemini-2.5-flash-preview-04-17": {
|
1110
1176
|
"description": "پیشنمایش فلش Gemini 2.5 مدل با بهترین قیمت و کیفیت گوگل است که امکانات جامع و کاملی را ارائه میدهد."
|
1111
1177
|
},
|
1112
|
-
"gemini-2.5-flash-preview-04-17-thinking": {
|
1113
|
-
"description": "Gemini 2.5 Flash Preview مقرونبهصرفهترین مدل گوگل است که امکانات جامع ارائه میدهد."
|
1114
|
-
},
|
1115
1178
|
"gemini-2.5-flash-preview-05-20": {
|
1116
1179
|
"description": "Gemini 2.5 Flash Preview مقرونبهصرفهترین مدل گوگل است که امکانات جامع ارائه میدهد."
|
1117
1180
|
},
|
@@ -1190,6 +1253,21 @@
|
|
1190
1253
|
"glm-4.1v-thinking-flashx": {
|
1191
1254
|
"description": "سری مدلهای GLM-4.1V-Thinking قویترین مدلهای زبان تصویری (VLM) در سطح 10 میلیارد پارامتر شناخته شده تا کنون هستند که وظایف زبان تصویری پیشرفته همرده SOTA را شامل میشوند، از جمله درک ویدئو، پرسش و پاسخ تصویری، حل مسائل علمی، شناسایی متن OCR، تفسیر اسناد و نمودارها، عاملهای رابط کاربری گرافیکی، کدنویسی صفحات وب فرانتاند، و گراندینگ. تواناییهای این مدلها حتی از مدل Qwen2.5-VL-72B با 8 برابر پارامتر بیشتر نیز فراتر رفته است. با استفاده از فناوری پیشرفته یادگیری تقویتی، مدل توانسته است با استدلال زنجیره تفکر دقت و غنای پاسخها را افزایش دهد و از نظر نتایج نهایی و قابلیت تبیین به طور قابل توجهی از مدلهای غیرتفکری سنتی پیشی بگیرد."
|
1192
1255
|
},
|
1256
|
+
"glm-4.5": {
|
1257
|
+
"description": "جدیدترین مدل پرچمدار Zhizhu که از حالت تفکر پشتیبانی میکند و تواناییهای جامع آن به سطح SOTA مدلهای متنباز رسیده است و طول زمینه تا 128 هزار توکن را پشتیبانی میکند."
|
1258
|
+
},
|
1259
|
+
"glm-4.5-air": {
|
1260
|
+
"description": "نسخه سبک GLM-4.5 که تعادل بین عملکرد و هزینه را حفظ میکند و امکان تغییر انعطافپذیر بین مدلهای تفکر ترکیبی را فراهم میآورد."
|
1261
|
+
},
|
1262
|
+
"glm-4.5-airx": {
|
1263
|
+
"description": "نسخه فوقالعاده سریع GLM-4.5-Air که پاسخگویی سریعتری دارد و برای نیازهای بزرگ و سرعت بالا طراحی شده است."
|
1264
|
+
},
|
1265
|
+
"glm-4.5-flash": {
|
1266
|
+
"description": "نسخه رایگان GLM-4.5 که در وظایفی مانند استنتاج، کدنویسی و عاملها عملکرد خوبی دارد."
|
1267
|
+
},
|
1268
|
+
"glm-4.5-x": {
|
1269
|
+
"description": "نسخه فوقالعاده سریع GLM-4.5 که در کنار قدرت عملکرد، سرعت تولید تا 100 توکن در ثانیه را ارائه میدهد."
|
1270
|
+
},
|
1193
1271
|
"glm-4v": {
|
1194
1272
|
"description": "GLM-4V قابلیتهای قدرتمندی در درک و استدلال تصویری ارائه میدهد و از وظایف مختلف بصری پشتیبانی میکند."
|
1195
1273
|
},
|
@@ -1209,7 +1287,7 @@
|
|
1209
1287
|
"description": "استدلال فوقالعاده سریع: دارای سرعت استدلال بسیار بالا و عملکرد قوی است."
|
1210
1288
|
},
|
1211
1289
|
"glm-z1-flash": {
|
1212
|
-
"description": "سری GLM-Z1 دارای تواناییهای
|
1290
|
+
"description": "سری GLM-Z1 دارای تواناییهای قوی در استدلال پیچیده است و در زمینههای استدلال منطقی، ریاضیات و برنامهنویسی عملکرد برجستهای دارد."
|
1213
1291
|
},
|
1214
1292
|
"glm-z1-flashx": {
|
1215
1293
|
"description": "سرعت بالا و قیمت پایین: نسخه تقویتشده Flash با سرعت استنتاج بسیار سریعتر و تضمین همزمانی بالاتر."
|
@@ -1385,6 +1463,9 @@
|
|
1385
1463
|
"grok-2-1212": {
|
1386
1464
|
"description": "این مدل در دقت، پیروی از دستورات و توانایی چند زبانه بهبود یافته است."
|
1387
1465
|
},
|
1466
|
+
"grok-2-image-1212": {
|
1467
|
+
"description": "جدیدترین مدل تولید تصویر ما قادر است تصاویر زنده و واقعی را بر اساس متن توصیفی تولید کند. این مدل در زمینه تولید تصویر برای بازاریابی، رسانههای اجتماعی و سرگرمی عملکرد برجستهای دارد."
|
1468
|
+
},
|
1388
1469
|
"grok-2-vision-1212": {
|
1389
1470
|
"description": "این مدل در دقت، پیروی از دستورات و توانایی چند زبانه بهبود یافته است."
|
1390
1471
|
},
|
@@ -1454,6 +1535,9 @@
|
|
1454
1535
|
"hunyuan-t1-20250529": {
|
1455
1536
|
"description": "بهینهسازی تولید متن، نوشتن مقاله، بهبود تواناییهای کدنویسی فرانتاند، ریاضیات، استدلال منطقی و علوم پایه، و ارتقاء توانایی پیروی از دستورالعملها."
|
1456
1537
|
},
|
1538
|
+
"hunyuan-t1-20250711": {
|
1539
|
+
"description": "افزایش قابل توجه در تواناییهای ریاضی، منطقی و کدنویسی پیچیده، بهینهسازی پایداری خروجی مدل و ارتقاء توانایی مدل در پردازش متون طولانی."
|
1540
|
+
},
|
1457
1541
|
"hunyuan-t1-latest": {
|
1458
1542
|
"description": "اولین مدل استدلال هیبریدی-ترنسفورمر-مامبا با مقیاس فوقالعاده بزرگ در صنعت، که توانایی استدلال را گسترش میدهد و سرعت رمزگشایی فوقالعادهای دارد و به طور بیشتری با ترجیحات انسانی همراستا میشود."
|
1459
1543
|
},
|
@@ -1502,6 +1586,12 @@
|
|
1502
1586
|
"hunyuan-vision": {
|
1503
1587
|
"description": "جدیدترین مدل چندوجهی هونیوان، پشتیبانی از ورودی تصویر + متن برای تولید محتوای متنی."
|
1504
1588
|
},
|
1589
|
+
"image-01": {
|
1590
|
+
"description": "مدل جدید تولید تصویر با نمایش ظریف و پشتیبانی از تولید تصویر از متن و تصویر."
|
1591
|
+
},
|
1592
|
+
"image-01-live": {
|
1593
|
+
"description": "مدل تولید تصویر با نمایش ظریف که از تولید تصویر از متن پشتیبانی میکند و امکان تنظیم سبک نقاشی را دارد."
|
1594
|
+
},
|
1505
1595
|
"imagen-4.0-generate-preview-06-06": {
|
1506
1596
|
"description": "سری مدل متن به تصویر نسل چهارم Imagen"
|
1507
1597
|
},
|
@@ -1526,6 +1616,9 @@
|
|
1526
1616
|
"internvl3-latest": {
|
1527
1617
|
"description": "ما جدیدترین مدل بزرگ چندرسانهای خود را منتشر کردهایم که دارای تواناییهای قویتر در درک متن و تصویر و درک تصاویر در زمانهای طولانی است و عملکرد آن با مدلهای برتر بسته به منبع قابل مقایسه است. به طور پیشفرض به جدیدترین مدلهای سری InternVL ما اشاره دارد که در حال حاضر به internvl3-78b اشاره دارد."
|
1528
1618
|
},
|
1619
|
+
"irag-1.0": {
|
1620
|
+
"description": "iRAG (image based RAG) که توسط بایدو توسعه یافته، فناوری تولید تصویر تقویتشده با بازیابی است که منابع میلیاردی تصاویر جستجوی بایدو را با تواناییهای مدل پایه قدرتمند ترکیب میکند تا تصاویر بسیار واقعی تولید کند. این سیستم به طور قابل توجهی از سیستمهای تولید تصویر بومی بهتر است، بدون حس مصنوعی بودن و با هزینه پایین. iRAG ویژگیهایی مانند بدون توهم، فوقالعاده واقعی و آماده تحویل فوری دارد."
|
1621
|
+
},
|
1529
1622
|
"jamba-large": {
|
1530
1623
|
"description": "قدرتمندترین و پیشرفتهترین مدل ما، که بهطور خاص برای پردازش وظایف پیچیده در سطح سازمانی طراحی شده و دارای عملکرد فوقالعادهای است."
|
1531
1624
|
},
|
@@ -1535,6 +1628,9 @@
|
|
1535
1628
|
"jina-deepsearch-v1": {
|
1536
1629
|
"description": "جستجوی عمیق ترکیبی از جستجوی اینترنتی، خواندن و استدلال است که میتواند تحقیقات جامع را انجام دهد. میتوانید آن را به عنوان یک نماینده در نظر بگیرید که وظایف تحقیق شما را میپذیرد - این نماینده جستجوی گستردهای انجام میدهد و پس از چندین بار تکرار، پاسخ را ارائه میدهد. این فرآیند شامل تحقیق مداوم، استدلال و حل مسئله از زوایای مختلف است. این با مدلهای بزرگ استاندارد که مستقیماً از دادههای پیشآموزش شده پاسخ تولید میکنند و سیستمهای RAG سنتی که به جستجوی سطحی یکباره وابستهاند، تفاوت اساسی دارد."
|
1537
1630
|
},
|
1631
|
+
"kimi-k2": {
|
1632
|
+
"description": "Kimi-K2 یک مدل پایه با معماری MoE است که توسط Moonshot AI ارائه شده و دارای تواناییهای بسیار قوی در کدنویسی و عامل است، با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در آزمونهای معیار عملکرد در حوزههای دانش عمومی، برنامهنویسی، ریاضیات و عامل، مدل K2 عملکردی فراتر از سایر مدلهای متنباز اصلی دارد."
|
1633
|
+
},
|
1538
1634
|
"kimi-k2-0711-preview": {
|
1539
1635
|
"description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای تواناییهای بسیار قوی در کدنویسی و عاملسازی است، با مجموع یک تریلیون پارامتر و 32 میلیارد پارامتر فعال. در تستهای معیار عملکرد در حوزههای دانش عمومی، برنامهنویسی، ریاضیات و عاملها، مدل K2 عملکردی فراتر از سایر مدلهای متنباز اصلی دارد."
|
1540
1636
|
},
|
@@ -1928,6 +2024,9 @@
|
|
1928
2024
|
"moonshotai/Kimi-Dev-72B": {
|
1929
2025
|
"description": "Kimi-Dev-72B یک مدل بزرگ کد منبع باز است که با یادگیری تقویتی گسترده بهینه شده است و قادر به تولید پچهای پایدار و قابل استفاده مستقیم در تولید میباشد. این مدل در SWE-bench Verified امتیاز جدید ۶۰.۴٪ را کسب کرده و رکورد مدلهای منبع باز را در وظایف مهندسی نرمافزار خودکار مانند رفع اشکال و بازبینی کد شکسته است."
|
1930
2026
|
},
|
2027
|
+
"moonshotai/Kimi-K2-Instruct": {
|
2028
|
+
"description": "Kimi K2 یک مدل پایه با معماری MoE است که دارای تواناییهای بسیار قوی در کدنویسی و عامل است، با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در آزمونهای معیار عملکرد در حوزههای دانش عمومی، برنامهنویسی، ریاضیات و عامل، مدل K2 عملکردی فراتر از سایر مدلهای متنباز اصلی دارد."
|
2029
|
+
},
|
1931
2030
|
"moonshotai/kimi-k2-instruct": {
|
1932
2031
|
"description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای تواناییهای بسیار قوی در کدنویسی و عاملها میباشد، با مجموع پارامتر ۱ تریلیون و پارامترهای فعال ۳۲ میلیارد. در آزمونهای معیار عملکرد در دستههای اصلی مانند استدلال دانش عمومی، برنامهنویسی، ریاضیات و عاملها، مدل K2 عملکردی فراتر از سایر مدلهای متنباز رایج دارد."
|
1933
2032
|
},
|
@@ -2264,6 +2363,12 @@
|
|
2264
2363
|
"qwen3-235b-a22b": {
|
2265
2364
|
"description": "Qwen3 یک مدل جدید نسل جدید با تواناییهای به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی میکند."
|
2266
2365
|
},
|
2366
|
+
"qwen3-235b-a22b-instruct-2507": {
|
2367
|
+
"description": "مدل متنباز حالت غیرتفکری مبتنی بر Qwen3 که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B) در توانایی خلاقیت ذهنی و ایمنی مدل بهبودهای جزئی داشته است."
|
2368
|
+
},
|
2369
|
+
"qwen3-235b-a22b-thinking-2507": {
|
2370
|
+
"description": "مدل متنباز حالت تفکری مبتنی بر Qwen3 که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B) در تواناییهای منطقی، عمومی، تقویت دانش و خلاقیت بهبودهای قابل توجهی داشته و برای سناریوهای استدلال پیچیده و دشوار مناسب است."
|
2371
|
+
},
|
2267
2372
|
"qwen3-30b-a3b": {
|
2268
2373
|
"description": "Qwen3 یک مدل جدید نسل جدید با تواناییهای به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی میکند."
|
2269
2374
|
},
|
@@ -2276,6 +2381,12 @@
|
|
2276
2381
|
"qwen3-8b": {
|
2277
2382
|
"description": "Qwen3 یک مدل جدید نسل جدید با تواناییهای به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی میکند."
|
2278
2383
|
},
|
2384
|
+
"qwen3-coder-480b-a35b-instruct": {
|
2385
|
+
"description": "نسخه متنباز مدل کدنویسی Tongyi Qianwen. جدیدترین مدل qwen3-coder-480b-a35b-instruct مبتنی بر Qwen3 است و دارای تواناییهای قوی عامل کدنویسی، مهارت در فراخوانی ابزارها و تعامل با محیط است و قادر به برنامهنویسی خودکار با توانایی کدنویسی برجسته و همچنین تواناییهای عمومی است."
|
2386
|
+
},
|
2387
|
+
"qwen3-coder-plus": {
|
2388
|
+
"description": "مدل کدنویسی Tongyi Qianwen. جدیدترین سری مدلهای Qwen3-Coder-Plus مبتنی بر Qwen3 است و دارای تواناییهای قوی عامل کدنویسی، مهارت در فراخوانی ابزارها و تعامل با محیط است و قادر به برنامهنویسی خودکار با توانایی کدنویسی برجسته و همچنین تواناییهای عمومی است."
|
2389
|
+
},
|
2279
2390
|
"qwq": {
|
2280
2391
|
"description": "QwQ یک مدل تحقیقاتی تجربی است که بر بهبود توانایی استدلال AI تمرکز دارد."
|
2281
2392
|
},
|
@@ -2318,6 +2429,24 @@
|
|
2318
2429
|
"sonar-reasoning-pro": {
|
2319
2430
|
"description": "محصول جدید API که توسط مدل استدلال DeepSeek پشتیبانی میشود."
|
2320
2431
|
},
|
2432
|
+
"stable-diffusion-3-medium": {
|
2433
|
+
"description": "جدیدترین مدل بزرگ تولید تصویر از متن که توسط Stability AI ارائه شده است. این نسخه با حفظ مزایای نسلهای قبلی، بهبودهای قابل توجهی در کیفیت تصویر، درک متن و تنوع سبکها دارد و قادر است دستورات پیچیده زبان طبیعی را دقیقتر تفسیر کرده و تصاویر دقیقتر و متنوعتری تولید کند."
|
2434
|
+
},
|
2435
|
+
"stable-diffusion-3.5-large": {
|
2436
|
+
"description": "stable-diffusion-3.5-large یک مدل مولد تصویر از متن مبتنی بر ترنسفورمر انتشار چندرسانهای (MMDiT) با 800 میلیون پارامتر است که کیفیت تصویر عالی و تطابق بالا با دستورات متنی دارد، قادر به تولید تصاویر با وضوح بالا تا 1 میلیون پیکسل است و میتواند به طور کارآمد روی سختافزارهای مصرفی معمول اجرا شود."
|
2437
|
+
},
|
2438
|
+
"stable-diffusion-3.5-large-turbo": {
|
2439
|
+
"description": "stable-diffusion-3.5-large-turbo مدلی است که بر پایه stable-diffusion-3.5-large ساخته شده و با استفاده از تکنولوژی تقطیر انتشار متخاصم (ADD) سرعت بالاتری دارد."
|
2440
|
+
},
|
2441
|
+
"stable-diffusion-v1.5": {
|
2442
|
+
"description": "stable-diffusion-v1.5 با وزنهای نقطه بررسی stable-diffusion-v1.2 آغاز شده و با 595 هزار مرحله تنظیم دقیق روی مجموعه \"laion-aesthetics v2 5+\" با وضوح 512x512 انجام شده است. این مدل 10٪ کاهش شرطبندی متنی دارد تا نمونهبرداری هدایتشده بدون طبقهبندیکننده را بهبود بخشد."
|
2443
|
+
},
|
2444
|
+
"stable-diffusion-xl": {
|
2445
|
+
"description": "stable-diffusion-xl نسبت به نسخه v1.5 بهبودهای قابل توجهی داشته و با مدلهای متنباز پیشرفته مانند midjourney قابل مقایسه است. بهبودها شامل: شبکه اصلی unet بزرگتر که سه برابر نسخه قبلی است؛ افزودن ماژول پالایش برای بهبود کیفیت تصاویر تولید شده؛ و تکنیکهای آموزش بهینهتر."
|
2446
|
+
},
|
2447
|
+
"stable-diffusion-xl-base-1.0": {
|
2448
|
+
"description": "مدل بزرگ تولید تصویر از متن که توسط Stability AI توسعه یافته و متنباز است و در تولید تصاویر خلاقانه در صنعت پیشرو است. دارای توانایی درک دقیق دستورات و پشتیبانی از تعریف معکوس Prompt برای تولید دقیق محتوا است."
|
2449
|
+
},
|
2321
2450
|
"step-1-128k": {
|
2322
2451
|
"description": "تعادل بین عملکرد و هزینه، مناسب برای سناریوهای عمومی."
|
2323
2452
|
},
|
@@ -2348,6 +2477,12 @@
|
|
2348
2477
|
"step-1v-8k": {
|
2349
2478
|
"description": "مدل بصری کوچک، مناسب برای وظایف پایهای تصویر و متن."
|
2350
2479
|
},
|
2480
|
+
"step-1x-edit": {
|
2481
|
+
"description": "این مدل بر وظایف ویرایش تصویر تمرکز دارد و قادر است بر اساس تصویر و توصیف متنی ارائه شده توسط کاربر، تصویر را اصلاح و بهبود بخشد. از فرمتهای ورودی مختلف از جمله توصیف متنی و تصاویر نمونه پشتیبانی میکند. مدل قادر به درک نیت کاربر و تولید نتایج ویرایش تصویر مطابق با خواستهها است."
|
2482
|
+
},
|
2483
|
+
"step-1x-medium": {
|
2484
|
+
"description": "این مدل دارای توانایی قوی در تولید تصویر است و از توصیف متنی به عنوان ورودی پشتیبانی میکند. پشتیبانی بومی از زبان چینی دارد و میتواند توصیفهای متنی چینی را بهتر درک و پردازش کند و معنای دقیقتر را به ویژگیهای تصویری تبدیل کند تا تولید تصویر دقیقتری داشته باشد. مدل قادر است تصاویر با وضوح و کیفیت بالا تولید کند و توانایی انتقال سبک نیز دارد."
|
2485
|
+
},
|
2351
2486
|
"step-2-16k": {
|
2352
2487
|
"description": "پشتیبانی از تعاملات متنی گسترده، مناسب برای سناریوهای مکالمه پیچیده."
|
2353
2488
|
},
|
@@ -2357,6 +2492,9 @@
|
|
2357
2492
|
"step-2-mini": {
|
2358
2493
|
"description": "مدل بزرگ فوقالعاده سریع مبتنی بر معماری توجه MFA که بهطور خودجوش توسعه یافته است، با هزینه بسیار کم به نتایجی مشابه با مرحله ۱ دست مییابد و در عین حال توانایی پردازش بالاتر و زمان پاسخ سریعتری را حفظ میکند. این مدل قادر به انجام وظایف عمومی است و در تواناییهای کدنویسی تخصص دارد."
|
2359
2494
|
},
|
2495
|
+
"step-2x-large": {
|
2496
|
+
"description": "مدل نسل جدید Step Star برای تولید تصویر است که بر تولید تصویر بر اساس توصیف متنی کاربر تمرکز دارد و تصاویر با کیفیت بالا تولید میکند. مدل جدید تصاویر با بافت واقعیتر و توانایی تولید متنهای چینی و انگلیسی قویتر دارد."
|
2497
|
+
},
|
2360
2498
|
"step-r1-v-mini": {
|
2361
2499
|
"description": "این مدل یک مدل استدلال بزرگ با تواناییهای قوی در درک تصویر است که میتواند اطلاعات تصویری و متنی را پردازش کند و پس از تفکر عمیق، متن تولید کند. این مدل در زمینه استدلال بصری عملکرد برجستهای دارد و همچنین دارای تواناییهای ریاضی، کدنویسی و استدلال متنی در سطح اول است. طول متن زمینهای 100k است."
|
2362
2500
|
},
|
@@ -2432,8 +2570,23 @@
|
|
2432
2570
|
"v0-1.5-md": {
|
2433
2571
|
"description": "مدل v0-1.5-md برای وظایف روزمره و تولید رابط کاربری (UI) مناسب است"
|
2434
2572
|
},
|
2573
|
+
"wan2.2-t2i-flash": {
|
2574
|
+
"description": "نسخه سریع Wanxiang 2.2، جدیدترین مدل فعلی. در خلاقیت، پایداری و واقعگرایی به طور کامل ارتقا یافته، سرعت تولید بالا و نسبت قیمت به کیفیت عالی دارد."
|
2575
|
+
},
|
2576
|
+
"wan2.2-t2i-plus": {
|
2577
|
+
"description": "نسخه حرفهای Wanxiang 2.2، جدیدترین مدل فعلی. در خلاقیت، پایداری و واقعگرایی به طور کامل ارتقا یافته و جزئیات تولید شده غنیتر است."
|
2578
|
+
},
|
2579
|
+
"wanx-v1": {
|
2580
|
+
"description": "مدل پایه تولید تصویر از متن. معادل مدل عمومی 1.0 در وبسایت رسمی Tongyi Wanxiang."
|
2581
|
+
},
|
2582
|
+
"wanx2.0-t2i-turbo": {
|
2583
|
+
"description": "متخصص در پرترههای با بافت، سرعت متوسط و هزینه پایین. معادل مدل سریع 2.0 در وبسایت رسمی Tongyi Wanxiang."
|
2584
|
+
},
|
2585
|
+
"wanx2.1-t2i-plus": {
|
2586
|
+
"description": "نسخه ارتقا یافته کامل. جزئیات تصاویر تولید شده غنیتر و سرعت کمی کندتر است. معادل مدل حرفهای 2.1 در وبسایت رسمی Tongyi Wanxiang."
|
2587
|
+
},
|
2435
2588
|
"wanx2.1-t2i-turbo": {
|
2436
|
-
"description": "
|
2589
|
+
"description": "نسخه ارتقا یافته کامل. سرعت تولید بالا، عملکرد جامع و نسبت قیمت به کیفیت عالی. معادل مدل سریع 2.1 در وبسایت رسمی Tongyi Wanxiang."
|
2437
2590
|
},
|
2438
2591
|
"whisper-1": {
|
2439
2592
|
"description": "مدل شناسایی گفتار عمومی که از شناسایی گفتار چندزبانه، ترجمه گفتار و شناسایی زبان پشتیبانی میکند."
|
@@ -2485,5 +2638,11 @@
|
|
2485
2638
|
},
|
2486
2639
|
"yi-vision-v2": {
|
2487
2640
|
"description": "مدلهای پیچیده بصری که قابلیتهای درک و تحلیل با عملکرد بالا را بر اساس چندین تصویر ارائه میدهند."
|
2641
|
+
},
|
2642
|
+
"zai-org/GLM-4.5": {
|
2643
|
+
"description": "GLM-4.5 یک مدل پایه طراحی شده برای کاربردهای عامل هوشمند است که از معماری Mixture-of-Experts استفاده میکند. این مدل در زمینههای فراخوانی ابزار، مرور وب، مهندسی نرمافزار و برنامهنویسی فرانتاند بهینهسازی عمیق شده و از ادغام بیوقفه با عاملهای کد مانند Claude Code و Roo Code پشتیبانی میکند. GLM-4.5 از حالت استدلال ترکیبی بهره میبرد و میتواند در سناریوهای استدلال پیچیده و استفاده روزمره به خوبی عمل کند."
|
2644
|
+
},
|
2645
|
+
"zai-org/GLM-4.5-Air": {
|
2646
|
+
"description": "GLM-4.5-Air یک مدل پایه طراحی شده برای کاربردهای عامل هوشمند است که از معماری Mixture-of-Experts استفاده میکند. این مدل در زمینههای فراخوانی ابزار، مرور وب، مهندسی نرمافزار و برنامهنویسی فرانتاند بهینهسازی عمیق شده و از ادغام بیوقفه با عاملهای کد مانند Claude Code و Roo Code پشتیبانی میکند. GLM-4.5 از حالت استدلال ترکیبی بهره میبرد و میتواند در سناریوهای استدلال پیچیده و استفاده روزمره به خوبی عمل کند."
|
2488
2647
|
}
|
2489
2648
|
}
|