@lobehub/chat 1.106.2 → 1.106.4

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (37) hide show
  1. package/CHANGELOG.md +67 -0
  2. package/apps/desktop/src/preload/routeInterceptor.ts +28 -0
  3. package/changelog/v1.json +24 -0
  4. package/locales/ar/models.json +164 -5
  5. package/locales/bg-BG/models.json +164 -5
  6. package/locales/de-DE/models.json +164 -5
  7. package/locales/en-US/models.json +164 -5
  8. package/locales/es-ES/models.json +164 -5
  9. package/locales/fa-IR/models.json +164 -5
  10. package/locales/fr-FR/models.json +164 -5
  11. package/locales/it-IT/models.json +164 -5
  12. package/locales/ja-JP/models.json +164 -5
  13. package/locales/ko-KR/models.json +164 -5
  14. package/locales/nl-NL/models.json +164 -5
  15. package/locales/pl-PL/models.json +164 -5
  16. package/locales/pt-BR/models.json +164 -5
  17. package/locales/ru-RU/models.json +164 -5
  18. package/locales/tr-TR/models.json +164 -5
  19. package/locales/vi-VN/models.json +164 -5
  20. package/locales/zh-CN/models.json +164 -5
  21. package/locales/zh-TW/models.json +164 -5
  22. package/package.json +1 -1
  23. package/src/config/aiModels/google.ts +0 -48
  24. package/src/config/aiModels/groq.ts +4 -0
  25. package/src/config/aiModels/hunyuan.ts +22 -0
  26. package/src/config/aiModels/moonshot.ts +0 -36
  27. package/src/config/aiModels/qwen.ts +110 -11
  28. package/src/config/aiModels/siliconcloud.ts +101 -0
  29. package/src/config/aiModels/stepfun.ts +0 -53
  30. package/src/config/aiModels/volcengine.ts +21 -0
  31. package/src/config/aiModels/zhipu.ts +132 -11
  32. package/src/config/modelProviders/moonshot.ts +1 -0
  33. package/src/libs/model-runtime/moonshot/index.ts +10 -1
  34. package/src/libs/model-runtime/utils/modelParse.ts +2 -2
  35. package/src/libs/model-runtime/zhipu/index.ts +57 -1
  36. package/src/server/services/mcp/index.test.ts +161 -0
  37. package/src/server/services/mcp/index.ts +4 -1
@@ -32,6 +32,9 @@
32
32
  "4.0Ultra": {
33
33
  "description": "Spark Ultra قدرتمندترین نسخه از سری مدل‌های بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصه‌سازی محتوای متنی را بهبود می‌بخشد. این یک راه‌حل جامع برای افزایش بهره‌وری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته می‌شود."
34
34
  },
35
+ "AnimeSharp": {
36
+ "description": "AnimeSharp (که با نام \"4x‑AnimeSharp\" نیز شناخته می‌شود) یک مدل ابررزولوشن متن‌باز است که توسط Kim2091 بر اساس معماری ESRGAN توسعه یافته است و بر بزرگ‌نمایی و تیزکردن تصاویر با سبک انیمه تمرکز دارد. این مدل در فوریه ۲۰۲۲ از \"4x-TextSharpV1\" تغییر نام داد و در ابتدا برای تصاویر متنی نیز کاربرد داشت اما عملکرد آن به طور قابل توجهی برای محتوای انیمه بهینه شده است."
37
+ },
35
38
  "Baichuan2-Turbo": {
36
39
  "description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزه‌ای و دانش کل وب متصل می‌کند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرس‌های وب پشتیبانی می‌کند. اطلاعات به‌موقع و جامع دریافت می‌شود و نتایج خروجی دقیق و حرفه‌ای هستند."
37
40
  },
@@ -89,6 +92,9 @@
89
92
  "Doubao-pro-4k": {
90
93
  "description": "مدل اصلی با بهترین عملکرد، مناسب برای انجام وظایف پیچیده است و در زمینه‌هایی مانند پاسخ به سوالات مرجع، خلاصه‌سازی، خلق محتوا، دسته‌بندی متن و نقش‌آفرینی عملکرد بسیار خوبی دارد. از پنجره متنی 4k برای استدلال و تنظیم دقیق پشتیبانی می‌کند."
91
94
  },
95
+ "DreamO": {
96
+ "description": "DreamO یک مدل تولید تصویر سفارشی متن‌باز است که توسط شرکت بایت‌دنس و دانشگاه پکن به صورت مشترک توسعه یافته است و هدف آن پشتیبانی از تولید چندوظیفه‌ای تصویر از طریق معماری یکپارچه است. این مدل از روش مدل‌سازی ترکیبی کارآمد استفاده می‌کند و می‌تواند تصاویر بسیار سازگار و سفارشی‌شده‌ای را بر اساس شرایطی مانند هویت، موضوع، سبک و پس‌زمینه که توسط کاربر تعیین می‌شود، تولید کند."
97
+ },
92
98
  "ERNIE-3.5-128K": {
93
99
  "description": "مدل زبان بزرگ پرچمدار توسعه‌یافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش می‌دهد و دارای توانایی‌های عمومی قدرتمندی است. این مدل می‌تواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونه‌ها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا به‌روز بودن اطلاعات پرسش و پاسخ را تضمین کند."
94
100
  },
@@ -122,15 +128,39 @@
122
128
  "ERNIE-Speed-Pro-128K": {
123
129
  "description": "مدل زبان بزرگ با عملکرد بالا که در سال 2024 توسط بایدو به‌طور مستقل توسعه یافته است. این مدل دارای توانایی‌های عمومی برجسته‌ای است و عملکرد بهتری نسبت به ERNIE Speed دارد. مناسب برای استفاده به عنوان مدل پایه برای تنظیم دقیق و حل بهتر مسائل در سناریوهای خاص، همچنین دارای عملکرد استنتاجی بسیار عالی است."
124
130
  },
131
+ "FLUX.1-Kontext-dev": {
132
+ "description": "FLUX.1-Kontext-dev یک مدل تولید و ویرایش تصویر چندرسانه‌ای است که توسط Black Forest Labs توسعه یافته و بر اساس معماری Rectified Flow Transformer ساخته شده است. این مدل با 12 میلیارد پارامتر، بر تولید، بازسازی، تقویت یا ویرایش تصاویر تحت شرایط متنی تمرکز دارد. این مدل ترکیبی از مزایای تولید کنترل‌شده مدل‌های انتشار و قابلیت مدل‌سازی زمینه‌ای ترنسفورمر است و از خروجی تصاویر با کیفیت بالا پشتیبانی می‌کند و در وظایفی مانند ترمیم تصویر، تکمیل تصویر و بازسازی صحنه‌های بصری کاربرد گسترده دارد."
133
+ },
134
+ "FLUX.1-dev": {
135
+ "description": "FLUX.1-dev یک مدل زبان چندرسانه‌ای متن‌باز است که توسط Black Forest Labs توسعه یافته و برای وظایف ترکیبی تصویر و متن بهینه شده است. این مدل بر پایه مدل‌های زبان بزرگ پیشرفته مانند Mistral-7B ساخته شده و با استفاده از رمزگذار بصری طراحی‌شده و تنظیم دقیق چندمرحله‌ای دستوری، توانایی پردازش همزمان تصویر و متن و استدلال در وظایف پیچیده را دارد."
136
+ },
125
137
  "Gryphe/MythoMax-L2-13b": {
126
138
  "description": "MythoMax-L2 (13B) یک مدل نوآورانه است که برای کاربردهای چندرشته‌ای و وظایف پیچیده مناسب است."
127
139
  },
140
+ "HelloMeme": {
141
+ "description": "HelloMeme یک ابزار هوش مصنوعی است که می‌تواند بر اساس تصاویر یا حرکاتی که شما ارائه می‌دهید، به طور خودکار میم، گیف یا ویدیوهای کوتاه تولید کند. این ابزار نیازی به دانش نقاشی یا برنامه‌نویسی ندارد و تنها با داشتن تصاویر مرجع، می‌تواند محتوایی زیبا، سرگرم‌کننده و با سبک یکپارچه برای شما بسازد."
142
+ },
143
+ "HiDream-I1-Full": {
144
+ "description": "HiDream-E1-Full یک مدل بزرگ ویرایش تصویر چندرسانه‌ای متن‌باز است که توسط HiDream.ai توسعه یافته است. این مدل بر پایه معماری پیشرفته Diffusion Transformer ساخته شده و با توانایی قوی درک زبان (با LLaMA 3.1-8B-Instruct داخلی) از طریق دستورات زبان طبیعی، تولید تصویر، انتقال سبک، ویرایش موضعی و بازنقاشی محتوا را پشتیبانی می‌کند و دارای قابلیت‌های برجسته در درک و اجرای ترکیب تصویر و متن است."
145
+ },
146
+ "HunyuanDiT-v1.2-Diffusers-Distilled": {
147
+ "description": "hunyuandit-v1.2-distilled یک مدل سبک تولید تصویر از متن است که با استفاده از تکنیک تقطیر بهینه شده و قادر است به سرعت تصاویر با کیفیت بالا تولید کند، به ویژه مناسب محیط‌های با منابع محدود و وظایف تولید در زمان واقعی است."
148
+ },
149
+ "InstantCharacter": {
150
+ "description": "InstantCharacter یک مدل تولید شخصیت شخصی‌سازی شده بدون نیاز به تنظیم دقیق است که توسط تیم هوش مصنوعی Tencent در سال ۲۰۲۵ منتشر شده است. هدف این مدل تولید شخصیت‌های با وفاداری بالا و سازگار در صحنه‌های مختلف است. این مدل تنها با یک تصویر مرجع قادر به مدل‌سازی شخصیت است و می‌تواند آن را به سبک‌ها، حرکات و پس‌زمینه‌های مختلف به طور انعطاف‌پذیر منتقل کند."
151
+ },
128
152
  "InternVL2-8B": {
129
153
  "description": "InternVL2-8B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی می‌کند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخ‌های مرتبط تولید کند."
130
154
  },
131
155
  "InternVL2.5-26B": {
132
156
  "description": "InternVL2.5-26B یک مدل زبان بصری قدرتمند است که از پردازش چند حالتی تصویر و متن پشتیبانی می‌کند و قادر است محتوای تصویر را به دقت شناسایی کرده و توصیف یا پاسخ‌های مرتبط تولید کند."
133
157
  },
158
+ "Kolors": {
159
+ "description": "Kolors یک مدل تولید تصویر از متن است که توسط تیم Kolors شرکت Kuaishou توسعه یافته است. این مدل با میلیاردها پارامتر آموزش دیده و در کیفیت بصری، درک معنایی زبان چینی و رندر متن عملکرد برجسته‌ای دارد."
160
+ },
161
+ "Kwai-Kolors/Kolors": {
162
+ "description": "Kolors یک مدل بزرگ تولید تصویر از متن مبتنی بر انتشار نهفته است که توسط تیم Kolors شرکت Kuaishou توسعه یافته است. این مدل با آموزش روی میلیاردها جفت متن-تصویر، در کیفیت بصری، دقت معنایی پیچیده و رندر کاراکترهای چینی و انگلیسی عملکرد برجسته‌ای دارد. این مدل نه تنها از ورودی‌های چینی و انگلیسی پشتیبانی می‌کند بلکه در درک و تولید محتوای خاص زبان چینی نیز بسیار توانمند است."
163
+ },
134
164
  "Llama-3.2-11B-Vision-Instruct": {
135
165
  "description": "توانایی استدلال تصویری عالی در تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری."
136
166
  },
@@ -164,9 +194,15 @@
164
194
  "MiniMaxAI/MiniMax-M1-80k": {
165
195
  "description": "MiniMax-M1 یک مدل استنتاج بزرگ با وزن‌های متن‌باز و توجه ترکیبی است که دارای ۴۵۶ میلیارد پارامتر است و هر توکن می‌تواند حدود ۴۵.۹ میلیارد پارامتر را فعال کند. این مدل به طور بومی از زمینه بسیار طولانی ۱ میلیون توکن پشتیبانی می‌کند و با مکانیزم توجه سریع، در وظایف تولید ۱۰۰ هزار توکن نسبت به DeepSeek R1، ۷۵٪ از محاسبات نقطه شناور را صرفه‌جویی می‌کند. همچنین، MiniMax-M1 از معماری MoE (متخصصان ترکیبی) بهره می‌برد و با ترکیب الگوریتم CISPO و طراحی توجه ترکیبی در آموزش تقویتی کارآمد، عملکرد پیشرو در صنعت را در استنتاج ورودی‌های طولانی و سناریوهای واقعی مهندسی نرم‌افزار ارائه می‌دهد."
166
196
  },
197
+ "Moonshot-Kimi-K2-Instruct": {
198
+ "description": "مدل با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در میان مدل‌های غیرتفکری، در دانش پیشرفته، ریاضیات و برنامه‌نویسی در سطح برتر قرار دارد و در وظایف عامل عمومی تخصص دارد. به طور ویژه برای وظایف نمایندگی بهینه شده است، نه تنها قادر به پاسخگویی به سوالات بلکه قادر به انجام اقدامات است. بهترین گزینه برای گفتگوهای بداهه، چت عمومی و تجربه‌های نمایندگی است و یک مدل واکنشی بدون نیاز به تفکر طولانی مدت محسوب می‌شود."
199
+ },
167
200
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
168
201
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است."
169
202
  },
203
+ "OmniConsistency": {
204
+ "description": "OmniConsistency با معرفی مدل‌های بزرگ Diffusion Transformers (DiTs) و داده‌های سبک‌دار جفت‌شده، انسجام سبک و قابلیت تعمیم در وظایف تصویر به تصویر (Image-to-Image) را بهبود می‌بخشد و از افت کیفیت سبک جلوگیری می‌کند."
205
+ },
170
206
  "Phi-3-medium-128k-instruct": {
171
207
  "description": "همان مدل Phi-3-medium، اما با اندازه بزرگتر زمینه، مناسب برای RAG یا تعداد کمی از دستورات."
172
208
  },
@@ -218,6 +254,9 @@
218
254
  "Pro/deepseek-ai/DeepSeek-V3": {
219
255
  "description": "DeepSeek-V3 یک مدل زبان با 671 میلیارد پارامتر است که از معماری متخصصان ترکیبی (MoE) و توجه چندسر (MLA) استفاده می‌کند و با استراتژی تعادل بار بدون ضرر کمکی بهینه‌سازی کارایی استنتاج و آموزش را انجام می‌دهد. این مدل با پیش‌آموزش بر روی 14.8 تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، در عملکرد از سایر مدل‌های متن‌باز پیشی می‌گیرد و به مدل‌های بسته پیشرو نزدیک می‌شود."
220
256
  },
257
+ "Pro/moonshotai/Kimi-K2-Instruct": {
258
+ "description": "Kimi K2 یک مدل پایه با معماری MoE است که دارای توانایی‌های بسیار قوی در کدنویسی و عامل است، با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در آزمون‌های معیار عملکرد در حوزه‌های دانش عمومی، برنامه‌نویسی، ریاضیات و عامل، مدل K2 عملکردی فراتر از سایر مدل‌های متن‌باز اصلی دارد."
259
+ },
221
260
  "QwQ-32B-Preview": {
222
261
  "description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است."
223
262
  },
@@ -278,6 +317,12 @@
278
317
  "Qwen/Qwen3-235B-A22B": {
279
318
  "description": "Qwen3 یک مدل بزرگ جدید با توانایی‌های بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی می‌کند."
280
319
  },
320
+ "Qwen/Qwen3-235B-A22B-Instruct-2507": {
321
+ "description": "Qwen3-235B-A22B-Instruct-2507 یک مدل زبان بزرگ ترکیبی (MoE) پرچمدار از سری Qwen3 است که توسط تیم Tongyi Qianwen شرکت علی‌بابا توسعه یافته است. این مدل دارای 235 میلیارد پارامتر کل و 22 میلیارد پارامتر فعال در هر استنتاج است. نسخه به‌روزشده‌ای از حالت غیرتفکری Qwen3-235B-A22B است که تمرکز بر بهبود قابل توجه در پیروی از دستورالعمل‌ها، استدلال منطقی، درک متن، ریاضیات، علوم، برنامه‌نویسی و استفاده از ابزارها دارد. همچنین پوشش دانش چندزبانه و ترجیحات کاربر در وظایف ذهنی و باز را بهبود بخشیده تا متن‌های مفیدتر و با کیفیت بالاتری تولید کند."
322
+ },
323
+ "Qwen/Qwen3-235B-A22B-Thinking-2507": {
324
+ "description": "Qwen3-235B-A22B-Thinking-2507 عضوی از سری مدل‌های بزرگ زبان Qwen3 است که توسط تیم Tongyi Qianwen شرکت علی‌بابا توسعه یافته و بر وظایف استدلال پیچیده و دشوار تمرکز دارد. این مدل بر پایه معماری MoE با 235 میلیارد پارامتر کل ساخته شده و در هر توکن حدود 22 میلیارد پارامتر فعال می‌کند که باعث افزایش کارایی محاسباتی در عین حفظ قدرت عملکرد می‌شود. به عنوان یک مدل اختصاصی \"تفکر\"، در استدلال منطقی، ریاضیات، علوم، برنامه‌نویسی و آزمون‌های علمی که نیازمند تخصص انسانی هستند، عملکرد برجسته‌ای دارد و در میان مدل‌های تفکری متن‌باز در سطح برتر قرار دارد. همچنین توانایی‌های عمومی مانند پیروی از دستورالعمل‌ها، استفاده از ابزار و تولید متن را تقویت کرده و به طور بومی از درک متن‌های طولانی تا 256 هزار توکن پشتیبانی می‌کند که برای سناریوهای نیازمند استدلال عمیق و پردازش اسناد طولانی بسیار مناسب است."
325
+ },
281
326
  "Qwen/Qwen3-30B-A3B": {
282
327
  "description": "Qwen3 یک مدل بزرگ جدید با توانایی‌های بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانی به سطح پیشرفته صنعت دست یافته و از تغییر حالت تفکر پشتیبانی می‌کند."
283
328
  },
@@ -944,6 +989,9 @@
944
989
  "doubao-seed-1.6-thinking": {
945
990
  "description": "مدل Doubao-Seed-1.6-thinking با توانایی تفکر به‌طور قابل توجهی تقویت شده است، نسبت به Doubao-1.5-thinking-pro در مهارت‌های پایه‌ای مانند برنامه‌نویسی، ریاضیات و استدلال منطقی پیشرفت داشته و از درک تصویری پشتیبانی می‌کند. از پنجره متنی ۲۵۶ هزار توکنی پشتیبانی می‌کند و طول خروجی تا ۱۶ هزار توکن را امکان‌پذیر می‌سازد."
946
991
  },
992
+ "doubao-seedream-3-0-t2i-250415": {
993
+ "description": "مدل تولید تصویر Doubao توسط تیم Seed شرکت بایت‌دنس توسعه یافته است و از ورودی‌های متن و تصویر پشتیبانی می‌کند و تجربه تولید تصویر با کنترل بالا و کیفیت عالی را ارائه می‌دهد. تصاویر بر اساس متن توصیفی تولید می‌شوند."
994
+ },
947
995
  "doubao-vision-lite-32k": {
948
996
  "description": "مدل Doubao-vision یک مدل چندرسانه‌ای بزرگ است که توسط Doubao ارائه شده و دارای توانایی‌های قوی در درک و استدلال تصاویر و همچنین درک دقیق دستورات است. این مدل در استخراج اطلاعات متنی از تصاویر و وظایف استدلال مبتنی بر تصویر عملکرد قدرتمندی نشان داده و می‌تواند در وظایف پیچیده‌تر و گسترده‌تر پرسش و پاسخ بصری به کار رود."
949
997
  },
@@ -995,6 +1043,9 @@
995
1043
  "ernie-char-fiction-8k": {
996
1044
  "description": "مدل زبان بزرگ با کاربرد خاص که توسط بایدو توسعه یافته است و برای کاربردهایی مانند NPCهای بازی، مکالمات خدمات مشتری، و نقش‌آفرینی در مکالمات مناسب است، سبک شخصیت آن واضح‌تر و یکدست‌تر است و توانایی پیروی از دستورات و عملکرد استدلال بهتری دارد."
997
1045
  },
1046
+ "ernie-irag-edit": {
1047
+ "description": "مدل ویرایش تصویر ERNIE iRAG که توسط بایدو توسعه یافته است، از عملیات‌هایی مانند حذف (erase)، بازنقاشی (repaint) و تولید واریاسیون (variation) بر اساس تصویر پشتیبانی می‌کند."
1048
+ },
998
1049
  "ernie-lite-8k": {
999
1050
  "description": "ERNIE Lite مدل زبان بزرگ سبک خود توسعه یافته توسط بایدو است که تعادل خوبی بین عملکرد مدل و عملکرد استدلال دارد و برای استفاده در کارت‌های تسریع AI با توان محاسباتی پایین مناسب است."
1000
1051
  },
@@ -1022,12 +1073,27 @@
1022
1073
  "ernie-x1-turbo-32k": {
1023
1074
  "description": "مدل نسبت به ERNIE-X1-32K از نظر عملکرد و کارایی بهتر است."
1024
1075
  },
1076
+ "flux-1-schnell": {
1077
+ "description": "مدل تولید تصویر از متن با 12 میلیارد پارامتر که توسط Black Forest Labs توسعه یافته است و از تکنولوژی تقطیر انتشار متخاصم نهفته استفاده می‌کند و قادر است در 1 تا 4 مرحله تصاویر با کیفیت بالا تولید کند. این مدل عملکردی مشابه نمونه‌های بسته دارد و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است."
1078
+ },
1079
+ "flux-dev": {
1080
+ "description": "FLUX.1 [dev] یک مدل وزن باز و پالایش شده متن‌باز برای کاربردهای غیرتجاری است. این مدل کیفیت تصویر و پیروی از دستورالعمل را نزدیک به نسخه حرفه‌ای FLUX حفظ کرده و در عین حال کارایی اجرایی بالاتری دارد. نسبت به مدل‌های استاندارد با اندازه مشابه، بهره‌وری منابع بهتری دارد."
1081
+ },
1025
1082
  "flux-kontext/dev": {
1026
1083
  "description": "مدل ویرایش تصویر Frontier."
1027
1084
  },
1085
+ "flux-merged": {
1086
+ "description": "مدل FLUX.1-merged ترکیبی از ویژگی‌های عمیق کشف شده در مرحله توسعه \"DEV\" و مزایای اجرای سریع \"Schnell\" است. این اقدام باعث افزایش مرزهای عملکرد مدل و گسترش دامنه کاربردهای آن شده است."
1087
+ },
1028
1088
  "flux-pro/kontext": {
1029
1089
  "description": "FLUX.1 Kontext [pro] قادر است متن و تصاویر مرجع را به عنوان ورودی پردازش کند و ویرایش‌های موضعی هدفمند و تغییرات پیچیده در کل صحنه را به‌صورت یکپارچه انجام دهد."
1030
1090
  },
1091
+ "flux-schnell": {
1092
+ "description": "FLUX.1 [schnell] به عنوان پیشرفته‌ترین مدل متن‌باز با گام‌های کم، نه تنها از رقبا پیشی گرفته بلکه از مدل‌های غیرتقطیر قدرتمندی مانند Midjourney v6.0 و DALL·E 3 (HD) نیز بهتر است. این مدل به طور خاص تنظیم شده تا تنوع کامل خروجی‌های پیش‌آموزش را حفظ کند و نسبت به مدل‌های پیشرفته بازار، بهبودهای قابل توجهی در کیفیت بصری، پیروی از دستورالعمل، تغییر اندازه/نسبت، پردازش فونت و تنوع خروجی ارائه می‌دهد و تجربه تولید تصاویر خلاقانه و متنوع‌تری را برای کاربران فراهم می‌کند."
1093
+ },
1094
+ "flux.1-schnell": {
1095
+ "description": "ترنسفورمر جریان اصلاح‌شده با 12 میلیارد پارامتر که قادر است تصاویر را بر اساس توصیف متنی تولید کند."
1096
+ },
1031
1097
  "flux/schnell": {
1032
1098
  "description": "FLUX.1 [schnell] یک مدل تبدیل جریانی با 12 میلیارد پارامتر است که می‌تواند در 1 تا 4 مرحله تصاویر با کیفیت بالا را از متن تولید کند و برای استفاده شخصی و تجاری مناسب است."
1033
1099
  },
@@ -1109,9 +1175,6 @@
1109
1175
  "gemini-2.5-flash-preview-04-17": {
1110
1176
  "description": "پیش‌نمایش فلش Gemini 2.5 مدل با بهترین قیمت و کیفیت گوگل است که امکانات جامع و کاملی را ارائه می‌دهد."
1111
1177
  },
1112
- "gemini-2.5-flash-preview-04-17-thinking": {
1113
- "description": "Gemini 2.5 Flash Preview مقرون‌به‌صرفه‌ترین مدل گوگل است که امکانات جامع ارائه می‌دهد."
1114
- },
1115
1178
  "gemini-2.5-flash-preview-05-20": {
1116
1179
  "description": "Gemini 2.5 Flash Preview مقرون‌به‌صرفه‌ترین مدل گوگل است که امکانات جامع ارائه می‌دهد."
1117
1180
  },
@@ -1190,6 +1253,21 @@
1190
1253
  "glm-4.1v-thinking-flashx": {
1191
1254
  "description": "سری مدل‌های GLM-4.1V-Thinking قوی‌ترین مدل‌های زبان تصویری (VLM) در سطح 10 میلیارد پارامتر شناخته شده تا کنون هستند که وظایف زبان تصویری پیشرفته هم‌رده SOTA را شامل می‌شوند، از جمله درک ویدئو، پرسش و پاسخ تصویری، حل مسائل علمی، شناسایی متن OCR، تفسیر اسناد و نمودارها، عامل‌های رابط کاربری گرافیکی، کدنویسی صفحات وب فرانت‌اند، و گراندینگ. توانایی‌های این مدل‌ها حتی از مدل Qwen2.5-VL-72B با 8 برابر پارامتر بیشتر نیز فراتر رفته است. با استفاده از فناوری پیشرفته یادگیری تقویتی، مدل توانسته است با استدلال زنجیره تفکر دقت و غنای پاسخ‌ها را افزایش دهد و از نظر نتایج نهایی و قابلیت تبیین به طور قابل توجهی از مدل‌های غیرتفکری سنتی پیشی بگیرد."
1192
1255
  },
1256
+ "glm-4.5": {
1257
+ "description": "جدیدترین مدل پرچمدار Zhizhu که از حالت تفکر پشتیبانی می‌کند و توانایی‌های جامع آن به سطح SOTA مدل‌های متن‌باز رسیده است و طول زمینه تا 128 هزار توکن را پشتیبانی می‌کند."
1258
+ },
1259
+ "glm-4.5-air": {
1260
+ "description": "نسخه سبک GLM-4.5 که تعادل بین عملکرد و هزینه را حفظ می‌کند و امکان تغییر انعطاف‌پذیر بین مدل‌های تفکر ترکیبی را فراهم می‌آورد."
1261
+ },
1262
+ "glm-4.5-airx": {
1263
+ "description": "نسخه فوق‌العاده سریع GLM-4.5-Air که پاسخگویی سریع‌تری دارد و برای نیازهای بزرگ و سرعت بالا طراحی شده است."
1264
+ },
1265
+ "glm-4.5-flash": {
1266
+ "description": "نسخه رایگان GLM-4.5 که در وظایفی مانند استنتاج، کدنویسی و عامل‌ها عملکرد خوبی دارد."
1267
+ },
1268
+ "glm-4.5-x": {
1269
+ "description": "نسخه فوق‌العاده سریع GLM-4.5 که در کنار قدرت عملکرد، سرعت تولید تا 100 توکن در ثانیه را ارائه می‌دهد."
1270
+ },
1193
1271
  "glm-4v": {
1194
1272
  "description": "GLM-4V قابلیت‌های قدرتمندی در درک و استدلال تصویری ارائه می‌دهد و از وظایف مختلف بصری پشتیبانی می‌کند."
1195
1273
  },
@@ -1209,7 +1287,7 @@
1209
1287
  "description": "استدلال فوق‌العاده سریع: دارای سرعت استدلال بسیار بالا و عملکرد قوی است."
1210
1288
  },
1211
1289
  "glm-z1-flash": {
1212
- "description": "سری GLM-Z1 دارای توانایی‌های پیچیده استدلال قوی است و در زمینه‌های استدلال منطقی، ریاضی و برنامه‌نویسی عملکرد فوق‌العاده‌ای دارد. حداکثر طول متن زمینه‌ای 32K است."
1290
+ "description": "سری GLM-Z1 دارای توانایی‌های قوی در استدلال پیچیده است و در زمینه‌های استدلال منطقی، ریاضیات و برنامه‌نویسی عملکرد برجسته‌ای دارد."
1213
1291
  },
1214
1292
  "glm-z1-flashx": {
1215
1293
  "description": "سرعت بالا و قیمت پایین: نسخه تقویت‌شده Flash با سرعت استنتاج بسیار سریع‌تر و تضمین همزمانی بالاتر."
@@ -1385,6 +1463,9 @@
1385
1463
  "grok-2-1212": {
1386
1464
  "description": "این مدل در دقت، پیروی از دستورات و توانایی چند زبانه بهبود یافته است."
1387
1465
  },
1466
+ "grok-2-image-1212": {
1467
+ "description": "جدیدترین مدل تولید تصویر ما قادر است تصاویر زنده و واقعی را بر اساس متن توصیفی تولید کند. این مدل در زمینه تولید تصویر برای بازاریابی، رسانه‌های اجتماعی و سرگرمی عملکرد برجسته‌ای دارد."
1468
+ },
1388
1469
  "grok-2-vision-1212": {
1389
1470
  "description": "این مدل در دقت، پیروی از دستورات و توانایی چند زبانه بهبود یافته است."
1390
1471
  },
@@ -1454,6 +1535,9 @@
1454
1535
  "hunyuan-t1-20250529": {
1455
1536
  "description": "بهینه‌سازی تولید متن، نوشتن مقاله، بهبود توانایی‌های کدنویسی فرانت‌اند، ریاضیات، استدلال منطقی و علوم پایه، و ارتقاء توانایی پیروی از دستورالعمل‌ها."
1456
1537
  },
1538
+ "hunyuan-t1-20250711": {
1539
+ "description": "افزایش قابل توجه در توانایی‌های ریاضی، منطقی و کدنویسی پیچیده، بهینه‌سازی پایداری خروجی مدل و ارتقاء توانایی مدل در پردازش متون طولانی."
1540
+ },
1457
1541
  "hunyuan-t1-latest": {
1458
1542
  "description": "اولین مدل استدلال هیبریدی-ترنسفورمر-مامبا با مقیاس فوق‌العاده بزرگ در صنعت، که توانایی استدلال را گسترش می‌دهد و سرعت رمزگشایی فوق‌العاده‌ای دارد و به طور بیشتری با ترجیحات انسانی هم‌راستا می‌شود."
1459
1543
  },
@@ -1502,6 +1586,12 @@
1502
1586
  "hunyuan-vision": {
1503
1587
  "description": "جدیدترین مدل چندوجهی هون‌یوان، پشتیبانی از ورودی تصویر + متن برای تولید محتوای متنی."
1504
1588
  },
1589
+ "image-01": {
1590
+ "description": "مدل جدید تولید تصویر با نمایش ظریف و پشتیبانی از تولید تصویر از متن و تصویر."
1591
+ },
1592
+ "image-01-live": {
1593
+ "description": "مدل تولید تصویر با نمایش ظریف که از تولید تصویر از متن پشتیبانی می‌کند و امکان تنظیم سبک نقاشی را دارد."
1594
+ },
1505
1595
  "imagen-4.0-generate-preview-06-06": {
1506
1596
  "description": "سری مدل متن به تصویر نسل چهارم Imagen"
1507
1597
  },
@@ -1526,6 +1616,9 @@
1526
1616
  "internvl3-latest": {
1527
1617
  "description": "ما جدیدترین مدل بزرگ چندرسانه‌ای خود را منتشر کرده‌ایم که دارای توانایی‌های قوی‌تر در درک متن و تصویر و درک تصاویر در زمان‌های طولانی است و عملکرد آن با مدل‌های برتر بسته به منبع قابل مقایسه است. به طور پیش‌فرض به جدیدترین مدل‌های سری InternVL ما اشاره دارد که در حال حاضر به internvl3-78b اشاره دارد."
1528
1618
  },
1619
+ "irag-1.0": {
1620
+ "description": "iRAG (image based RAG) که توسط بایدو توسعه یافته، فناوری تولید تصویر تقویت‌شده با بازیابی است که منابع میلیاردی تصاویر جستجوی بایدو را با توانایی‌های مدل پایه قدرتمند ترکیب می‌کند تا تصاویر بسیار واقعی تولید کند. این سیستم به طور قابل توجهی از سیستم‌های تولید تصویر بومی بهتر است، بدون حس مصنوعی بودن و با هزینه پایین. iRAG ویژگی‌هایی مانند بدون توهم، فوق‌العاده واقعی و آماده تحویل فوری دارد."
1621
+ },
1529
1622
  "jamba-large": {
1530
1623
  "description": "قدرت‌مندترین و پیشرفته‌ترین مدل ما، که به‌طور خاص برای پردازش وظایف پیچیده در سطح سازمانی طراحی شده و دارای عملکرد فوق‌العاده‌ای است."
1531
1624
  },
@@ -1535,6 +1628,9 @@
1535
1628
  "jina-deepsearch-v1": {
1536
1629
  "description": "جستجوی عمیق ترکیبی از جستجوی اینترنتی، خواندن و استدلال است که می‌تواند تحقیقات جامع را انجام دهد. می‌توانید آن را به عنوان یک نماینده در نظر بگیرید که وظایف تحقیق شما را می‌پذیرد - این نماینده جستجوی گسترده‌ای انجام می‌دهد و پس از چندین بار تکرار، پاسخ را ارائه می‌دهد. این فرآیند شامل تحقیق مداوم، استدلال و حل مسئله از زوایای مختلف است. این با مدل‌های بزرگ استاندارد که مستقیماً از داده‌های پیش‌آموزش شده پاسخ تولید می‌کنند و سیستم‌های RAG سنتی که به جستجوی سطحی یک‌باره وابسته‌اند، تفاوت اساسی دارد."
1537
1630
  },
1631
+ "kimi-k2": {
1632
+ "description": "Kimi-K2 یک مدل پایه با معماری MoE است که توسط Moonshot AI ارائه شده و دارای توانایی‌های بسیار قوی در کدنویسی و عامل است، با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در آزمون‌های معیار عملکرد در حوزه‌های دانش عمومی، برنامه‌نویسی، ریاضیات و عامل، مدل K2 عملکردی فراتر از سایر مدل‌های متن‌باز اصلی دارد."
1633
+ },
1538
1634
  "kimi-k2-0711-preview": {
1539
1635
  "description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای توانایی‌های بسیار قوی در کدنویسی و عامل‌سازی است، با مجموع یک تریلیون پارامتر و 32 میلیارد پارامتر فعال. در تست‌های معیار عملکرد در حوزه‌های دانش عمومی، برنامه‌نویسی، ریاضیات و عامل‌ها، مدل K2 عملکردی فراتر از سایر مدل‌های متن‌باز اصلی دارد."
1540
1636
  },
@@ -1928,6 +2024,9 @@
1928
2024
  "moonshotai/Kimi-Dev-72B": {
1929
2025
  "description": "Kimi-Dev-72B یک مدل بزرگ کد منبع باز است که با یادگیری تقویتی گسترده بهینه شده است و قادر به تولید پچ‌های پایدار و قابل استفاده مستقیم در تولید می‌باشد. این مدل در SWE-bench Verified امتیاز جدید ۶۰.۴٪ را کسب کرده و رکورد مدل‌های منبع باز را در وظایف مهندسی نرم‌افزار خودکار مانند رفع اشکال و بازبینی کد شکسته است."
1930
2026
  },
2027
+ "moonshotai/Kimi-K2-Instruct": {
2028
+ "description": "Kimi K2 یک مدل پایه با معماری MoE است که دارای توانایی‌های بسیار قوی در کدنویسی و عامل است، با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در آزمون‌های معیار عملکرد در حوزه‌های دانش عمومی، برنامه‌نویسی، ریاضیات و عامل، مدل K2 عملکردی فراتر از سایر مدل‌های متن‌باز اصلی دارد."
2029
+ },
1931
2030
  "moonshotai/kimi-k2-instruct": {
1932
2031
  "description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای توانایی‌های بسیار قوی در کدنویسی و عامل‌ها می‌باشد، با مجموع پارامتر ۱ تریلیون و پارامترهای فعال ۳۲ میلیارد. در آزمون‌های معیار عملکرد در دسته‌های اصلی مانند استدلال دانش عمومی، برنامه‌نویسی، ریاضیات و عامل‌ها، مدل K2 عملکردی فراتر از سایر مدل‌های متن‌باز رایج دارد."
1933
2032
  },
@@ -2264,6 +2363,12 @@
2264
2363
  "qwen3-235b-a22b": {
2265
2364
  "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2266
2365
  },
2366
+ "qwen3-235b-a22b-instruct-2507": {
2367
+ "description": "مدل متن‌باز حالت غیرتفکری مبتنی بر Qwen3 که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B) در توانایی خلاقیت ذهنی و ایمنی مدل بهبودهای جزئی داشته است."
2368
+ },
2369
+ "qwen3-235b-a22b-thinking-2507": {
2370
+ "description": "مدل متن‌باز حالت تفکری مبتنی بر Qwen3 که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B) در توانایی‌های منطقی، عمومی، تقویت دانش و خلاقیت بهبودهای قابل توجهی داشته و برای سناریوهای استدلال پیچیده و دشوار مناسب است."
2371
+ },
2267
2372
  "qwen3-30b-a3b": {
2268
2373
  "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2269
2374
  },
@@ -2276,6 +2381,12 @@
2276
2381
  "qwen3-8b": {
2277
2382
  "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2278
2383
  },
2384
+ "qwen3-coder-480b-a35b-instruct": {
2385
+ "description": "نسخه متن‌باز مدل کدنویسی Tongyi Qianwen. جدیدترین مدل qwen3-coder-480b-a35b-instruct مبتنی بر Qwen3 است و دارای توانایی‌های قوی عامل کدنویسی، مهارت در فراخوانی ابزارها و تعامل با محیط است و قادر به برنامه‌نویسی خودکار با توانایی کدنویسی برجسته و همچنین توانایی‌های عمومی است."
2386
+ },
2387
+ "qwen3-coder-plus": {
2388
+ "description": "مدل کدنویسی Tongyi Qianwen. جدیدترین سری مدل‌های Qwen3-Coder-Plus مبتنی بر Qwen3 است و دارای توانایی‌های قوی عامل کدنویسی، مهارت در فراخوانی ابزارها و تعامل با محیط است و قادر به برنامه‌نویسی خودکار با توانایی کدنویسی برجسته و همچنین توانایی‌های عمومی است."
2389
+ },
2279
2390
  "qwq": {
2280
2391
  "description": "QwQ یک مدل تحقیقاتی تجربی است که بر بهبود توانایی استدلال AI تمرکز دارد."
2281
2392
  },
@@ -2318,6 +2429,24 @@
2318
2429
  "sonar-reasoning-pro": {
2319
2430
  "description": "محصول جدید API که توسط مدل استدلال DeepSeek پشتیبانی می‌شود."
2320
2431
  },
2432
+ "stable-diffusion-3-medium": {
2433
+ "description": "جدیدترین مدل بزرگ تولید تصویر از متن که توسط Stability AI ارائه شده است. این نسخه با حفظ مزایای نسل‌های قبلی، بهبودهای قابل توجهی در کیفیت تصویر، درک متن و تنوع سبک‌ها دارد و قادر است دستورات پیچیده زبان طبیعی را دقیق‌تر تفسیر کرده و تصاویر دقیق‌تر و متنوع‌تری تولید کند."
2434
+ },
2435
+ "stable-diffusion-3.5-large": {
2436
+ "description": "stable-diffusion-3.5-large یک مدل مولد تصویر از متن مبتنی بر ترنسفورمر انتشار چندرسانه‌ای (MMDiT) با 800 میلیون پارامتر است که کیفیت تصویر عالی و تطابق بالا با دستورات متنی دارد، قادر به تولید تصاویر با وضوح بالا تا 1 میلیون پیکسل است و می‌تواند به طور کارآمد روی سخت‌افزارهای مصرفی معمول اجرا شود."
2437
+ },
2438
+ "stable-diffusion-3.5-large-turbo": {
2439
+ "description": "stable-diffusion-3.5-large-turbo مدلی است که بر پایه stable-diffusion-3.5-large ساخته شده و با استفاده از تکنولوژی تقطیر انتشار متخاصم (ADD) سرعت بالاتری دارد."
2440
+ },
2441
+ "stable-diffusion-v1.5": {
2442
+ "description": "stable-diffusion-v1.5 با وزن‌های نقطه بررسی stable-diffusion-v1.2 آغاز شده و با 595 هزار مرحله تنظیم دقیق روی مجموعه \"laion-aesthetics v2 5+\" با وضوح 512x512 انجام شده است. این مدل 10٪ کاهش شرط‌بندی متنی دارد تا نمونه‌برداری هدایت‌شده بدون طبقه‌بندی‌کننده را بهبود بخشد."
2443
+ },
2444
+ "stable-diffusion-xl": {
2445
+ "description": "stable-diffusion-xl نسبت به نسخه v1.5 بهبودهای قابل توجهی داشته و با مدل‌های متن‌باز پیشرفته مانند midjourney قابل مقایسه است. بهبودها شامل: شبکه اصلی unet بزرگ‌تر که سه برابر نسخه قبلی است؛ افزودن ماژول پالایش برای بهبود کیفیت تصاویر تولید شده؛ و تکنیک‌های آموزش بهینه‌تر."
2446
+ },
2447
+ "stable-diffusion-xl-base-1.0": {
2448
+ "description": "مدل بزرگ تولید تصویر از متن که توسط Stability AI توسعه یافته و متن‌باز است و در تولید تصاویر خلاقانه در صنعت پیشرو است. دارای توانایی درک دقیق دستورات و پشتیبانی از تعریف معکوس Prompt برای تولید دقیق محتوا است."
2449
+ },
2321
2450
  "step-1-128k": {
2322
2451
  "description": "تعادل بین عملکرد و هزینه، مناسب برای سناریوهای عمومی."
2323
2452
  },
@@ -2348,6 +2477,12 @@
2348
2477
  "step-1v-8k": {
2349
2478
  "description": "مدل بصری کوچک، مناسب برای وظایف پایه‌ای تصویر و متن."
2350
2479
  },
2480
+ "step-1x-edit": {
2481
+ "description": "این مدل بر وظایف ویرایش تصویر تمرکز دارد و قادر است بر اساس تصویر و توصیف متنی ارائه شده توسط کاربر، تصویر را اصلاح و بهبود بخشد. از فرمت‌های ورودی مختلف از جمله توصیف متنی و تصاویر نمونه پشتیبانی می‌کند. مدل قادر به درک نیت کاربر و تولید نتایج ویرایش تصویر مطابق با خواسته‌ها است."
2482
+ },
2483
+ "step-1x-medium": {
2484
+ "description": "این مدل دارای توانایی قوی در تولید تصویر است و از توصیف متنی به عنوان ورودی پشتیبانی می‌کند. پشتیبانی بومی از زبان چینی دارد و می‌تواند توصیف‌های متنی چینی را بهتر درک و پردازش کند و معنای دقیق‌تر را به ویژگی‌های تصویری تبدیل کند تا تولید تصویر دقیق‌تری داشته باشد. مدل قادر است تصاویر با وضوح و کیفیت بالا تولید کند و توانایی انتقال سبک نیز دارد."
2485
+ },
2351
2486
  "step-2-16k": {
2352
2487
  "description": "پشتیبانی از تعاملات متنی گسترده، مناسب برای سناریوهای مکالمه پیچیده."
2353
2488
  },
@@ -2357,6 +2492,9 @@
2357
2492
  "step-2-mini": {
2358
2493
  "description": "مدل بزرگ فوق‌العاده سریع مبتنی بر معماری توجه MFA که به‌طور خودجوش توسعه یافته است، با هزینه بسیار کم به نتایجی مشابه با مرحله ۱ دست می‌یابد و در عین حال توانایی پردازش بالاتر و زمان پاسخ سریع‌تری را حفظ می‌کند. این مدل قادر به انجام وظایف عمومی است و در توانایی‌های کدنویسی تخصص دارد."
2359
2494
  },
2495
+ "step-2x-large": {
2496
+ "description": "مدل نسل جدید Step Star برای تولید تصویر است که بر تولید تصویر بر اساس توصیف متنی کاربر تمرکز دارد و تصاویر با کیفیت بالا تولید می‌کند. مدل جدید تصاویر با بافت واقعی‌تر و توانایی تولید متن‌های چینی و انگلیسی قوی‌تر دارد."
2497
+ },
2360
2498
  "step-r1-v-mini": {
2361
2499
  "description": "این مدل یک مدل استدلال بزرگ با توانایی‌های قوی در درک تصویر است که می‌تواند اطلاعات تصویری و متنی را پردازش کند و پس از تفکر عمیق، متن تولید کند. این مدل در زمینه استدلال بصری عملکرد برجسته‌ای دارد و همچنین دارای توانایی‌های ریاضی، کدنویسی و استدلال متنی در سطح اول است. طول متن زمینه‌ای 100k است."
2362
2500
  },
@@ -2432,8 +2570,23 @@
2432
2570
  "v0-1.5-md": {
2433
2571
  "description": "مدل v0-1.5-md برای وظایف روزمره و تولید رابط کاربری (UI) مناسب است"
2434
2572
  },
2573
+ "wan2.2-t2i-flash": {
2574
+ "description": "نسخه سریع Wanxiang 2.2، جدیدترین مدل فعلی. در خلاقیت، پایداری و واقع‌گرایی به طور کامل ارتقا یافته، سرعت تولید بالا و نسبت قیمت به کیفیت عالی دارد."
2575
+ },
2576
+ "wan2.2-t2i-plus": {
2577
+ "description": "نسخه حرفه‌ای Wanxiang 2.2، جدیدترین مدل فعلی. در خلاقیت، پایداری و واقع‌گرایی به طور کامل ارتقا یافته و جزئیات تولید شده غنی‌تر است."
2578
+ },
2579
+ "wanx-v1": {
2580
+ "description": "مدل پایه تولید تصویر از متن. معادل مدل عمومی 1.0 در وب‌سایت رسمی Tongyi Wanxiang."
2581
+ },
2582
+ "wanx2.0-t2i-turbo": {
2583
+ "description": "متخصص در پرتره‌های با بافت، سرعت متوسط و هزینه پایین. معادل مدل سریع 2.0 در وب‌سایت رسمی Tongyi Wanxiang."
2584
+ },
2585
+ "wanx2.1-t2i-plus": {
2586
+ "description": "نسخه ارتقا یافته کامل. جزئیات تصاویر تولید شده غنی‌تر و سرعت کمی کندتر است. معادل مدل حرفه‌ای 2.1 در وب‌سایت رسمی Tongyi Wanxiang."
2587
+ },
2435
2588
  "wanx2.1-t2i-turbo": {
2436
- "description": "مدل تولید تصویر مبتنی بر متن زیرمجموعه‌ی علی‌بابا کلود Tongyi"
2589
+ "description": "نسخه ارتقا یافته کامل. سرعت تولید بالا، عملکرد جامع و نسبت قیمت به کیفیت عالی. معادل مدل سریع 2.1 در وب‌سایت رسمی Tongyi Wanxiang."
2437
2590
  },
2438
2591
  "whisper-1": {
2439
2592
  "description": "مدل شناسایی گفتار عمومی که از شناسایی گفتار چندزبانه، ترجمه گفتار و شناسایی زبان پشتیبانی می‌کند."
@@ -2485,5 +2638,11 @@
2485
2638
  },
2486
2639
  "yi-vision-v2": {
2487
2640
  "description": "مدل‌های پیچیده بصری که قابلیت‌های درک و تحلیل با عملکرد بالا را بر اساس چندین تصویر ارائه می‌دهند."
2641
+ },
2642
+ "zai-org/GLM-4.5": {
2643
+ "description": "GLM-4.5 یک مدل پایه طراحی شده برای کاربردهای عامل هوشمند است که از معماری Mixture-of-Experts استفاده می‌کند. این مدل در زمینه‌های فراخوانی ابزار، مرور وب، مهندسی نرم‌افزار و برنامه‌نویسی فرانت‌اند بهینه‌سازی عمیق شده و از ادغام بی‌وقفه با عامل‌های کد مانند Claude Code و Roo Code پشتیبانی می‌کند. GLM-4.5 از حالت استدلال ترکیبی بهره می‌برد و می‌تواند در سناریوهای استدلال پیچیده و استفاده روزمره به خوبی عمل کند."
2644
+ },
2645
+ "zai-org/GLM-4.5-Air": {
2646
+ "description": "GLM-4.5-Air یک مدل پایه طراحی شده برای کاربردهای عامل هوشمند است که از معماری Mixture-of-Experts استفاده می‌کند. این مدل در زمینه‌های فراخوانی ابزار، مرور وب، مهندسی نرم‌افزار و برنامه‌نویسی فرانت‌اند بهینه‌سازی عمیق شده و از ادغام بی‌وقفه با عامل‌های کد مانند Claude Code و Roo Code پشتیبانی می‌کند. GLM-4.5 از حالت استدلال ترکیبی بهره می‌برد و می‌تواند در سناریوهای استدلال پیچیده و استفاده روزمره به خوبی عمل کند."
2488
2647
  }
2489
2648
  }