@lobehub/chat 1.129.1 → 1.129.3

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (45) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/changelog/v1.json +21 -0
  3. package/locales/ar/models.json +248 -23
  4. package/locales/ar/providers.json +3 -0
  5. package/locales/bg-BG/models.json +248 -23
  6. package/locales/bg-BG/providers.json +3 -0
  7. package/locales/de-DE/models.json +248 -23
  8. package/locales/de-DE/providers.json +3 -0
  9. package/locales/en-US/models.json +248 -23
  10. package/locales/en-US/providers.json +3 -0
  11. package/locales/es-ES/models.json +248 -23
  12. package/locales/es-ES/providers.json +3 -0
  13. package/locales/fa-IR/models.json +248 -23
  14. package/locales/fa-IR/providers.json +3 -0
  15. package/locales/fr-FR/models.json +248 -23
  16. package/locales/fr-FR/providers.json +3 -0
  17. package/locales/it-IT/models.json +248 -23
  18. package/locales/it-IT/providers.json +3 -0
  19. package/locales/ja-JP/models.json +248 -23
  20. package/locales/ja-JP/providers.json +3 -0
  21. package/locales/ko-KR/models.json +248 -23
  22. package/locales/ko-KR/providers.json +3 -0
  23. package/locales/nl-NL/models.json +248 -23
  24. package/locales/nl-NL/providers.json +3 -0
  25. package/locales/pl-PL/models.json +248 -23
  26. package/locales/pl-PL/providers.json +3 -0
  27. package/locales/pt-BR/models.json +248 -23
  28. package/locales/pt-BR/providers.json +3 -0
  29. package/locales/ru-RU/models.json +248 -23
  30. package/locales/ru-RU/providers.json +3 -0
  31. package/locales/tr-TR/models.json +248 -23
  32. package/locales/tr-TR/providers.json +3 -0
  33. package/locales/vi-VN/models.json +248 -23
  34. package/locales/vi-VN/providers.json +3 -0
  35. package/locales/zh-CN/models.json +248 -23
  36. package/locales/zh-CN/providers.json +3 -0
  37. package/locales/zh-TW/models.json +248 -23
  38. package/locales/zh-TW/providers.json +3 -0
  39. package/package.json +1 -1
  40. package/packages/database/migrations/0031_add_agent_index.sql +6 -6
  41. package/packages/database/src/core/migrations.json +3 -3
  42. package/packages/model-runtime/src/core/RouterRuntime/baseRuntimeMap.ts +2 -0
  43. package/packages/model-runtime/src/providers/newapi/index.ts +17 -2
  44. package/packages/model-runtime/src/providers/qwen/createImage.test.ts +110 -0
  45. package/packages/model-runtime/src/providers/qwen/createImage.ts +100 -3
@@ -602,6 +602,33 @@
602
602
  "ai21-labs/AI21-Jamba-1.5-Mini": {
603
603
  "description": "یک مدل چندزبانه با ۵۲ میلیارد پارامتر (۱۲ میلیارد فعال) که پنجره زمینه ۲۵۶ هزار توکنی، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه می‌دهد."
604
604
  },
605
+ "alibaba/qwen-3-14b": {
606
+ "description": "Qwen3 جدیدترین نسل از مدل‌های زبان بزرگ در سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و متخصص ترکیبی (MoE) را ارائه می‌دهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفت‌های چشمگیری در استدلال، پیروی از دستورالعمل‌ها، توانایی‌های نمایندگی و پشتیبانی چندزبانه ارائه می‌دهد."
607
+ },
608
+ "alibaba/qwen-3-235b": {
609
+ "description": "Qwen3 جدیدترین نسل از مدل‌های زبان بزرگ در سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و متخصص ترکیبی (MoE) را ارائه می‌دهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفت‌های چشمگیری در استدلال، پیروی از دستورالعمل‌ها، توانایی‌های نمایندگی و پشتیبانی چندزبانه ارائه می‌دهد."
610
+ },
611
+ "alibaba/qwen-3-30b": {
612
+ "description": "Qwen3 جدیدترین نسل از مدل‌های زبان بزرگ در سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و متخصص ترکیبی (MoE) را ارائه می‌دهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفت‌های چشمگیری در استدلال، پیروی از دستورالعمل‌ها، توانایی‌های نمایندگی و پشتیبانی چندزبانه ارائه می‌دهد."
613
+ },
614
+ "alibaba/qwen-3-32b": {
615
+ "description": "Qwen3 جدیدترین نسل از مدل‌های زبان بزرگ در سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و متخصص ترکیبی (MoE) را ارائه می‌دهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفت‌های چشمگیری در استدلال، پیروی از دستورالعمل‌ها، توانایی‌های نمایندگی و پشتیبانی چندزبانه ارائه می‌دهد."
616
+ },
617
+ "alibaba/qwen3-coder": {
618
+ "description": "Qwen3-Coder-480B-A35B-Instruct مدل کدگذاری با بالاترین توان نمایندگی در Qwen است که در کدنویسی نمایندگی، استفاده از مرورگر نمایندگی و سایر وظایف پایه کدنویسی عملکرد قابل توجهی دارد و نتایجی معادل Claude Sonnet ارائه می‌دهد."
619
+ },
620
+ "amazon/nova-lite": {
621
+ "description": "یک مدل چندرسانه‌ای بسیار کم‌هزینه که سرعت بسیار بالایی در پردازش ورودی‌های تصویر، ویدئو و متن دارد."
622
+ },
623
+ "amazon/nova-micro": {
624
+ "description": "یک مدل فقط متنی که با هزینه بسیار پایین پاسخ‌هایی با کمترین تأخیر ارائه می‌دهد."
625
+ },
626
+ "amazon/nova-pro": {
627
+ "description": "یک مدل چندرسانه‌ای بسیار توانمند با ترکیب بهینه دقت، سرعت و هزینه که برای طیف گسترده‌ای از وظایف مناسب است."
628
+ },
629
+ "amazon/titan-embed-text-v2": {
630
+ "description": "Amazon Titan Text Embeddings V2 یک مدل جاسازی چندزبانه سبک و کارآمد است که از ابعاد 1024، 512 و 256 پشتیبانی می‌کند."
631
+ },
605
632
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
606
633
  "description": "Claude 3.5 Sonnet استانداردهای صنعت را ارتقا داده است، عملکردی بهتر از مدل‌های رقیب و Claude 3 Opus دارد، در ارزیابی‌های گسترده به خوبی عمل کرده و در عین حال سرعت و هزینه مدل‌های سطح متوسط ما را حفظ می‌کند."
607
634
  },
@@ -627,25 +654,28 @@
627
654
  "description": "نسخه به‌روزرسانی شده Claude 2، با دو برابر پنجره متنی و بهبود در قابلیت اطمینان، کاهش توهمات و دقت مبتنی بر شواهد در اسناد طولانی و زمینه‌های RAG."
628
655
  },
629
656
  "anthropic/claude-3-haiku": {
630
- "description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای ارائه پاسخ‌های تقریباً فوری طراحی شده است. این مدل دارای عملکرد سریع و دقیق جهت‌دار است."
657
+ "description": "Claude 3 Haiku سریع‌ترین مدل Anthropic تا به امروز است که برای بارهای کاری شرکتی که معمولاً شامل ورودی‌های طولانی است طراحی شده است. Haiku می‌تواند حجم زیادی از اسناد مانند گزارش‌های فصلی، قراردادها یا پرونده‌های حقوقی را به سرعت تحلیل کند و هزینه آن نصف مدل‌های هم‌رده خود است."
631
658
  },
632
659
  "anthropic/claude-3-opus": {
633
- "description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوش، روانی و درک عالی عمل می‌کند."
660
+ "description": "Claude 3 Opus هوشمندترین مدل Anthropic است که در وظایف بسیار پیچیده عملکرد پیشرو در بازار دارد. این مدل می‌تواند با روانی و درک انسانی برجسته، ورودی‌های باز و سناریوهای ناآشنا را مدیریت کند."
634
661
  },
635
662
  "anthropic/claude-3.5-haiku": {
636
- "description": "Claude 3.5 Haiku سریع‌ترین مدل نسل بعدی Anthropic است. در مقایسه با Claude 3 Haiku، Claude 3.5 Haiku در تمام مهارت‌ها بهبود یافته و در بسیاری از آزمون‌های هوش از بزرگترین مدل نسل قبلی، Claude 3 Opus پیشی گرفته است."
663
+ "description": "Claude 3.5 Haiku نسل بعدی سریع‌ترین مدل ما است. با سرعتی مشابه Claude 3 Haiku، در هر مجموعه مهارتی بهبود یافته و در بسیاری از آزمون‌های هوشمندی از مدل بزرگ قبلی ما Claude 3 Opus پیشی گرفته است."
637
664
  },
638
665
  "anthropic/claude-3.5-sonnet": {
639
- "description": "Claude 3.5 Sonnet توانایی‌هایی فراتر از Opus ارائه می‌دهد و سرعتی سریع‌تر از Sonnet دارد، در حالی که قیمت آن با Sonnet یکسان است. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، پردازش بصری و وظایف نمایندگی مهارت دارد."
666
+ "description": "Claude 3.5 Sonnet تعادل ایده‌آلی بین هوشمندی و سرعت برقرار می‌کند - به ویژه برای بارهای کاری شرکتی. در مقایسه با محصولات مشابه، عملکرد قدرتمندی با هزینه کمتر ارائه می‌دهد و برای دوام بالا در استقرارهای گسترده هوش مصنوعی طراحی شده است."
640
667
  },
641
668
  "anthropic/claude-3.7-sonnet": {
642
- "description": "Claude 3.7 Sonnet هو هوش مصنوعی پیشرفته‌ترین مدل Anthropic است و همچنین اولین مدل استدلال ترکیبی در بازار به شمار می‌رود. Claude 3.7 Sonnet می‌تواند پاسخ‌های تقریباً آنی یا تفکر تدریجی و طولانی‌تری تولید کند که کاربران می‌توانند این فرآیندها را به وضوح مشاهده کنند. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، پردازش بصری و وظایف نمایندگی مهارت دارد."
669
+ "description": "Claude 3.7 Sonnet اولین مدل استدلال ترکیبی و هوشمندترین مدل Anthropic تا به امروز است. این مدل عملکرد پیشرفته‌ای در کدنویسی، تولید محتوا، تحلیل داده و برنامه‌ریزی ارائه می‌دهد و بر پایه توانایی‌های مهندسی نرم‌افزار و استفاده از کامپیوتر مدل پیشین خود Claude 3.5 Sonnet ساخته شده است."
643
670
  },
644
671
  "anthropic/claude-opus-4": {
645
- "description": "Claude Opus 4 قوی‌ترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوش، روانی و درک برتری چشمگیری دارد."
672
+ "description": "Claude Opus 4 قدرتمندترین مدل Anthropic تا به امروز و بهترین مدل کدنویسی جهان است که در آزمون‌های SWE-bench (72.5%) و Terminal-bench (43.2%) پیشتاز است. این مدل عملکرد مداومی برای وظایف طولانی‌مدت که نیازمند تمرکز و هزاران مرحله هستند ارائه می‌دهد و توانایی‌های نمایندگی هوش مصنوعی را به طور قابل توجهی گسترش می‌دهد."
673
+ },
674
+ "anthropic/claude-opus-4.1": {
675
+ "description": "Claude Opus 4.1 جایگزینی plug-and-play برای Opus 4 است که عملکرد و دقت برجسته‌ای در وظایف کدنویسی و نمایندگی واقعی ارائه می‌دهد. Opus 4.1 عملکرد پیشرفته کدنویسی را به 74.5% در SWE-bench Verified ارتقا داده و مسائل چندمرحله‌ای پیچیده را با دقت و توجه بیشتر به جزئیات مدیریت می‌کند."
646
676
  },
647
677
  "anthropic/claude-sonnet-4": {
648
- "description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام به گام طولانی‌مدت تولید کند که کاربران می‌توانند این فرآیندها را به وضوح مشاهده کنند. کاربران API همچنین می‌توانند زمان تفکر مدل را به دقت کنترل کنند."
678
+ "description": "Claude Sonnet 4 بهبود قابل توجهی بر توانایی‌های پیشرو در صنعت Sonnet 3.7 دارد و در کدنویسی عملکرد برجسته‌ای با 72.7% در SWE-bench ارائه می‌دهد. این مدل تعادل بین عملکرد و کارایی را حفظ کرده و برای موارد استفاده داخلی و خارجی مناسب است و با کنترل‌پذیری بهبود یافته، کنترل بیشتری بر نتایج فراهم می‌کند."
649
679
  },
650
680
  "ascend-tribe/pangu-pro-moe": {
651
681
  "description": "Pangu-Pro-MoE 72B-A16B یک مدل زبان بزرگ پراکنده با 72 میلیارد پارامتر و 16 میلیارد پارامتر فعال است که بر اساس معماری متخصصان ترکیبی گروه‌بندی شده (MoGE) ساخته شده است. در مرحله انتخاب متخصص، متخصصان به گروه‌هایی تقسیم می‌شوند و توکن‌ها در هر گروه به تعداد مساوی متخصصان فعال می‌شوند تا تعادل بار متخصصان حفظ شود، که به طور قابل توجهی کارایی استقرار مدل را در پلتفرم Ascend افزایش می‌دهد."
@@ -797,6 +827,18 @@
797
827
  "cohere/Cohere-command-r-plus": {
798
828
  "description": "Command R+ یک مدل بهینه‌سازی شده پیشرفته برای RAG است که برای بارهای کاری سازمانی طراحی شده است."
799
829
  },
830
+ "cohere/command-a": {
831
+ "description": "Command A قوی‌ترین مدل Cohere تا به امروز است که در استفاده از ابزارها، نمایندگی، تولید تقویت‌شده با بازیابی (RAG) و موارد چندزبانه عملکرد برجسته‌ای دارد. طول زمینه Command A برابر با 256K است و با تنها دو GPU اجرا می‌شود و نسبت به Command R+ 08-2024، توان عملیاتی 150% افزایش یافته است."
832
+ },
833
+ "cohere/command-r": {
834
+ "description": "Command R یک مدل زبان بزرگ بهینه‌شده برای تعاملات مکالمه‌ای و وظایف با زمینه طولانی است. این مدل در دسته \"قابل مقیاس\" قرار دارد و تعادل بین عملکرد بالا و دقت قوی را برقرار می‌کند تا شرکت‌ها را قادر سازد از مرحله اثبات مفهوم به تولید برسند."
835
+ },
836
+ "cohere/command-r-plus": {
837
+ "description": "Command R+ جدیدترین مدل زبان بزرگ Cohere است که برای تعاملات مکالمه‌ای و وظایف با زمینه طولانی بهینه شده است. هدف آن ارائه عملکرد بسیار برجسته است تا شرکت‌ها بتوانند از مرحله اثبات مفهوم به تولید برسند."
838
+ },
839
+ "cohere/embed-v4.0": {
840
+ "description": "مدلی که امکان دسته‌بندی یا تبدیل متن، تصویر یا محتوای ترکیبی به جاسازی را فراهم می‌کند."
841
+ },
800
842
  "command": {
801
843
  "description": "یک مدل گفتگوی پیروی از دستور که در وظایف زبانی کیفیت بالاتر و قابلیت اطمینان بیشتری را ارائه می‌دهد و نسبت به مدل‌های تولید پایه ما دارای طول زمینه بیشتری است."
802
844
  },
@@ -975,7 +1017,7 @@
975
1017
  "description": "DeepSeek-V3.1 یک مدل بزرگ استدلال ترکیبی است که از زمینه طولانی 128K و تغییر حالت کارآمد پشتیبانی می‌کند و در فراخوانی ابزارها، تولید کد و وظایف استدلال پیچیده عملکرد و سرعت برجسته‌ای دارد."
976
1018
  },
977
1019
  "deepseek/deepseek-r1": {
978
- "description": "DeepSeek-R1 با وجود داده‌های برچسب‌گذاری شده بسیار کم، توانایی استدلال مدل را به طرز چشمگیری افزایش می‌دهد. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد."
1020
+ "description": "مدل DeepSeek R1 به‌روزرسانی‌های جزئی دریافت کرده و نسخه فعلی DeepSeek-R1-0528 است. در آخرین به‌روزرسانی، DeepSeek R1 با بهره‌گیری از منابع محاسباتی افزایش‌یافته و مکانیزم‌های بهینه‌سازی الگوریتمی پس از آموزش، عمق و توان استدلال خود را به طور قابل توجهی بهبود بخشیده است. این مدل در ارزیابی‌های معیار مختلف مانند ریاضیات، برنامه‌نویسی و منطق عمومی عملکرد برجسته‌ای دارد و عملکرد کلی آن اکنون به مدل‌های پیشرو مانند O3 و Gemini 2.5 Pro نزدیک شده است."
979
1021
  },
980
1022
  "deepseek/deepseek-r1-0528": {
981
1023
  "description": "DeepSeek-R1 با داشتن داده‌های برچسب‌خورده بسیار محدود، توانایی استدلال مدل را به طور چشمگیری افزایش داده است. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره فکری را تولید می‌کند تا دقت پاسخ نهایی را بهبود بخشد."
@@ -984,7 +1026,7 @@
984
1026
  "description": "DeepSeek-R1 با داشتن داده‌های برچسب‌خورده بسیار محدود، توانایی استدلال مدل را به طور چشمگیری افزایش داده است. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره فکری را تولید می‌کند تا دقت پاسخ نهایی را بهبود بخشد."
985
1027
  },
986
1028
  "deepseek/deepseek-r1-distill-llama-70b": {
987
- "description": "DeepSeek R1 Distill Llama 70B یک مدل زبان بزرگ مبتنی بر Llama3.3 70B است که با استفاده از تنظیمات DeepSeek R1 به عملکرد رقابتی معادل مدل‌های پیشرفته بزرگ دست یافته است."
1029
+ "description": "DeepSeek-R1-Distill-Llama-70B نسخه تقطیر شده و بهینه‌تر مدل 70B Llama است. این مدل در وظایف تولید متن عملکرد قوی خود را حفظ کرده و هزینه محاسباتی را کاهش داده تا استقرار و پژوهش را تسهیل کند. توسط Groq با استفاده از سخت‌افزار واحد پردازش زبان سفارشی (LPU) ارائه می‌شود تا استدلال سریع و کارآمد فراهم کند."
988
1030
  },
989
1031
  "deepseek/deepseek-r1-distill-llama-8b": {
990
1032
  "description": "DeepSeek R1 Distill Llama 8B یک مدل زبان بزرگ تقطیر شده مبتنی بر Llama-3.1-8B-Instruct است که با استفاده از خروجی DeepSeek R1 آموزش دیده است."
@@ -1002,7 +1044,10 @@
1002
1044
  "description": "DeepSeek-R1 با وجود داده‌های برچسب‌گذاری شده بسیار کم، توانایی استدلال مدل را به طرز چشمگیری افزایش می‌دهد. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد."
1003
1045
  },
1004
1046
  "deepseek/deepseek-v3": {
1005
- "description": "DeepSeek-V3 در سرعت استدلال به یک پیشرفت عمده نسبت به مدل‌های قبلی دست یافته است. این مدل در بین مدل‌های متن باز رتبه اول را دارد و می‌تواند با پیشرفته‌ترین مدل‌های بسته جهانی رقابت کند. DeepSeek-V3 از معماری توجه چندسر (MLA) و DeepSeekMoE استفاده می‌کند که این معماری‌ها در DeepSeek-V2 به طور کامل تأیید شده‌اند. علاوه بر این، DeepSeek-V3 یک استراتژی کمکی بدون ضرر برای تعادل بار معرفی کرده و اهداف آموزشی پیش‌بینی چند برچسبی را برای بهبود عملکرد تعیین کرده است."
1047
+ "description": "مدل زبان بزرگ سریع و عمومی با توان استدلال بهبود یافته."
1048
+ },
1049
+ "deepseek/deepseek-v3.1-base": {
1050
+ "description": "DeepSeek V3.1 Base نسخه بهبود یافته مدل DeepSeek V3 است."
1006
1051
  },
1007
1052
  "deepseek/deepseek-v3/community": {
1008
1053
  "description": "DeepSeek-V3 در سرعت استدلال به یک پیشرفت عمده نسبت به مدل‌های قبلی دست یافته است. این مدل در بین مدل‌های متن باز رتبه اول را دارد و می‌تواند با پیشرفته‌ترین مدل‌های بسته جهانی رقابت کند. DeepSeek-V3 از معماری توجه چندسر (MLA) و DeepSeekMoE استفاده می‌کند که این معماری‌ها در DeepSeek-V2 به طور کامل تأیید شده‌اند. علاوه بر این، DeepSeek-V3 یک استراتژی کمکی بدون ضرر برای تعادل بار معرفی کرده و اهداف آموزشی پیش‌بینی چند برچسبی را برای بهبود عملکرد تعیین کرده است."
@@ -1430,18 +1475,27 @@
1430
1475
  "glm-zero-preview": {
1431
1476
  "description": "GLM-Zero-Preview دارای توانایی‌های پیچیده استدلال است و در زمینه‌های استدلال منطقی، ریاضیات، برنامه‌نویسی و غیره عملکرد عالی دارد."
1432
1477
  },
1478
+ "google/gemini-2.0-flash": {
1479
+ "description": "Gemini 2.0 Flash ویژگی‌ها و قابلیت‌های نسل بعدی را ارائه می‌دهد، از جمله سرعت عالی، استفاده داخلی از ابزارها، تولید چندرسانه‌ای و پنجره زمینه 1 میلیون توکن."
1480
+ },
1433
1481
  "google/gemini-2.0-flash-001": {
1434
1482
  "description": "Gemini 2.0 Flash ویژگی‌ها و بهبودهای نسل بعدی را ارائه می‌دهد، از جمله سرعت عالی، استفاده از ابزارهای بومی، تولید چندرسانه‌ای و پنجره متن 1M توکن."
1435
1483
  },
1436
1484
  "google/gemini-2.0-flash-exp:free": {
1437
1485
  "description": "Gemini 2.0 Flash Experimental جدیدترین مدل هوش مصنوعی چندرسانه‌ای آزمایشی گوگل است که نسبت به نسخه‌های قبلی خود بهبود کیفیت قابل توجهی دارد، به ویژه در زمینه دانش جهانی، کد و زمینه‌های طولانی."
1438
1486
  },
1487
+ "google/gemini-2.0-flash-lite": {
1488
+ "description": "Gemini 2.0 Flash Lite ویژگی‌ها و قابلیت‌های نسل بعدی را ارائه می‌دهد، از جمله سرعت عالی، استفاده داخلی از ابزارها، تولید چندرسانه‌ای و پنجره زمینه 1 میلیون توکن."
1489
+ },
1439
1490
  "google/gemini-2.5-flash": {
1440
- "description": "Gemini 2.5 Flash پیشرفته‌ترین مدل اصلی گوگل است که به‌طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن امکان می‌دهد پاسخ‌هایی با دقت بالاتر و پردازش دقیق‌تر زمینه ارائه دهد.\n\nتوجه: این مدل دو نسخه دارد: تفکری و غیرتفکری. قیمت‌گذاری خروجی به طور قابل توجهی بسته به فعال بودن قابلیت تفکر متفاوت است. اگر نسخه استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل به‌طور صریح از تولید توکن‌های تفکر خودداری می‌کند.\n\nبرای بهره‌مندی از قابلیت تفکر و دریافت توکن‌های تفکر، باید نسخه «:thinking» را انتخاب کنید که منجر به قیمت‌گذاری بالاتر برای خروجی تفکر می‌شود.\n\nعلاوه بر این، Gemini 2.5 Flash را می‌توان از طریق پارامتر «حداکثر توکن‌های استدلال» پیکربندی کرد، همان‌طور که در مستندات آمده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1491
+ "description": "Gemini 2.5 Flash یک مدل تفکر است که توانایی‌های جامع برجسته‌ای ارائه می‌دهد. این مدل برای تعادل بین قیمت و عملکرد طراحی شده و از ورودی‌های چندرسانه‌ای و پنجره زمینه 1 میلیون توکن پشتیبانی می‌کند."
1441
1492
  },
1442
1493
  "google/gemini-2.5-flash-image-preview": {
1443
1494
  "description": "مدل آزمایشی Gemini 2.5 Flash با پشتیبانی از تولید تصویر"
1444
1495
  },
1496
+ "google/gemini-2.5-flash-lite": {
1497
+ "description": "Gemini 2.5 Flash-Lite یک مدل متعادل و با تأخیر کم است که بودجه تفکر و اتصال ابزار قابل تنظیم (مانند جستجوی Google و اجرای کد) دارد. این مدل از ورودی‌های چندرسانه‌ای پشتیبانی می‌کند و پنجره زمینه 1 میلیون توکن ارائه می‌دهد."
1498
+ },
1445
1499
  "google/gemini-2.5-flash-preview": {
1446
1500
  "description": "Gemini 2.5 Flash مدل اصلی پیشرفته گوگل است که به طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن اجازه می‌دهد پاسخ‌هایی با دقت بالاتر و پردازش زمینه‌ای دقیق‌تری ارائه دهد.\n\nتوجه: این مدل دارای دو واریانت است: تفکر و غیرتفکر. قیمت‌گذاری خروجی بسته به فعال بودن قابلیت تفکر به طور قابل توجهی متفاوت است. اگر شما واریانت استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل به وضوح از تولید توکن‌های تفکر اجتناب خواهد کرد.\n\nبرای استفاده از قابلیت تفکر و دریافت توکن‌های تفکر، شما باید واریانت «:thinking» را انتخاب کنید که منجر به قیمت‌گذاری بالاتر خروجی تفکر خواهد شد.\n\nعلاوه بر این، Gemini 2.5 Flash می‌تواند از طریق پارامتر «حداکثر تعداد توکن‌های استدلال» پیکربندی شود، همانطور که در مستندات توضیح داده شده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1447
1501
  },
@@ -1449,11 +1503,14 @@
1449
1503
  "description": "Gemini 2.5 Flash مدل اصلی پیشرفته گوگل است که به طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن اجازه می‌دهد پاسخ‌هایی با دقت بالاتر و پردازش زمینه‌ای دقیق‌تری ارائه دهد.\n\nتوجه: این مدل دارای دو واریانت است: تفکر و غیرتفکر. قیمت‌گذاری خروجی بسته به فعال بودن قابلیت تفکر به طور قابل توجهی متفاوت است. اگر شما واریانت استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل به وضوح از تولید توکن‌های تفکر اجتناب خواهد کرد.\n\nبرای استفاده از قابلیت تفکر و دریافت توکن‌های تفکر، شما باید واریانت «:thinking» را انتخاب کنید که منجر به قیمت‌گذاری بالاتر خروجی تفکر خواهد شد.\n\nعلاوه بر این، Gemini 2.5 Flash می‌تواند از طریق پارامتر «حداکثر تعداد توکن‌های استدلال» پیکربندی شود، همانطور که در مستندات توضیح داده شده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1450
1504
  },
1451
1505
  "google/gemini-2.5-pro": {
1452
- "description": "Gemini 2.5 Pro پیشرفته‌ترین مدل تفکری گوگل است که قادر به استدلال درباره مسائل پیچیده در حوزه کد، ریاضیات و STEM بوده و می‌تواند با استفاده از زمینه طولانی، داده‌های بزرگ، مخازن کد و مستندات را تحلیل کند."
1506
+ "description": "Gemini 2.5 Pro پیشرفته‌ترین مدل استدلال Gemini ما است که قادر به حل مسائل پیچیده است. این مدل دارای پنجره زمینه 2 میلیون توکن بوده و از ورودی‌های چندرسانه‌ای شامل متن، تصویر، صدا، ویدئو و اسناد PDF پشتیبانی می‌کند."
1453
1507
  },
1454
1508
  "google/gemini-2.5-pro-preview": {
1455
1509
  "description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل فکری گوگل است که قادر به استدلال درباره مسائل پیچیده در زمینه کد، ریاضیات و حوزه‌های STEM بوده و همچنین می‌تواند با استفاده از متن‌های طولانی، مجموعه‌های داده بزرگ، کدها و مستندات را تحلیل کند."
1456
1510
  },
1511
+ "google/gemini-embedding-001": {
1512
+ "description": "مدل جاسازی پیشرفته با عملکرد برجسته در وظایف زبان انگلیسی، چندزبانه و کد."
1513
+ },
1457
1514
  "google/gemini-flash-1.5": {
1458
1515
  "description": "Gemini 1.5 Flash قابلیت پردازش چندوجهی بهینه‌شده را ارائه می‌دهد و برای انواع سناریوهای پیچیده مناسب است."
1459
1516
  },
@@ -1490,6 +1547,12 @@
1490
1547
  "google/gemma-3-27b-it": {
1491
1548
  "description": "Gemma 3 27B یک مدل زبان متن باز از گوگل است که استانداردهای جدیدی را در زمینه کارایی و عملکرد تعیین کرده است."
1492
1549
  },
1550
+ "google/text-embedding-005": {
1551
+ "description": "مدل جاسازی متن متمرکز بر زبان انگلیسی بهینه شده برای وظایف کد و زبان انگلیسی."
1552
+ },
1553
+ "google/text-multilingual-embedding-002": {
1554
+ "description": "مدل جاسازی متن چندزبانه بهینه شده برای وظایف بین‌زبانی با پشتیبانی از زبان‌های متعدد."
1555
+ },
1493
1556
  "gpt-3.5-turbo": {
1494
1557
  "description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره می‌کند"
1495
1558
  },
@@ -1781,6 +1844,9 @@
1781
1844
  "imagen-4.0-ultra-generate-preview-06-06": {
1782
1845
  "description": "نسخه اولترا سری مدل متن به تصویر نسل چهارم Imagen"
1783
1846
  },
1847
+ "inception/mercury-coder-small": {
1848
+ "description": "Mercury Coder Small انتخاب ایده‌آل برای تولید، اشکال‌زدایی و بازسازی کد با کمترین تأخیر است."
1849
+ },
1784
1850
  "inclusionAI/Ling-mini-2.0": {
1785
1851
  "description": "Ling-mini-2.0 یک مدل زبان بزرگ کوچک‌حجم و با عملکرد بالا مبتنی بر معماری MoE است. این مدل دارای ۱۶ میلیارد پارامتر کل است، اما برای هر توکن تنها ۱.۴ میلیارد پارامتر فعال (بدون در نظر گرفتن تعبیه ۷۸۹ میلیون) فعال می‌شود، که منجر به سرعت تولید بسیار بالا می‌شود. به لطف طراحی کارآمد MoE و داده‌های آموزشی بزرگ و با کیفیت، با وجود پارامترهای فعال تنها ۱.۴ میلیارد، Ling-mini-2.0 در وظایف پایین‌دستی عملکردی در حد مدل‌های LLM متراکم زیر ۱۰ میلیارد و مدل‌های MoE بزرگ‌تر ارائه می‌دهد."
1786
1852
  },
@@ -2057,30 +2123,63 @@
2057
2123
  "meta/Meta-Llama-3.1-8B-Instruct": {
2058
2124
  "description": "مدل متنی تنظیم شده برای دستورالعمل Llama 3.1 که برای موارد استفاده گفتگوهای چندزبانه بهینه شده و در بسیاری از مدل‌های چت متن‌باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجسته‌ای دارد."
2059
2125
  },
2126
+ "meta/llama-3-70b": {
2127
+ "description": "مدل متن‌باز 70 میلیارد پارامتری که توسط Meta برای پیروی از دستورالعمل‌ها به دقت تنظیم شده است. توسط Groq با استفاده از سخت‌افزار واحد پردازش زبان سفارشی (LPU) ارائه می‌شود تا استدلال سریع و کارآمد فراهم کند."
2128
+ },
2129
+ "meta/llama-3-8b": {
2130
+ "description": "مدل متن‌باز 8 میلیارد پارامتری که توسط Meta برای پیروی از دستورالعمل‌ها به دقت تنظیم شده است. توسط Groq با استفاده از سخت‌افزار واحد پردازش زبان سفارشی (LPU) ارائه می‌شود تا استدلال سریع و کارآمد فراهم کند."
2131
+ },
2060
2132
  "meta/llama-3.1-405b-instruct": {
2061
2133
  "description": "مدل LLM پیشرفته که از تولید داده‌های ترکیبی، تقطیر دانش و استدلال پشتیبانی می‌کند و برای ربات‌های چت، برنامه‌نویسی و وظایف خاص مناسب است."
2062
2134
  },
2135
+ "meta/llama-3.1-70b": {
2136
+ "description": "نسخه به‌روزشده Meta Llama 3 70B Instruct با طول زمینه 128K گسترش یافته، چندزبانه و توان استدلال بهبود یافته."
2137
+ },
2063
2138
  "meta/llama-3.1-70b-instruct": {
2064
2139
  "description": "توانمندسازی گفتگوهای پیچیده با درک زمینه‌ای عالی، توانایی استدلال و قابلیت تولید متن."
2065
2140
  },
2141
+ "meta/llama-3.1-8b": {
2142
+ "description": "Llama 3.1 8B از پنجره زمینه 128K پشتیبانی می‌کند که آن را برای رابط‌های گفتگوی بلادرنگ و تحلیل داده ایده‌آل می‌سازد و در عین حال صرفه‌جویی قابل توجهی در هزینه نسبت به مدل‌های بزرگ‌تر ارائه می‌دهد. توسط Groq با استفاده از سخت‌افزار واحد پردازش زبان سفارشی (LPU) ارائه می‌شود تا استدلال سریع و کارآمد فراهم کند."
2143
+ },
2066
2144
  "meta/llama-3.1-8b-instruct": {
2067
2145
  "description": "مدل پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
2068
2146
  },
2147
+ "meta/llama-3.2-11b": {
2148
+ "description": "مدل تولید استدلال تصویری تنظیم شده با دستورالعمل (ورودی متن + تصویر / خروجی متن) که برای شناسایی بصری، استدلال تصویری، تولید عنوان و پاسخ به سوالات عمومی درباره تصاویر بهینه شده است."
2149
+ },
2069
2150
  "meta/llama-3.2-11b-vision-instruct": {
2070
2151
  "description": "مدل بینایی-زبان پیشرفته که در استدلال با کیفیت بالا از تصاویر مهارت دارد."
2071
2152
  },
2153
+ "meta/llama-3.2-1b": {
2154
+ "description": "مدل فقط متنی که از موارد استفاده روی دستگاه مانند بازیابی دانش محلی چندزبانه، خلاصه‌سازی و بازنویسی پشتیبانی می‌کند."
2155
+ },
2072
2156
  "meta/llama-3.2-1b-instruct": {
2073
2157
  "description": "مدل زبان کوچک پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
2074
2158
  },
2159
+ "meta/llama-3.2-3b": {
2160
+ "description": "مدل فقط متنی که به دقت برای پشتیبانی از موارد استفاده روی دستگاه مانند بازیابی دانش محلی چندزبانه، خلاصه‌سازی و بازنویسی تنظیم شده است."
2161
+ },
2075
2162
  "meta/llama-3.2-3b-instruct": {
2076
2163
  "description": "مدل زبان کوچک پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
2077
2164
  },
2165
+ "meta/llama-3.2-90b": {
2166
+ "description": "مدل تولید استدلال تصویری تنظیم شده با دستورالعمل (ورودی متن + تصویر / خروجی متن) که برای شناسایی بصری، استدلال تصویری، تولید عنوان و پاسخ به سوالات عمومی درباره تصاویر بهینه شده است."
2167
+ },
2078
2168
  "meta/llama-3.2-90b-vision-instruct": {
2079
2169
  "description": "مدل بینایی-زبان پیشرفته که در استدلال با کیفیت بالا از تصاویر مهارت دارد."
2080
2170
  },
2171
+ "meta/llama-3.3-70b": {
2172
+ "description": "ترکیب کامل عملکرد و کارایی. این مدل از گفتگوی هوش مصنوعی با عملکرد بالا پشتیبانی می‌کند و برای ایجاد محتوا، برنامه‌های شرکتی و پژوهش طراحی شده است و توانایی‌های پیشرفته درک زبان از جمله خلاصه‌سازی متن، دسته‌بندی، تحلیل احساسات و تولید کد را ارائه می‌دهد."
2173
+ },
2081
2174
  "meta/llama-3.3-70b-instruct": {
2082
2175
  "description": "مدل LLM پیشرفته که در استدلال، ریاضیات، دانش عمومی و فراخوانی توابع مهارت دارد."
2083
2176
  },
2177
+ "meta/llama-4-maverick": {
2178
+ "description": "مجموعه مدل‌های Llama 4 مدل‌های هوش مصنوعی چندرسانه‌ای بومی هستند که از تجربه‌های متنی و چندرسانه‌ای پشتیبانی می‌کنند. این مدل‌ها با استفاده از معماری متخصص ترکیبی عملکرد پیشرو در صنعت در درک متن و تصویر ارائه می‌دهند. Llama 4 Maverick، مدلی با 17 میلیارد پارامتر و 128 متخصص است. توسط DeepInfra ارائه می‌شود."
2179
+ },
2180
+ "meta/llama-4-scout": {
2181
+ "description": "مجموعه مدل‌های Llama 4 مدل‌های هوش مصنوعی چندرسانه‌ای بومی هستند که از تجربه‌های متنی و چندرسانه‌ای پشتیبانی می‌کنند. این مدل‌ها با استفاده از معماری متخصص ترکیبی عملکرد پیشرو در صنعت در درک متن و تصویر ارائه می‌دهند. Llama 4 Scout، مدلی با 17 میلیارد پارامتر و 16 متخصص است. توسط DeepInfra ارائه می‌شود."
2182
+ },
2084
2183
  "microsoft/Phi-3-medium-128k-instruct": {
2085
2184
  "description": "همان مدل Phi-3-medium با اندازه زمینه بزرگ‌تر، مناسب برای RAG یا تعداد کمی از پرامپت‌ها."
2086
2185
  },
@@ -2156,6 +2255,48 @@
2156
2255
  "mistral-small-latest": {
2157
2256
  "description": "Mistral Small یک گزینه مقرون‌به‌صرفه، سریع و قابل‌اعتماد است که برای موارد استفاده‌ای مانند ترجمه، خلاصه‌سازی و تحلیل احساسات مناسب است."
2158
2257
  },
2258
+ "mistral/codestral": {
2259
+ "description": "Mistral Codestral 25.01 مدل کدنویسی پیشرفته‌ای است که برای موارد استفاده با تأخیر کم و فرکانس بالا بهینه شده است. این مدل به بیش از 80 زبان برنامه‌نویسی مسلط است و در وظایفی مانند پر کردن میانی (FIM)، اصلاح کد و تولید تست عملکرد برجسته‌ای دارد."
2260
+ },
2261
+ "mistral/codestral-embed": {
2262
+ "description": "مدل جاسازی کد که می‌تواند در پایگاه‌های داده و مخازن کد جاسازی شود تا از دستیارهای کدنویسی پشتیبانی کند."
2263
+ },
2264
+ "mistral/devstral-small": {
2265
+ "description": "Devstral یک مدل زبان بزرگ نمایندگی برای وظایف مهندسی نرم‌افزار است که آن را به انتخابی عالی برای نمایندگان مهندسی نرم‌افزار تبدیل می‌کند."
2266
+ },
2267
+ "mistral/magistral-medium": {
2268
+ "description": "تفکر پیچیده با درک عمیق که استدلال شفاف قابل پیگیری و تأیید را ارائه می‌دهد. این مدل حتی هنگام تغییر زبان در میانه وظیفه، استدلال با وفاداری بالا را در زبان‌های متعدد حفظ می‌کند."
2269
+ },
2270
+ "mistral/magistral-small": {
2271
+ "description": "تفکر پیچیده با درک عمیق که استدلال شفاف قابل پیگیری و تأیید را ارائه می‌دهد. این مدل حتی هنگام تغییر زبان در میانه وظیفه، استدلال با وفاداری بالا را در زبان‌های متعدد حفظ می‌کند."
2272
+ },
2273
+ "mistral/ministral-3b": {
2274
+ "description": "مدلی جمع‌وجور و کارآمد برای وظایف روی دستگاه مانند دستیار هوشمند و تحلیل محلی که عملکرد با تأخیر کم ارائه می‌دهد."
2275
+ },
2276
+ "mistral/ministral-8b": {
2277
+ "description": "مدلی قدرتمندتر با استدلال سریع‌تر و بهینه‌تر از نظر حافظه که برای جریان‌های کاری پیچیده و برنامه‌های لبه‌ای با نیازهای بالا ایده‌آل است."
2278
+ },
2279
+ "mistral/mistral-embed": {
2280
+ "description": "مدل جاسازی متن عمومی برای جستجوی معنایی، تشابه، خوشه‌بندی و جریان‌های کاری RAG."
2281
+ },
2282
+ "mistral/mistral-large": {
2283
+ "description": "Mistral Large انتخاب ایده‌آل برای وظایف پیچیده است که نیازمند توان استدلال بزرگ یا تخصص بالا هستند — مانند تولید متن ترکیبی، تولید کد، RAG یا نمایندگی."
2284
+ },
2285
+ "mistral/mistral-saba-24b": {
2286
+ "description": "Mistral Saba 24B مدل متن‌باز 24 میلیارد پارامتری توسعه یافته توسط Mistral.ai است. Saba مدلی تخصصی است که برای عملکرد برجسته در زبان‌های عربی، فارسی، اردو، عبری و زبان‌های هندی آموزش دیده است. توسط Groq با استفاده از سخت‌افزار واحد پردازش زبان سفارشی (LPU) ارائه می‌شود تا استدلال سریع و کارآمد فراهم کند."
2287
+ },
2288
+ "mistral/mistral-small": {
2289
+ "description": "Mistral Small انتخاب ایده‌آل برای وظایف ساده‌ای است که می‌توانند به صورت دسته‌ای انجام شوند — مانند دسته‌بندی، پشتیبانی مشتری یا تولید متن. این مدل عملکرد عالی را با قیمت مقرون‌به‌صرفه ارائه می‌دهد."
2290
+ },
2291
+ "mistral/mixtral-8x22b-instruct": {
2292
+ "description": "مدل 8x22b Instruct. 8x22b مدل متن‌باز متخصص ترکیبی است که توسط Mistral ارائه می‌شود."
2293
+ },
2294
+ "mistral/pixtral-12b": {
2295
+ "description": "مدل 12 میلیارد پارامتری با توانایی درک تصویر و متن."
2296
+ },
2297
+ "mistral/pixtral-large": {
2298
+ "description": "Pixtral Large دومین مدل خانواده چندرسانه‌ای ما است که سطح پیشرفته‌ای از درک تصویر را نشان می‌دهد. به طور خاص، این مدل قادر به درک اسناد، نمودارها و تصاویر طبیعی است و در عین حال توانایی پیشرو در درک متن مدل Mistral Large 2 را حفظ می‌کند."
2299
+ },
2159
2300
  "mistralai/Mistral-7B-Instruct-v0.1": {
2160
2301
  "description": "Mistral (7B) Instruct به دلیل عملکرد بالا شناخته شده است و برای وظایف مختلف زبانی مناسب است."
2161
2302
  },
@@ -2222,12 +2363,21 @@
2222
2363
  "moonshotai/Kimi-K2-Instruct-0905": {
2223
2364
  "description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل یک مدل زبان برتر با معماری متخصص ترکیبی (MoE) است که دارای ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال می‌باشد. ویژگی‌های اصلی این مدل شامل: هوش کدگذاری عامل بهبود یافته که در آزمون‌های معیار عمومی و وظایف واقعی کدگذاری عامل عملکرد قابل توجهی نشان می‌دهد؛ تجربه کدگذاری فرانت‌اند بهبود یافته که از نظر زیبایی و کاربردی بودن برنامه‌نویسی فرانت‌اند پیشرفت داشته است."
2224
2365
  },
2366
+ "moonshotai/kimi-k2": {
2367
+ "description": "Kimi K2 مدل زبان بزرگ متخصص ترکیبی (MoE) با مقیاس بزرگ توسعه یافته توسط Moonshot AI است که دارای 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال در هر عبور جلو است. این مدل برای توانایی نمایندگی بهینه شده است، از جمله استفاده پیشرفته از ابزارها، استدلال و ترکیب کد."
2368
+ },
2225
2369
  "moonshotai/kimi-k2-0905": {
2226
2370
  "description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
2227
2371
  },
2228
2372
  "moonshotai/kimi-k2-instruct-0905": {
2229
2373
  "description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
2230
2374
  },
2375
+ "morph/morph-v3-fast": {
2376
+ "description": "Morph مدل هوش مصنوعی تخصصی است که تغییرات کد پیشنهادی مدل‌های پیشرفته مانند Claude یا GPT-4o را به فایل‌های کد موجود شما به سرعت اعمال می‌کند — بیش از 4500 توکن در ثانیه. این مدل به عنوان مرحله نهایی در جریان کاری کدنویسی هوش مصنوعی عمل می‌کند و از ورودی و خروجی 16k توکن پشتیبانی می‌کند."
2377
+ },
2378
+ "morph/morph-v3-large": {
2379
+ "description": "Morph مدل هوش مصنوعی تخصصی است که تغییرات کد پیشنهادی مدل‌های پیشرفته مانند Claude یا GPT-4o را به فایل‌های کد موجود شما با سرعت بیش از 2500 توکن در ثانیه اعمال می‌کند. این مدل به عنوان مرحله نهایی در جریان کاری کدنویسی هوش مصنوعی عمل می‌کند و از ورودی و خروجی 16k توکن پشتیبانی می‌کند."
2380
+ },
2231
2381
  "nousresearch/hermes-2-pro-llama-3-8b": {
2232
2382
  "description": "هرمس ۲ پرو لاما ۳ ۸B نسخه ارتقاء یافته Nous Hermes 2 است که شامل جدیدترین مجموعه داده‌های توسعه‌یافته داخلی می‌باشد."
2233
2383
  },
@@ -2294,29 +2444,47 @@
2294
2444
  "open-mixtral-8x7b": {
2295
2445
  "description": "Mixtral 8x7B یک مدل متخصص پراکنده است که با استفاده از پارامترهای متعدد سرعت استنتاج را افزایش می‌دهد و برای پردازش وظایف چندزبانه و تولید کد مناسب است."
2296
2446
  },
2447
+ "openai/gpt-3.5-turbo": {
2448
+ "description": "توانمندترین و مقرون‌به‌صرفه‌ترین مدل در سری GPT-3.5 از OpenAI که برای اهداف مکالمه بهینه شده است، اما در وظایف تکمیل سنتی نیز عملکرد خوبی دارد."
2449
+ },
2450
+ "openai/gpt-3.5-turbo-instruct": {
2451
+ "description": "توانایی مشابه مدل‌های دوره GPT-3. با نقاط انتهایی تکمیل سنتی سازگار است، نه نقاط انتهایی تکمیل مکالمه."
2452
+ },
2453
+ "openai/gpt-4-turbo": {
2454
+ "description": "gpt-4-turbo از OpenAI دانش عمومی گسترده و تخصص حوزه‌ای دارد که آن را قادر می‌سازد دستورالعمل‌های پیچیده زبان طبیعی را دنبال کرده و مسائل دشوار را با دقت حل کند. تاریخ قطع دانش آن آوریل 2023 است و پنجره زمینه آن 128,000 توکن است."
2455
+ },
2297
2456
  "openai/gpt-4.1": {
2298
- "description": "GPT-4.1 پرچمدار مدل‌های ما برای وظایف پیچیده است. این مدل برای حل مسائل بین‌رشته‌ای بسیار مناسب است."
2457
+ "description": "GPT 4.1 مدل پرچمدار OpenAI برای وظایف پیچیده است. این مدل برای حل مسائل چندرشته‌ای بسیار مناسب است."
2299
2458
  },
2300
2459
  "openai/gpt-4.1-mini": {
2301
- "description": "GPT-4.1 mini تعادلی بین هوش، سرعت و هزینه ارائه می‌دهد و آن را به مدلی جذاب در بسیاری از موارد استفاده تبدیل می‌کند."
2460
+ "description": "GPT 4.1 mini تعادل بین هوشمندی، سرعت و هزینه را برقرار می‌کند و آن را به مدلی جذاب برای بسیاری از موارد استفاده تبدیل می‌کند."
2302
2461
  },
2303
2462
  "openai/gpt-4.1-nano": {
2304
- "description": "GPT-4.1 nano سریع‌ترین و مقرون به صرفه‌ترین مدل GPT-4.1 است."
2463
+ "description": "GPT-4.1 nano سریع‌ترین و مقرون‌به‌صرفه‌ترین مدل GPT 4.1 است."
2305
2464
  },
2306
2465
  "openai/gpt-4o": {
2307
- "description": "ChatGPT-4o یک مدل پویا است که به‌صورت زنده به‌روزرسانی می‌شود تا همیشه نسخه‌ی جدید و به‌روز باشد. این مدل ترکیبی از توانایی‌های قدرتمند درک و تولید زبان را ارائه می‌دهد و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
2466
+ "description": "GPT-4o از OpenAI دانش عمومی گسترده و تخصص حوزه‌ای دارد که آن را قادر می‌سازد دستورالعمل‌های پیچیده زبان طبیعی را دنبال کرده و مسائل دشوار را با دقت حل کند. این مدل عملکرد GPT-4 Turbo را با API سریع‌تر و ارزان‌تر ارائه می‌دهد."
2308
2467
  },
2309
2468
  "openai/gpt-4o-mini": {
2310
- "description": "GPT-4o mini جدیدترین مدل OpenAI است که پس از GPT-4 Omni عرضه شده و از ورودی‌های تصویری و متنی پشتیبانی می‌کند و خروجی متنی ارائه می‌دهد. به عنوان پیشرفته‌ترین مدل کوچک آن‌ها، این مدل بسیار ارزان‌تر از سایر مدل‌های پیشرفته اخیر است و بیش از ۶۰٪ ارزان‌تر از GPT-3.5 Turbo می‌باشد. این مدل هوشمندی پیشرفته را حفظ کرده و در عین حال از نظر اقتصادی بسیار مقرون به صرفه است. GPT-4o mini در آزمون MMLU امتیاز ۸۲٪ را کسب کرده و در حال حاضر در ترجیحات چت بالاتر از GPT-4 رتبه‌بندی شده است."
2469
+ "description": "GPT-4o mini از OpenAI کوچک‌ترین مدل پیشرفته و مقرون‌به‌صرفه آن‌ها است. این مدل چندرسانه‌ای است (ورودی متن یا تصویر را می‌پذیرد و خروجی متن ارائه می‌دهد) و هوشمندتر از gpt-3.5-turbo است، اما سرعت مشابهی دارد."
2470
+ },
2471
+ "openai/gpt-5": {
2472
+ "description": "GPT-5 مدل زبان پرچمدار OpenAI است که در استدلال پیچیده، دانش گسترده دنیای واقعی، وظایف کدمحور و نمایندگی چندمرحله‌ای عملکرد برجسته‌ای دارد."
2473
+ },
2474
+ "openai/gpt-5-mini": {
2475
+ "description": "GPT-5 mini مدلی بهینه‌شده از نظر هزینه است که در وظایف استدلال/مکالمه عملکرد خوبی دارد. این مدل تعادل بهینه‌ای بین سرعت، هزینه و توانایی ارائه می‌دهد."
2476
+ },
2477
+ "openai/gpt-5-nano": {
2478
+ "description": "GPT-5 nano مدلی با توان عملیاتی بالا است که در وظایف دستورالعمل ساده یا دسته‌بندی عملکرد خوبی دارد."
2311
2479
  },
2312
2480
  "openai/gpt-oss-120b": {
2313
- "description": "OpenAI GPT-OSS 120B یک مدل زبان پیشرفته با 120 میلیارد پارامتر است که دارای قابلیت جستجوی مرورگر و اجرای کد می‌باشد و توانایی استدلال دارد."
2481
+ "description": "مدل زبان بزرگ عمومی بسیار توانمند با توان استدلال قوی و قابل کنترل."
2314
2482
  },
2315
2483
  "openai/gpt-oss-20b": {
2316
- "description": "OpenAI GPT-OSS 20B یک مدل زبان پیشرفته با 20 میلیارد پارامتر است که دارای قابلیت جستجوی مرورگر و اجرای کد می‌باشد و توانایی استدلال دارد."
2484
+ "description": "مدل زبان جمع‌وجور با وزن‌های متن‌باز که برای تأخیر کم و محیط‌های محدود منابع بهینه شده است، شامل استقرار محلی و لبه."
2317
2485
  },
2318
2486
  "openai/o1": {
2319
- "description": "o1 مدل استدلال جدید OpenAI است که از ورودی‌های تصویری و متنی پشتیبانی می‌کند و خروجی متنی ارائه می‌دهد، مناسب برای وظایف پیچیده‌ای که نیاز به دانش عمومی گسترده دارند. این مدل دارای زمینه ۲۰۰ هزار توکنی و تاریخ قطع دانش در اکتبر ۲۰۲۳ است."
2487
+ "description": "o1 از OpenAI مدل استدلال پرچمدار است که برای مسائل پیچیده نیازمند تفکر عمیق طراحی شده است. این مدل توان استدلال قوی و دقت بالاتری برای وظایف چندمرحله‌ای پیچیده ارائه می‌دهد."
2320
2488
  },
2321
2489
  "openai/o1-mini": {
2322
2490
  "description": "o1-mini یک مدل استنتاج سریع و مقرون‌به‌صرفه است که برای برنامه‌نویسی، ریاضیات و کاربردهای علمی طراحی شده است. این مدل دارای ۱۲۸ هزار بایت زمینه و تاریخ قطع دانش تا اکتبر ۲۰۲۳ می‌باشد."
@@ -2325,23 +2493,44 @@
2325
2493
  "description": "o1 مدل جدید استنتاج OpenAI است که برای وظایف پیچیده‌ای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 128K زمینه و تاریخ قطع دانش تا اکتبر 2023 است."
2326
2494
  },
2327
2495
  "openai/o3": {
2328
- "description": "o3 یک مدل قدرتمند و چندمنظوره است که در زمینه‌های مختلف عملکرد عالی دارد. این مدل استانداردهای جدیدی را برای وظایف ریاضی، علمی، برنامه‌نویسی و استدلال بصری تعیین کرده است. همچنین در نوشتن فنی و پیروی از دستورالعمل‌ها مهارت دارد. کاربران می‌توانند از آن برای تحلیل متن، کد و تصویر و حل مسائل پیچیده چند مرحله‌ای استفاده کنند."
2496
+ "description": "o3 از OpenAI قدرتمندترین مدل استدلال است که سطوح پیشرفته جدیدی در کدنویسی، ریاضیات، علوم و درک بصری ایجاد کرده است. این مدل در پرسش‌های پیچیده که نیازمند تحلیل چندجانبه هستند مهارت دارد و در تحلیل تصاویر، نمودارها و گراف‌ها برتری خاصی دارد."
2329
2497
  },
2330
2498
  "openai/o3-mini": {
2331
- "description": "o3-mini هوش بالایی را در همان هزینه و هدف تأخیر o1-mini ارائه می‌دهد."
2499
+ "description": "o3-mini جدیدترین مدل استدلال کوچک OpenAI است که هوشمندی بالایی را با همان اهداف هزینه و تأخیر o1-mini ارائه می‌دهد."
2332
2500
  },
2333
2501
  "openai/o3-mini-high": {
2334
2502
  "description": "نسخه o3-mini با سطح استدلال بالا، هوش بالایی را در همان هزینه و هدف تأخیر o1-mini ارائه می‌دهد."
2335
2503
  },
2336
2504
  "openai/o4-mini": {
2337
- "description": "o4-mini به‌طور خاص برای استدلال سریع و مؤثر بهینه‌سازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
2505
+ "description": "o4-mini از OpenAI استدلال سریع و مقرون‌به‌صرفه ارائه می‌دهد و در اندازه خود عملکرد برجسته‌ای دارد، به ویژه در ریاضیات (بهترین عملکرد در آزمون AIME)، کدنویسی و وظایف بصری."
2338
2506
  },
2339
2507
  "openai/o4-mini-high": {
2340
2508
  "description": "نسخه با سطح استدلال بالا o4-mini، که به‌طور خاص برای استدلال سریع و مؤثر بهینه‌سازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
2341
2509
  },
2510
+ "openai/text-embedding-3-large": {
2511
+ "description": "توانمندترین مدل جاسازی OpenAI برای وظایف انگلیسی و غیرانگلیسی."
2512
+ },
2513
+ "openai/text-embedding-3-small": {
2514
+ "description": "نسخه بهبود یافته و با عملکرد بالاتر مدل جاسازی ada از OpenAI."
2515
+ },
2516
+ "openai/text-embedding-ada-002": {
2517
+ "description": "مدل جاسازی متن سنتی OpenAI."
2518
+ },
2342
2519
  "openrouter/auto": {
2343
2520
  "description": "با توجه به طول متن، موضوع و پیچیدگی، درخواست شما به Llama 3 70B Instruct، Claude 3.5 Sonnet (تنظیم خودکار) یا GPT-4o ارسال خواهد شد."
2344
2521
  },
2522
+ "perplexity/sonar": {
2523
+ "description": "محصول سبک Perplexity با قابلیت جستجوی مبتنی بر زمینه، سریع‌تر و ارزان‌تر از Sonar Pro."
2524
+ },
2525
+ "perplexity/sonar-pro": {
2526
+ "description": "محصول پرچمدار Perplexity با قابلیت جستجوی مبتنی بر زمینه که از پرسش‌های پیشرفته و عملیات پیگیری پشتیبانی می‌کند."
2527
+ },
2528
+ "perplexity/sonar-reasoning": {
2529
+ "description": "مدلی متمرکز بر استدلال که زنجیره تفکر (CoT) را در پاسخ‌ها ارائه می‌دهد و توضیحات مفصل با جستجوی مبتنی بر زمینه فراهم می‌کند."
2530
+ },
2531
+ "perplexity/sonar-reasoning-pro": {
2532
+ "description": "مدل پیشرفته متمرکز بر استدلال که زنجیره تفکر (CoT) را در پاسخ‌ها ارائه می‌دهد و توضیحات جامع با قابلیت جستجوی پیشرفته و چندین پرس‌وجوی جستجو برای هر درخواست فراهم می‌کند."
2533
+ },
2345
2534
  "phi3": {
2346
2535
  "description": "Phi-3 یک مدل سبک و باز از مایکروسافت است که برای یکپارچه‌سازی کارآمد و استدلال دانش در مقیاس بزرگ مناسب است."
2347
2536
  },
@@ -2804,6 +2993,12 @@
2804
2993
  "v0-1.5-md": {
2805
2994
  "description": "مدل v0-1.5-md برای وظایف روزمره و تولید رابط کاربری (UI) مناسب است"
2806
2995
  },
2996
+ "vercel/v0-1.0-md": {
2997
+ "description": "دسترسی به مدل پشت v0 برای تولید، رفع اشکال و بهینه‌سازی برنامه‌های وب مدرن با استدلال چارچوب خاص و دانش به‌روز."
2998
+ },
2999
+ "vercel/v0-1.5-md": {
3000
+ "description": "دسترسی به مدل پشت v0 برای تولید، رفع اشکال و بهینه‌سازی برنامه‌های وب مدرن با استدلال چارچوب خاص و دانش به‌روز."
3001
+ },
2807
3002
  "wan2.2-t2i-flash": {
2808
3003
  "description": "نسخه سریع Wanxiang 2.2، جدیدترین مدل فعلی. در خلاقیت، پایداری و واقع‌گرایی به طور کامل ارتقا یافته، سرعت تولید بالا و نسبت قیمت به کیفیت عالی دارد."
2809
3004
  },
@@ -2834,6 +3029,27 @@
2834
3029
  "x1": {
2835
3030
  "description": "مدل Spark X1 به‌زودی ارتقا خواهد یافت و در زمینه وظایف ریاضی که در کشور پیشرو است، عملکردهای استدلال، تولید متن و درک زبان را با OpenAI o1 و DeepSeek R1 مقایسه خواهد کرد."
2836
3031
  },
3032
+ "xai/grok-2": {
3033
+ "description": "Grok 2 مدل زبان پیشرفته با توان استدلال پیشرفته است. این مدل در مکالمه، کدنویسی و استدلال توانایی‌های پیشرفته دارد و در رتبه‌بندی LMSYS بالاتر از Claude 3.5 Sonnet و GPT-4-Turbo قرار دارد."
3034
+ },
3035
+ "xai/grok-2-vision": {
3036
+ "description": "مدل بصری Grok 2 در وظایف مبتنی بر دید عملکرد برجسته‌ای دارد و در استدلال ریاضی بصری (MathVista) و پرسش و پاسخ مبتنی بر سند (DocVQA) عملکرد پیشرفته ارائه می‌دهد. این مدل قادر به پردازش انواع اطلاعات بصری از جمله اسناد، نمودارها، جداول، اسکرین‌شات‌ها و عکس‌ها است."
3037
+ },
3038
+ "xai/grok-3": {
3039
+ "description": "مدل پرچمدار xAI که در موارد استفاده شرکتی مانند استخراج داده، کدنویسی و خلاصه‌سازی متن عملکرد برجسته‌ای دارد. دارای دانش عمیق حوزه در مالی، مراقبت‌های بهداشتی، حقوقی و علوم است."
3040
+ },
3041
+ "xai/grok-3-fast": {
3042
+ "description": "مدل پرچمدار xAI که در موارد استفاده شرکتی مانند استخراج داده، کدنویسی و خلاصه‌سازی متن عملکرد برجسته‌ای دارد. نسخه سریع‌تر مدل روی زیرساخت سریع‌تر ارائه می‌شود و زمان پاسخ بسیار کوتاه‌تری دارد. افزایش سرعت با هزینه بالاتر به ازای هر توکن خروجی همراه است."
3043
+ },
3044
+ "xai/grok-3-mini": {
3045
+ "description": "مدل سبک وزن xAI که قبل از پاسخ دادن تفکر می‌کند. برای وظایف ساده یا مبتنی بر منطق که نیاز به دانش عمیق حوزه ندارند بسیار مناسب است. مسیر تفکر خام قابل دسترسی است."
3046
+ },
3047
+ "xai/grok-3-mini-fast": {
3048
+ "description": "مدل سبک وزن xAI که قبل از پاسخ دادن تفکر می‌کند. برای وظایف ساده یا مبتنی بر منطق که نیاز به دانش عمیق حوزه ندارند بسیار مناسب است. مسیر تفکر خام قابل دسترسی است. نسخه سریع‌تر مدل روی زیرساخت سریع‌تر ارائه می‌شود و زمان پاسخ بسیار کوتاه‌تری دارد. افزایش سرعت با هزینه بالاتر به ازای هر توکن خروجی همراه است."
3049
+ },
3050
+ "xai/grok-4": {
3051
+ "description": "جدیدترین و بزرگ‌ترین مدل پرچمدار xAI که عملکرد بی‌نظیری در زبان طبیعی، ریاضیات و استدلال ارائه می‌دهد — انتخابی کامل و همه‌کاره."
3052
+ },
2837
3053
  "yi-1.5-34b-chat": {
2838
3054
  "description": "Yi-1.5 نسخه‌ی به‌روزرسانی شده‌ی Yi است. این مدل با استفاده از یک مجموعه داده با کیفیت بالا شامل 500 میلیارد توکن برای پیش‌آموزی و 3 میلیون نمونه متنوع برای آموزش ریزی مجدداً آموزش داده شده است."
2839
3055
  },
@@ -2881,5 +3097,14 @@
2881
3097
  },
2882
3098
  "zai-org/GLM-4.5V": {
2883
3099
  "description": "GLM-4.5V نسل جدیدی از مدل‌های زبان-بینایی (VLM) است که توسط Zhipu AI (智谱 AI) منتشر شده. این مدل بر پایهٔ مدل متنی پرچم‌دار GLM-4.5-Air ساخته شده که دارای 106 میلیارد پارامتر کل و 12 میلیارد پارامتر فعال‌سازی است؛ از معماری متخصصان ترکیبی (MoE) بهره می‌برد و هدفش ارائهٔ عملکرد برجسته با هزینهٔ استدلال کمتر است. از منظر فناوری، GLM-4.5V راهبرد GLM-4.1V-Thinking را ادامه می‌دهد و نوآوری‌هایی مانند کدگذاری موقعیت چرخشی سه‌بعدی (3D-RoPE) را معرفی کرده که به‌طور چشمگیری درک و استدلال نسبت‌های فضایی سه‌بعدی را تقویت می‌کند. با بهینه‌سازی در مراحل پیش‌آموزش، ریزتنظیم نظارتی و یادگیری تقویتی، این مدل قادر به پردازش انواع محتواهای بصری از جمله تصویر، ویدیو و اسناد بلند شده و در 41 معیار چندوجهی عمومی به سطح برتر مدل‌های متن‌باز هم‌رده دست یافته است. علاوه بر این، یک سوئیچ «حالت تفکر» به مدل افزوده شده که به کاربران اجازه می‌دهد بین پاسخ‌دهی سریع و استدلال عمیق به‌صورت انعطاف‌پذیر انتخاب کنند تا تعادل بین کارایی و کیفیت برقرار شود."
3100
+ },
3101
+ "zai/glm-4.5": {
3102
+ "description": "مجموعه مدل‌های GLM-4.5 مدل‌های پایه طراحی شده برای نمایندگان هوشمند هستند. مدل پرچمدار GLM-4.5 با 355 میلیارد پارامتر کل (32 میلیارد فعال) یکپارچه‌سازی استدلال، کدنویسی و توانایی‌های نمایندگی را برای حل نیازهای پیچیده برنامه‌ها ارائه می‌دهد. به عنوان یک سیستم استدلال ترکیبی، دو حالت عملیاتی دارد."
3103
+ },
3104
+ "zai/glm-4.5-air": {
3105
+ "description": "GLM-4.5 و GLM-4.5-Air مدل‌های پرچمدار جدید ما هستند که به عنوان مدل‌های پایه برای برنامه‌های نمایندگی طراحی شده‌اند. هر دو از معماری متخصص ترکیبی (MoE) بهره می‌برند. GLM-4.5 دارای 355 میلیارد پارامتر کل و 32 میلیارد پارامتر فعال در هر عبور جلو است، در حالی که GLM-4.5-Air طراحی ساده‌تری دارد با 106 میلیارد پارامتر کل و 12 میلیارد پارامتر فعال."
3106
+ },
3107
+ "zai/glm-4.5v": {
3108
+ "description": "GLM-4.5V بر پایه مدل پایه GLM-4.5-Air ساخته شده است، فناوری اثبات شده GLM-4.1V-Thinking را به ارث برده و در عین حال با معماری قدرتمند MoE با 106 میلیارد پارامتر به طور مؤثر مقیاس‌پذیر شده است."
2884
3109
  }
2885
3110
  }
@@ -161,6 +161,9 @@
161
161
  "v0": {
162
162
  "description": "v0 یک دستیار برنامه‌نویسی جفتی است که تنها با توصیف ایده‌ها به زبان طبیعی، می‌تواند کد و رابط کاربری (UI) را برای پروژه شما تولید کند"
163
163
  },
164
+ "vercelaigateway": {
165
+ "description": "دروازه هوش مصنوعی Vercel یک API یکپارچه برای دسترسی به بیش از ۱۰۰ مدل ارائه می‌دهد که از طریق یک نقطه انتهایی واحد می‌توان از مدل‌های ارائه‌دهندگان مختلفی مانند OpenAI، Anthropic، Google و غیره استفاده کرد. این سرویس از تنظیم بودجه، نظارت بر استفاده، تعادل بار درخواست‌ها و انتقال خطا پشتیبانی می‌کند."
166
+ },
164
167
  "vertexai": {
165
168
  "description": "سری Gemini گوگل پیشرفته‌ترین و عمومی‌ترین مدل‌های هوش مصنوعی است که توسط Google DeepMind طراحی شده و به‌طور خاص برای چندرسانه‌ای طراحی شده است و از درک و پردازش بی‌وقفه متن، کد، تصویر، صدا و ویدیو پشتیبانی می‌کند. این مدل‌ها برای محیط‌های مختلف از مراکز داده تا دستگاه‌های همراه مناسب هستند و به‌طور قابل توجهی کارایی و کاربردهای مدل‌های هوش مصنوعی را افزایش می‌دهند."
166
169
  },