@lobehub/chat 1.129.1 → 1.129.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/models.json +248 -23
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/models.json +248 -23
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/models.json +248 -23
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/models.json +248 -23
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/models.json +248 -23
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/models.json +248 -23
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/models.json +248 -23
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/models.json +248 -23
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/models.json +248 -23
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/models.json +248 -23
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/models.json +248 -23
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/models.json +248 -23
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/models.json +248 -23
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/models.json +248 -23
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/models.json +248 -23
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/models.json +248 -23
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/models.json +248 -23
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/models.json +248 -23
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/packages/database/migrations/0031_add_agent_index.sql +6 -6
- package/packages/database/src/core/migrations.json +3 -3
- package/packages/model-runtime/src/core/RouterRuntime/baseRuntimeMap.ts +2 -0
- package/packages/model-runtime/src/providers/newapi/index.ts +17 -2
- package/packages/model-runtime/src/providers/qwen/createImage.test.ts +110 -0
- package/packages/model-runtime/src/providers/qwen/createImage.ts +100 -3
|
@@ -602,6 +602,33 @@
|
|
|
602
602
|
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
|
603
603
|
"description": "یک مدل چندزبانه با ۵۲ میلیارد پارامتر (۱۲ میلیارد فعال) که پنجره زمینه ۲۵۶ هزار توکنی، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه میدهد."
|
|
604
604
|
},
|
|
605
|
+
"alibaba/qwen-3-14b": {
|
|
606
|
+
"description": "Qwen3 جدیدترین نسل از مدلهای زبان بزرگ در سری Qwen است که مجموعهای جامع از مدلهای متراکم و متخصص ترکیبی (MoE) را ارائه میدهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفتهای چشمگیری در استدلال، پیروی از دستورالعملها، تواناییهای نمایندگی و پشتیبانی چندزبانه ارائه میدهد."
|
|
607
|
+
},
|
|
608
|
+
"alibaba/qwen-3-235b": {
|
|
609
|
+
"description": "Qwen3 جدیدترین نسل از مدلهای زبان بزرگ در سری Qwen است که مجموعهای جامع از مدلهای متراکم و متخصص ترکیبی (MoE) را ارائه میدهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفتهای چشمگیری در استدلال، پیروی از دستورالعملها، تواناییهای نمایندگی و پشتیبانی چندزبانه ارائه میدهد."
|
|
610
|
+
},
|
|
611
|
+
"alibaba/qwen-3-30b": {
|
|
612
|
+
"description": "Qwen3 جدیدترین نسل از مدلهای زبان بزرگ در سری Qwen است که مجموعهای جامع از مدلهای متراکم و متخصص ترکیبی (MoE) را ارائه میدهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفتهای چشمگیری در استدلال، پیروی از دستورالعملها، تواناییهای نمایندگی و پشتیبانی چندزبانه ارائه میدهد."
|
|
613
|
+
},
|
|
614
|
+
"alibaba/qwen-3-32b": {
|
|
615
|
+
"description": "Qwen3 جدیدترین نسل از مدلهای زبان بزرگ در سری Qwen است که مجموعهای جامع از مدلهای متراکم و متخصص ترکیبی (MoE) را ارائه میدهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفتهای چشمگیری در استدلال، پیروی از دستورالعملها، تواناییهای نمایندگی و پشتیبانی چندزبانه ارائه میدهد."
|
|
616
|
+
},
|
|
617
|
+
"alibaba/qwen3-coder": {
|
|
618
|
+
"description": "Qwen3-Coder-480B-A35B-Instruct مدل کدگذاری با بالاترین توان نمایندگی در Qwen است که در کدنویسی نمایندگی، استفاده از مرورگر نمایندگی و سایر وظایف پایه کدنویسی عملکرد قابل توجهی دارد و نتایجی معادل Claude Sonnet ارائه میدهد."
|
|
619
|
+
},
|
|
620
|
+
"amazon/nova-lite": {
|
|
621
|
+
"description": "یک مدل چندرسانهای بسیار کمهزینه که سرعت بسیار بالایی در پردازش ورودیهای تصویر، ویدئو و متن دارد."
|
|
622
|
+
},
|
|
623
|
+
"amazon/nova-micro": {
|
|
624
|
+
"description": "یک مدل فقط متنی که با هزینه بسیار پایین پاسخهایی با کمترین تأخیر ارائه میدهد."
|
|
625
|
+
},
|
|
626
|
+
"amazon/nova-pro": {
|
|
627
|
+
"description": "یک مدل چندرسانهای بسیار توانمند با ترکیب بهینه دقت، سرعت و هزینه که برای طیف گستردهای از وظایف مناسب است."
|
|
628
|
+
},
|
|
629
|
+
"amazon/titan-embed-text-v2": {
|
|
630
|
+
"description": "Amazon Titan Text Embeddings V2 یک مدل جاسازی چندزبانه سبک و کارآمد است که از ابعاد 1024، 512 و 256 پشتیبانی میکند."
|
|
631
|
+
},
|
|
605
632
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
|
606
633
|
"description": "Claude 3.5 Sonnet استانداردهای صنعت را ارتقا داده است، عملکردی بهتر از مدلهای رقیب و Claude 3 Opus دارد، در ارزیابیهای گسترده به خوبی عمل کرده و در عین حال سرعت و هزینه مدلهای سطح متوسط ما را حفظ میکند."
|
|
607
634
|
},
|
|
@@ -627,25 +654,28 @@
|
|
|
627
654
|
"description": "نسخه بهروزرسانی شده Claude 2، با دو برابر پنجره متنی و بهبود در قابلیت اطمینان، کاهش توهمات و دقت مبتنی بر شواهد در اسناد طولانی و زمینههای RAG."
|
|
628
655
|
},
|
|
629
656
|
"anthropic/claude-3-haiku": {
|
|
630
|
-
"description": "Claude 3 Haiku سریعترین
|
|
657
|
+
"description": "Claude 3 Haiku سریعترین مدل Anthropic تا به امروز است که برای بارهای کاری شرکتی که معمولاً شامل ورودیهای طولانی است طراحی شده است. Haiku میتواند حجم زیادی از اسناد مانند گزارشهای فصلی، قراردادها یا پروندههای حقوقی را به سرعت تحلیل کند و هزینه آن نصف مدلهای همرده خود است."
|
|
631
658
|
},
|
|
632
659
|
"anthropic/claude-3-opus": {
|
|
633
|
-
"description": "Claude 3 Opus
|
|
660
|
+
"description": "Claude 3 Opus هوشمندترین مدل Anthropic است که در وظایف بسیار پیچیده عملکرد پیشرو در بازار دارد. این مدل میتواند با روانی و درک انسانی برجسته، ورودیهای باز و سناریوهای ناآشنا را مدیریت کند."
|
|
634
661
|
},
|
|
635
662
|
"anthropic/claude-3.5-haiku": {
|
|
636
|
-
"description": "Claude 3.5 Haiku
|
|
663
|
+
"description": "Claude 3.5 Haiku نسل بعدی سریعترین مدل ما است. با سرعتی مشابه Claude 3 Haiku، در هر مجموعه مهارتی بهبود یافته و در بسیاری از آزمونهای هوشمندی از مدل بزرگ قبلی ما Claude 3 Opus پیشی گرفته است."
|
|
637
664
|
},
|
|
638
665
|
"anthropic/claude-3.5-sonnet": {
|
|
639
|
-
"description": "Claude 3.5 Sonnet
|
|
666
|
+
"description": "Claude 3.5 Sonnet تعادل ایدهآلی بین هوشمندی و سرعت برقرار میکند - به ویژه برای بارهای کاری شرکتی. در مقایسه با محصولات مشابه، عملکرد قدرتمندی با هزینه کمتر ارائه میدهد و برای دوام بالا در استقرارهای گسترده هوش مصنوعی طراحی شده است."
|
|
640
667
|
},
|
|
641
668
|
"anthropic/claude-3.7-sonnet": {
|
|
642
|
-
"description": "Claude 3.7 Sonnet
|
|
669
|
+
"description": "Claude 3.7 Sonnet اولین مدل استدلال ترکیبی و هوشمندترین مدل Anthropic تا به امروز است. این مدل عملکرد پیشرفتهای در کدنویسی، تولید محتوا، تحلیل داده و برنامهریزی ارائه میدهد و بر پایه تواناییهای مهندسی نرمافزار و استفاده از کامپیوتر مدل پیشین خود Claude 3.5 Sonnet ساخته شده است."
|
|
643
670
|
},
|
|
644
671
|
"anthropic/claude-opus-4": {
|
|
645
|
-
"description": "Claude Opus 4
|
|
672
|
+
"description": "Claude Opus 4 قدرتمندترین مدل Anthropic تا به امروز و بهترین مدل کدنویسی جهان است که در آزمونهای SWE-bench (72.5%) و Terminal-bench (43.2%) پیشتاز است. این مدل عملکرد مداومی برای وظایف طولانیمدت که نیازمند تمرکز و هزاران مرحله هستند ارائه میدهد و تواناییهای نمایندگی هوش مصنوعی را به طور قابل توجهی گسترش میدهد."
|
|
673
|
+
},
|
|
674
|
+
"anthropic/claude-opus-4.1": {
|
|
675
|
+
"description": "Claude Opus 4.1 جایگزینی plug-and-play برای Opus 4 است که عملکرد و دقت برجستهای در وظایف کدنویسی و نمایندگی واقعی ارائه میدهد. Opus 4.1 عملکرد پیشرفته کدنویسی را به 74.5% در SWE-bench Verified ارتقا داده و مسائل چندمرحلهای پیچیده را با دقت و توجه بیشتر به جزئیات مدیریت میکند."
|
|
646
676
|
},
|
|
647
677
|
"anthropic/claude-sonnet-4": {
|
|
648
|
-
"description": "Claude Sonnet 4
|
|
678
|
+
"description": "Claude Sonnet 4 بهبود قابل توجهی بر تواناییهای پیشرو در صنعت Sonnet 3.7 دارد و در کدنویسی عملکرد برجستهای با 72.7% در SWE-bench ارائه میدهد. این مدل تعادل بین عملکرد و کارایی را حفظ کرده و برای موارد استفاده داخلی و خارجی مناسب است و با کنترلپذیری بهبود یافته، کنترل بیشتری بر نتایج فراهم میکند."
|
|
649
679
|
},
|
|
650
680
|
"ascend-tribe/pangu-pro-moe": {
|
|
651
681
|
"description": "Pangu-Pro-MoE 72B-A16B یک مدل زبان بزرگ پراکنده با 72 میلیارد پارامتر و 16 میلیارد پارامتر فعال است که بر اساس معماری متخصصان ترکیبی گروهبندی شده (MoGE) ساخته شده است. در مرحله انتخاب متخصص، متخصصان به گروههایی تقسیم میشوند و توکنها در هر گروه به تعداد مساوی متخصصان فعال میشوند تا تعادل بار متخصصان حفظ شود، که به طور قابل توجهی کارایی استقرار مدل را در پلتفرم Ascend افزایش میدهد."
|
|
@@ -797,6 +827,18 @@
|
|
|
797
827
|
"cohere/Cohere-command-r-plus": {
|
|
798
828
|
"description": "Command R+ یک مدل بهینهسازی شده پیشرفته برای RAG است که برای بارهای کاری سازمانی طراحی شده است."
|
|
799
829
|
},
|
|
830
|
+
"cohere/command-a": {
|
|
831
|
+
"description": "Command A قویترین مدل Cohere تا به امروز است که در استفاده از ابزارها، نمایندگی، تولید تقویتشده با بازیابی (RAG) و موارد چندزبانه عملکرد برجستهای دارد. طول زمینه Command A برابر با 256K است و با تنها دو GPU اجرا میشود و نسبت به Command R+ 08-2024، توان عملیاتی 150% افزایش یافته است."
|
|
832
|
+
},
|
|
833
|
+
"cohere/command-r": {
|
|
834
|
+
"description": "Command R یک مدل زبان بزرگ بهینهشده برای تعاملات مکالمهای و وظایف با زمینه طولانی است. این مدل در دسته \"قابل مقیاس\" قرار دارد و تعادل بین عملکرد بالا و دقت قوی را برقرار میکند تا شرکتها را قادر سازد از مرحله اثبات مفهوم به تولید برسند."
|
|
835
|
+
},
|
|
836
|
+
"cohere/command-r-plus": {
|
|
837
|
+
"description": "Command R+ جدیدترین مدل زبان بزرگ Cohere است که برای تعاملات مکالمهای و وظایف با زمینه طولانی بهینه شده است. هدف آن ارائه عملکرد بسیار برجسته است تا شرکتها بتوانند از مرحله اثبات مفهوم به تولید برسند."
|
|
838
|
+
},
|
|
839
|
+
"cohere/embed-v4.0": {
|
|
840
|
+
"description": "مدلی که امکان دستهبندی یا تبدیل متن، تصویر یا محتوای ترکیبی به جاسازی را فراهم میکند."
|
|
841
|
+
},
|
|
800
842
|
"command": {
|
|
801
843
|
"description": "یک مدل گفتگوی پیروی از دستور که در وظایف زبانی کیفیت بالاتر و قابلیت اطمینان بیشتری را ارائه میدهد و نسبت به مدلهای تولید پایه ما دارای طول زمینه بیشتری است."
|
|
802
844
|
},
|
|
@@ -975,7 +1017,7 @@
|
|
|
975
1017
|
"description": "DeepSeek-V3.1 یک مدل بزرگ استدلال ترکیبی است که از زمینه طولانی 128K و تغییر حالت کارآمد پشتیبانی میکند و در فراخوانی ابزارها، تولید کد و وظایف استدلال پیچیده عملکرد و سرعت برجستهای دارد."
|
|
976
1018
|
},
|
|
977
1019
|
"deepseek/deepseek-r1": {
|
|
978
|
-
"description": "DeepSeek-R1 با
|
|
1020
|
+
"description": "مدل DeepSeek R1 بهروزرسانیهای جزئی دریافت کرده و نسخه فعلی DeepSeek-R1-0528 است. در آخرین بهروزرسانی، DeepSeek R1 با بهرهگیری از منابع محاسباتی افزایشیافته و مکانیزمهای بهینهسازی الگوریتمی پس از آموزش، عمق و توان استدلال خود را به طور قابل توجهی بهبود بخشیده است. این مدل در ارزیابیهای معیار مختلف مانند ریاضیات، برنامهنویسی و منطق عمومی عملکرد برجستهای دارد و عملکرد کلی آن اکنون به مدلهای پیشرو مانند O3 و Gemini 2.5 Pro نزدیک شده است."
|
|
979
1021
|
},
|
|
980
1022
|
"deepseek/deepseek-r1-0528": {
|
|
981
1023
|
"description": "DeepSeek-R1 با داشتن دادههای برچسبخورده بسیار محدود، توانایی استدلال مدل را به طور چشمگیری افزایش داده است. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره فکری را تولید میکند تا دقت پاسخ نهایی را بهبود بخشد."
|
|
@@ -984,7 +1026,7 @@
|
|
|
984
1026
|
"description": "DeepSeek-R1 با داشتن دادههای برچسبخورده بسیار محدود، توانایی استدلال مدل را به طور چشمگیری افزایش داده است. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره فکری را تولید میکند تا دقت پاسخ نهایی را بهبود بخشد."
|
|
985
1027
|
},
|
|
986
1028
|
"deepseek/deepseek-r1-distill-llama-70b": {
|
|
987
|
-
"description": "DeepSeek
|
|
1029
|
+
"description": "DeepSeek-R1-Distill-Llama-70B نسخه تقطیر شده و بهینهتر مدل 70B Llama است. این مدل در وظایف تولید متن عملکرد قوی خود را حفظ کرده و هزینه محاسباتی را کاهش داده تا استقرار و پژوهش را تسهیل کند. توسط Groq با استفاده از سختافزار واحد پردازش زبان سفارشی (LPU) ارائه میشود تا استدلال سریع و کارآمد فراهم کند."
|
|
988
1030
|
},
|
|
989
1031
|
"deepseek/deepseek-r1-distill-llama-8b": {
|
|
990
1032
|
"description": "DeepSeek R1 Distill Llama 8B یک مدل زبان بزرگ تقطیر شده مبتنی بر Llama-3.1-8B-Instruct است که با استفاده از خروجی DeepSeek R1 آموزش دیده است."
|
|
@@ -1002,7 +1044,10 @@
|
|
|
1002
1044
|
"description": "DeepSeek-R1 با وجود دادههای برچسبگذاری شده بسیار کم، توانایی استدلال مدل را به طرز چشمگیری افزایش میدهد. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید میکند تا دقت پاسخ نهایی را افزایش دهد."
|
|
1003
1045
|
},
|
|
1004
1046
|
"deepseek/deepseek-v3": {
|
|
1005
|
-
"description": "
|
|
1047
|
+
"description": "مدل زبان بزرگ سریع و عمومی با توان استدلال بهبود یافته."
|
|
1048
|
+
},
|
|
1049
|
+
"deepseek/deepseek-v3.1-base": {
|
|
1050
|
+
"description": "DeepSeek V3.1 Base نسخه بهبود یافته مدل DeepSeek V3 است."
|
|
1006
1051
|
},
|
|
1007
1052
|
"deepseek/deepseek-v3/community": {
|
|
1008
1053
|
"description": "DeepSeek-V3 در سرعت استدلال به یک پیشرفت عمده نسبت به مدلهای قبلی دست یافته است. این مدل در بین مدلهای متن باز رتبه اول را دارد و میتواند با پیشرفتهترین مدلهای بسته جهانی رقابت کند. DeepSeek-V3 از معماری توجه چندسر (MLA) و DeepSeekMoE استفاده میکند که این معماریها در DeepSeek-V2 به طور کامل تأیید شدهاند. علاوه بر این، DeepSeek-V3 یک استراتژی کمکی بدون ضرر برای تعادل بار معرفی کرده و اهداف آموزشی پیشبینی چند برچسبی را برای بهبود عملکرد تعیین کرده است."
|
|
@@ -1430,18 +1475,27 @@
|
|
|
1430
1475
|
"glm-zero-preview": {
|
|
1431
1476
|
"description": "GLM-Zero-Preview دارای تواناییهای پیچیده استدلال است و در زمینههای استدلال منطقی، ریاضیات، برنامهنویسی و غیره عملکرد عالی دارد."
|
|
1432
1477
|
},
|
|
1478
|
+
"google/gemini-2.0-flash": {
|
|
1479
|
+
"description": "Gemini 2.0 Flash ویژگیها و قابلیتهای نسل بعدی را ارائه میدهد، از جمله سرعت عالی، استفاده داخلی از ابزارها، تولید چندرسانهای و پنجره زمینه 1 میلیون توکن."
|
|
1480
|
+
},
|
|
1433
1481
|
"google/gemini-2.0-flash-001": {
|
|
1434
1482
|
"description": "Gemini 2.0 Flash ویژگیها و بهبودهای نسل بعدی را ارائه میدهد، از جمله سرعت عالی، استفاده از ابزارهای بومی، تولید چندرسانهای و پنجره متن 1M توکن."
|
|
1435
1483
|
},
|
|
1436
1484
|
"google/gemini-2.0-flash-exp:free": {
|
|
1437
1485
|
"description": "Gemini 2.0 Flash Experimental جدیدترین مدل هوش مصنوعی چندرسانهای آزمایشی گوگل است که نسبت به نسخههای قبلی خود بهبود کیفیت قابل توجهی دارد، به ویژه در زمینه دانش جهانی، کد و زمینههای طولانی."
|
|
1438
1486
|
},
|
|
1487
|
+
"google/gemini-2.0-flash-lite": {
|
|
1488
|
+
"description": "Gemini 2.0 Flash Lite ویژگیها و قابلیتهای نسل بعدی را ارائه میدهد، از جمله سرعت عالی، استفاده داخلی از ابزارها، تولید چندرسانهای و پنجره زمینه 1 میلیون توکن."
|
|
1489
|
+
},
|
|
1439
1490
|
"google/gemini-2.5-flash": {
|
|
1440
|
-
"description": "Gemini 2.5 Flash
|
|
1491
|
+
"description": "Gemini 2.5 Flash یک مدل تفکر است که تواناییهای جامع برجستهای ارائه میدهد. این مدل برای تعادل بین قیمت و عملکرد طراحی شده و از ورودیهای چندرسانهای و پنجره زمینه 1 میلیون توکن پشتیبانی میکند."
|
|
1441
1492
|
},
|
|
1442
1493
|
"google/gemini-2.5-flash-image-preview": {
|
|
1443
1494
|
"description": "مدل آزمایشی Gemini 2.5 Flash با پشتیبانی از تولید تصویر"
|
|
1444
1495
|
},
|
|
1496
|
+
"google/gemini-2.5-flash-lite": {
|
|
1497
|
+
"description": "Gemini 2.5 Flash-Lite یک مدل متعادل و با تأخیر کم است که بودجه تفکر و اتصال ابزار قابل تنظیم (مانند جستجوی Google و اجرای کد) دارد. این مدل از ورودیهای چندرسانهای پشتیبانی میکند و پنجره زمینه 1 میلیون توکن ارائه میدهد."
|
|
1498
|
+
},
|
|
1445
1499
|
"google/gemini-2.5-flash-preview": {
|
|
1446
1500
|
"description": "Gemini 2.5 Flash مدل اصلی پیشرفته گوگل است که به طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن اجازه میدهد پاسخهایی با دقت بالاتر و پردازش زمینهای دقیقتری ارائه دهد.\n\nتوجه: این مدل دارای دو واریانت است: تفکر و غیرتفکر. قیمتگذاری خروجی بسته به فعال بودن قابلیت تفکر به طور قابل توجهی متفاوت است. اگر شما واریانت استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل به وضوح از تولید توکنهای تفکر اجتناب خواهد کرد.\n\nبرای استفاده از قابلیت تفکر و دریافت توکنهای تفکر، شما باید واریانت «:thinking» را انتخاب کنید که منجر به قیمتگذاری بالاتر خروجی تفکر خواهد شد.\n\nعلاوه بر این، Gemini 2.5 Flash میتواند از طریق پارامتر «حداکثر تعداد توکنهای استدلال» پیکربندی شود، همانطور که در مستندات توضیح داده شده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1447
1501
|
},
|
|
@@ -1449,11 +1503,14 @@
|
|
|
1449
1503
|
"description": "Gemini 2.5 Flash مدل اصلی پیشرفته گوگل است که به طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن اجازه میدهد پاسخهایی با دقت بالاتر و پردازش زمینهای دقیقتری ارائه دهد.\n\nتوجه: این مدل دارای دو واریانت است: تفکر و غیرتفکر. قیمتگذاری خروجی بسته به فعال بودن قابلیت تفکر به طور قابل توجهی متفاوت است. اگر شما واریانت استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل به وضوح از تولید توکنهای تفکر اجتناب خواهد کرد.\n\nبرای استفاده از قابلیت تفکر و دریافت توکنهای تفکر، شما باید واریانت «:thinking» را انتخاب کنید که منجر به قیمتگذاری بالاتر خروجی تفکر خواهد شد.\n\nعلاوه بر این، Gemini 2.5 Flash میتواند از طریق پارامتر «حداکثر تعداد توکنهای استدلال» پیکربندی شود، همانطور که در مستندات توضیح داده شده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1450
1504
|
},
|
|
1451
1505
|
"google/gemini-2.5-pro": {
|
|
1452
|
-
"description": "Gemini 2.5 Pro پیشرفتهترین مدل
|
|
1506
|
+
"description": "Gemini 2.5 Pro پیشرفتهترین مدل استدلال Gemini ما است که قادر به حل مسائل پیچیده است. این مدل دارای پنجره زمینه 2 میلیون توکن بوده و از ورودیهای چندرسانهای شامل متن، تصویر، صدا، ویدئو و اسناد PDF پشتیبانی میکند."
|
|
1453
1507
|
},
|
|
1454
1508
|
"google/gemini-2.5-pro-preview": {
|
|
1455
1509
|
"description": "Gemini 2.5 Pro Preview پیشرفتهترین مدل فکری گوگل است که قادر به استدلال درباره مسائل پیچیده در زمینه کد، ریاضیات و حوزههای STEM بوده و همچنین میتواند با استفاده از متنهای طولانی، مجموعههای داده بزرگ، کدها و مستندات را تحلیل کند."
|
|
1456
1510
|
},
|
|
1511
|
+
"google/gemini-embedding-001": {
|
|
1512
|
+
"description": "مدل جاسازی پیشرفته با عملکرد برجسته در وظایف زبان انگلیسی، چندزبانه و کد."
|
|
1513
|
+
},
|
|
1457
1514
|
"google/gemini-flash-1.5": {
|
|
1458
1515
|
"description": "Gemini 1.5 Flash قابلیت پردازش چندوجهی بهینهشده را ارائه میدهد و برای انواع سناریوهای پیچیده مناسب است."
|
|
1459
1516
|
},
|
|
@@ -1490,6 +1547,12 @@
|
|
|
1490
1547
|
"google/gemma-3-27b-it": {
|
|
1491
1548
|
"description": "Gemma 3 27B یک مدل زبان متن باز از گوگل است که استانداردهای جدیدی را در زمینه کارایی و عملکرد تعیین کرده است."
|
|
1492
1549
|
},
|
|
1550
|
+
"google/text-embedding-005": {
|
|
1551
|
+
"description": "مدل جاسازی متن متمرکز بر زبان انگلیسی بهینه شده برای وظایف کد و زبان انگلیسی."
|
|
1552
|
+
},
|
|
1553
|
+
"google/text-multilingual-embedding-002": {
|
|
1554
|
+
"description": "مدل جاسازی متن چندزبانه بهینه شده برای وظایف بینزبانی با پشتیبانی از زبانهای متعدد."
|
|
1555
|
+
},
|
|
1493
1556
|
"gpt-3.5-turbo": {
|
|
1494
1557
|
"description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره میکند"
|
|
1495
1558
|
},
|
|
@@ -1781,6 +1844,9 @@
|
|
|
1781
1844
|
"imagen-4.0-ultra-generate-preview-06-06": {
|
|
1782
1845
|
"description": "نسخه اولترا سری مدل متن به تصویر نسل چهارم Imagen"
|
|
1783
1846
|
},
|
|
1847
|
+
"inception/mercury-coder-small": {
|
|
1848
|
+
"description": "Mercury Coder Small انتخاب ایدهآل برای تولید، اشکالزدایی و بازسازی کد با کمترین تأخیر است."
|
|
1849
|
+
},
|
|
1784
1850
|
"inclusionAI/Ling-mini-2.0": {
|
|
1785
1851
|
"description": "Ling-mini-2.0 یک مدل زبان بزرگ کوچکحجم و با عملکرد بالا مبتنی بر معماری MoE است. این مدل دارای ۱۶ میلیارد پارامتر کل است، اما برای هر توکن تنها ۱.۴ میلیارد پارامتر فعال (بدون در نظر گرفتن تعبیه ۷۸۹ میلیون) فعال میشود، که منجر به سرعت تولید بسیار بالا میشود. به لطف طراحی کارآمد MoE و دادههای آموزشی بزرگ و با کیفیت، با وجود پارامترهای فعال تنها ۱.۴ میلیارد، Ling-mini-2.0 در وظایف پاییندستی عملکردی در حد مدلهای LLM متراکم زیر ۱۰ میلیارد و مدلهای MoE بزرگتر ارائه میدهد."
|
|
1786
1852
|
},
|
|
@@ -2057,30 +2123,63 @@
|
|
|
2057
2123
|
"meta/Meta-Llama-3.1-8B-Instruct": {
|
|
2058
2124
|
"description": "مدل متنی تنظیم شده برای دستورالعمل Llama 3.1 که برای موارد استفاده گفتگوهای چندزبانه بهینه شده و در بسیاری از مدلهای چت متنباز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجستهای دارد."
|
|
2059
2125
|
},
|
|
2126
|
+
"meta/llama-3-70b": {
|
|
2127
|
+
"description": "مدل متنباز 70 میلیارد پارامتری که توسط Meta برای پیروی از دستورالعملها به دقت تنظیم شده است. توسط Groq با استفاده از سختافزار واحد پردازش زبان سفارشی (LPU) ارائه میشود تا استدلال سریع و کارآمد فراهم کند."
|
|
2128
|
+
},
|
|
2129
|
+
"meta/llama-3-8b": {
|
|
2130
|
+
"description": "مدل متنباز 8 میلیارد پارامتری که توسط Meta برای پیروی از دستورالعملها به دقت تنظیم شده است. توسط Groq با استفاده از سختافزار واحد پردازش زبان سفارشی (LPU) ارائه میشود تا استدلال سریع و کارآمد فراهم کند."
|
|
2131
|
+
},
|
|
2060
2132
|
"meta/llama-3.1-405b-instruct": {
|
|
2061
2133
|
"description": "مدل LLM پیشرفته که از تولید دادههای ترکیبی، تقطیر دانش و استدلال پشتیبانی میکند و برای رباتهای چت، برنامهنویسی و وظایف خاص مناسب است."
|
|
2062
2134
|
},
|
|
2135
|
+
"meta/llama-3.1-70b": {
|
|
2136
|
+
"description": "نسخه بهروزشده Meta Llama 3 70B Instruct با طول زمینه 128K گسترش یافته، چندزبانه و توان استدلال بهبود یافته."
|
|
2137
|
+
},
|
|
2063
2138
|
"meta/llama-3.1-70b-instruct": {
|
|
2064
2139
|
"description": "توانمندسازی گفتگوهای پیچیده با درک زمینهای عالی، توانایی استدلال و قابلیت تولید متن."
|
|
2065
2140
|
},
|
|
2141
|
+
"meta/llama-3.1-8b": {
|
|
2142
|
+
"description": "Llama 3.1 8B از پنجره زمینه 128K پشتیبانی میکند که آن را برای رابطهای گفتگوی بلادرنگ و تحلیل داده ایدهآل میسازد و در عین حال صرفهجویی قابل توجهی در هزینه نسبت به مدلهای بزرگتر ارائه میدهد. توسط Groq با استفاده از سختافزار واحد پردازش زبان سفارشی (LPU) ارائه میشود تا استدلال سریع و کارآمد فراهم کند."
|
|
2143
|
+
},
|
|
2066
2144
|
"meta/llama-3.1-8b-instruct": {
|
|
2067
2145
|
"description": "مدل پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
|
|
2068
2146
|
},
|
|
2147
|
+
"meta/llama-3.2-11b": {
|
|
2148
|
+
"description": "مدل تولید استدلال تصویری تنظیم شده با دستورالعمل (ورودی متن + تصویر / خروجی متن) که برای شناسایی بصری، استدلال تصویری، تولید عنوان و پاسخ به سوالات عمومی درباره تصاویر بهینه شده است."
|
|
2149
|
+
},
|
|
2069
2150
|
"meta/llama-3.2-11b-vision-instruct": {
|
|
2070
2151
|
"description": "مدل بینایی-زبان پیشرفته که در استدلال با کیفیت بالا از تصاویر مهارت دارد."
|
|
2071
2152
|
},
|
|
2153
|
+
"meta/llama-3.2-1b": {
|
|
2154
|
+
"description": "مدل فقط متنی که از موارد استفاده روی دستگاه مانند بازیابی دانش محلی چندزبانه، خلاصهسازی و بازنویسی پشتیبانی میکند."
|
|
2155
|
+
},
|
|
2072
2156
|
"meta/llama-3.2-1b-instruct": {
|
|
2073
2157
|
"description": "مدل زبان کوچک پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
|
|
2074
2158
|
},
|
|
2159
|
+
"meta/llama-3.2-3b": {
|
|
2160
|
+
"description": "مدل فقط متنی که به دقت برای پشتیبانی از موارد استفاده روی دستگاه مانند بازیابی دانش محلی چندزبانه، خلاصهسازی و بازنویسی تنظیم شده است."
|
|
2161
|
+
},
|
|
2075
2162
|
"meta/llama-3.2-3b-instruct": {
|
|
2076
2163
|
"description": "مدل زبان کوچک پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
|
|
2077
2164
|
},
|
|
2165
|
+
"meta/llama-3.2-90b": {
|
|
2166
|
+
"description": "مدل تولید استدلال تصویری تنظیم شده با دستورالعمل (ورودی متن + تصویر / خروجی متن) که برای شناسایی بصری، استدلال تصویری، تولید عنوان و پاسخ به سوالات عمومی درباره تصاویر بهینه شده است."
|
|
2167
|
+
},
|
|
2078
2168
|
"meta/llama-3.2-90b-vision-instruct": {
|
|
2079
2169
|
"description": "مدل بینایی-زبان پیشرفته که در استدلال با کیفیت بالا از تصاویر مهارت دارد."
|
|
2080
2170
|
},
|
|
2171
|
+
"meta/llama-3.3-70b": {
|
|
2172
|
+
"description": "ترکیب کامل عملکرد و کارایی. این مدل از گفتگوی هوش مصنوعی با عملکرد بالا پشتیبانی میکند و برای ایجاد محتوا، برنامههای شرکتی و پژوهش طراحی شده است و تواناییهای پیشرفته درک زبان از جمله خلاصهسازی متن، دستهبندی، تحلیل احساسات و تولید کد را ارائه میدهد."
|
|
2173
|
+
},
|
|
2081
2174
|
"meta/llama-3.3-70b-instruct": {
|
|
2082
2175
|
"description": "مدل LLM پیشرفته که در استدلال، ریاضیات، دانش عمومی و فراخوانی توابع مهارت دارد."
|
|
2083
2176
|
},
|
|
2177
|
+
"meta/llama-4-maverick": {
|
|
2178
|
+
"description": "مجموعه مدلهای Llama 4 مدلهای هوش مصنوعی چندرسانهای بومی هستند که از تجربههای متنی و چندرسانهای پشتیبانی میکنند. این مدلها با استفاده از معماری متخصص ترکیبی عملکرد پیشرو در صنعت در درک متن و تصویر ارائه میدهند. Llama 4 Maverick، مدلی با 17 میلیارد پارامتر و 128 متخصص است. توسط DeepInfra ارائه میشود."
|
|
2179
|
+
},
|
|
2180
|
+
"meta/llama-4-scout": {
|
|
2181
|
+
"description": "مجموعه مدلهای Llama 4 مدلهای هوش مصنوعی چندرسانهای بومی هستند که از تجربههای متنی و چندرسانهای پشتیبانی میکنند. این مدلها با استفاده از معماری متخصص ترکیبی عملکرد پیشرو در صنعت در درک متن و تصویر ارائه میدهند. Llama 4 Scout، مدلی با 17 میلیارد پارامتر و 16 متخصص است. توسط DeepInfra ارائه میشود."
|
|
2182
|
+
},
|
|
2084
2183
|
"microsoft/Phi-3-medium-128k-instruct": {
|
|
2085
2184
|
"description": "همان مدل Phi-3-medium با اندازه زمینه بزرگتر، مناسب برای RAG یا تعداد کمی از پرامپتها."
|
|
2086
2185
|
},
|
|
@@ -2156,6 +2255,48 @@
|
|
|
2156
2255
|
"mistral-small-latest": {
|
|
2157
2256
|
"description": "Mistral Small یک گزینه مقرونبهصرفه، سریع و قابلاعتماد است که برای موارد استفادهای مانند ترجمه، خلاصهسازی و تحلیل احساسات مناسب است."
|
|
2158
2257
|
},
|
|
2258
|
+
"mistral/codestral": {
|
|
2259
|
+
"description": "Mistral Codestral 25.01 مدل کدنویسی پیشرفتهای است که برای موارد استفاده با تأخیر کم و فرکانس بالا بهینه شده است. این مدل به بیش از 80 زبان برنامهنویسی مسلط است و در وظایفی مانند پر کردن میانی (FIM)، اصلاح کد و تولید تست عملکرد برجستهای دارد."
|
|
2260
|
+
},
|
|
2261
|
+
"mistral/codestral-embed": {
|
|
2262
|
+
"description": "مدل جاسازی کد که میتواند در پایگاههای داده و مخازن کد جاسازی شود تا از دستیارهای کدنویسی پشتیبانی کند."
|
|
2263
|
+
},
|
|
2264
|
+
"mistral/devstral-small": {
|
|
2265
|
+
"description": "Devstral یک مدل زبان بزرگ نمایندگی برای وظایف مهندسی نرمافزار است که آن را به انتخابی عالی برای نمایندگان مهندسی نرمافزار تبدیل میکند."
|
|
2266
|
+
},
|
|
2267
|
+
"mistral/magistral-medium": {
|
|
2268
|
+
"description": "تفکر پیچیده با درک عمیق که استدلال شفاف قابل پیگیری و تأیید را ارائه میدهد. این مدل حتی هنگام تغییر زبان در میانه وظیفه، استدلال با وفاداری بالا را در زبانهای متعدد حفظ میکند."
|
|
2269
|
+
},
|
|
2270
|
+
"mistral/magistral-small": {
|
|
2271
|
+
"description": "تفکر پیچیده با درک عمیق که استدلال شفاف قابل پیگیری و تأیید را ارائه میدهد. این مدل حتی هنگام تغییر زبان در میانه وظیفه، استدلال با وفاداری بالا را در زبانهای متعدد حفظ میکند."
|
|
2272
|
+
},
|
|
2273
|
+
"mistral/ministral-3b": {
|
|
2274
|
+
"description": "مدلی جمعوجور و کارآمد برای وظایف روی دستگاه مانند دستیار هوشمند و تحلیل محلی که عملکرد با تأخیر کم ارائه میدهد."
|
|
2275
|
+
},
|
|
2276
|
+
"mistral/ministral-8b": {
|
|
2277
|
+
"description": "مدلی قدرتمندتر با استدلال سریعتر و بهینهتر از نظر حافظه که برای جریانهای کاری پیچیده و برنامههای لبهای با نیازهای بالا ایدهآل است."
|
|
2278
|
+
},
|
|
2279
|
+
"mistral/mistral-embed": {
|
|
2280
|
+
"description": "مدل جاسازی متن عمومی برای جستجوی معنایی، تشابه، خوشهبندی و جریانهای کاری RAG."
|
|
2281
|
+
},
|
|
2282
|
+
"mistral/mistral-large": {
|
|
2283
|
+
"description": "Mistral Large انتخاب ایدهآل برای وظایف پیچیده است که نیازمند توان استدلال بزرگ یا تخصص بالا هستند — مانند تولید متن ترکیبی، تولید کد، RAG یا نمایندگی."
|
|
2284
|
+
},
|
|
2285
|
+
"mistral/mistral-saba-24b": {
|
|
2286
|
+
"description": "Mistral Saba 24B مدل متنباز 24 میلیارد پارامتری توسعه یافته توسط Mistral.ai است. Saba مدلی تخصصی است که برای عملکرد برجسته در زبانهای عربی، فارسی، اردو، عبری و زبانهای هندی آموزش دیده است. توسط Groq با استفاده از سختافزار واحد پردازش زبان سفارشی (LPU) ارائه میشود تا استدلال سریع و کارآمد فراهم کند."
|
|
2287
|
+
},
|
|
2288
|
+
"mistral/mistral-small": {
|
|
2289
|
+
"description": "Mistral Small انتخاب ایدهآل برای وظایف سادهای است که میتوانند به صورت دستهای انجام شوند — مانند دستهبندی، پشتیبانی مشتری یا تولید متن. این مدل عملکرد عالی را با قیمت مقرونبهصرفه ارائه میدهد."
|
|
2290
|
+
},
|
|
2291
|
+
"mistral/mixtral-8x22b-instruct": {
|
|
2292
|
+
"description": "مدل 8x22b Instruct. 8x22b مدل متنباز متخصص ترکیبی است که توسط Mistral ارائه میشود."
|
|
2293
|
+
},
|
|
2294
|
+
"mistral/pixtral-12b": {
|
|
2295
|
+
"description": "مدل 12 میلیارد پارامتری با توانایی درک تصویر و متن."
|
|
2296
|
+
},
|
|
2297
|
+
"mistral/pixtral-large": {
|
|
2298
|
+
"description": "Pixtral Large دومین مدل خانواده چندرسانهای ما است که سطح پیشرفتهای از درک تصویر را نشان میدهد. به طور خاص، این مدل قادر به درک اسناد، نمودارها و تصاویر طبیعی است و در عین حال توانایی پیشرو در درک متن مدل Mistral Large 2 را حفظ میکند."
|
|
2299
|
+
},
|
|
2159
2300
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
|
2160
2301
|
"description": "Mistral (7B) Instruct به دلیل عملکرد بالا شناخته شده است و برای وظایف مختلف زبانی مناسب است."
|
|
2161
2302
|
},
|
|
@@ -2222,12 +2363,21 @@
|
|
|
2222
2363
|
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2223
2364
|
"description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل یک مدل زبان برتر با معماری متخصص ترکیبی (MoE) است که دارای ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال میباشد. ویژگیهای اصلی این مدل شامل: هوش کدگذاری عامل بهبود یافته که در آزمونهای معیار عمومی و وظایف واقعی کدگذاری عامل عملکرد قابل توجهی نشان میدهد؛ تجربه کدگذاری فرانتاند بهبود یافته که از نظر زیبایی و کاربردی بودن برنامهنویسی فرانتاند پیشرفت داشته است."
|
|
2224
2365
|
},
|
|
2366
|
+
"moonshotai/kimi-k2": {
|
|
2367
|
+
"description": "Kimi K2 مدل زبان بزرگ متخصص ترکیبی (MoE) با مقیاس بزرگ توسعه یافته توسط Moonshot AI است که دارای 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال در هر عبور جلو است. این مدل برای توانایی نمایندگی بهینه شده است، از جمله استفاده پیشرفته از ابزارها، استدلال و ترکیب کد."
|
|
2368
|
+
},
|
|
2225
2369
|
"moonshotai/kimi-k2-0905": {
|
|
2226
2370
|
"description": "مدل پیشنمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و تواناییهای قویتری در برنامهنویسی عاملمحور، زیبایی و کاربردی بودن کدهای فرانتاند و درک بهتر متن دارد."
|
|
2227
2371
|
},
|
|
2228
2372
|
"moonshotai/kimi-k2-instruct-0905": {
|
|
2229
2373
|
"description": "مدل پیشنمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و تواناییهای قویتری در برنامهنویسی عاملمحور، زیبایی و کاربردی بودن کدهای فرانتاند و درک بهتر متن دارد."
|
|
2230
2374
|
},
|
|
2375
|
+
"morph/morph-v3-fast": {
|
|
2376
|
+
"description": "Morph مدل هوش مصنوعی تخصصی است که تغییرات کد پیشنهادی مدلهای پیشرفته مانند Claude یا GPT-4o را به فایلهای کد موجود شما به سرعت اعمال میکند — بیش از 4500 توکن در ثانیه. این مدل به عنوان مرحله نهایی در جریان کاری کدنویسی هوش مصنوعی عمل میکند و از ورودی و خروجی 16k توکن پشتیبانی میکند."
|
|
2377
|
+
},
|
|
2378
|
+
"morph/morph-v3-large": {
|
|
2379
|
+
"description": "Morph مدل هوش مصنوعی تخصصی است که تغییرات کد پیشنهادی مدلهای پیشرفته مانند Claude یا GPT-4o را به فایلهای کد موجود شما با سرعت بیش از 2500 توکن در ثانیه اعمال میکند. این مدل به عنوان مرحله نهایی در جریان کاری کدنویسی هوش مصنوعی عمل میکند و از ورودی و خروجی 16k توکن پشتیبانی میکند."
|
|
2380
|
+
},
|
|
2231
2381
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
|
2232
2382
|
"description": "هرمس ۲ پرو لاما ۳ ۸B نسخه ارتقاء یافته Nous Hermes 2 است که شامل جدیدترین مجموعه دادههای توسعهیافته داخلی میباشد."
|
|
2233
2383
|
},
|
|
@@ -2294,29 +2444,47 @@
|
|
|
2294
2444
|
"open-mixtral-8x7b": {
|
|
2295
2445
|
"description": "Mixtral 8x7B یک مدل متخصص پراکنده است که با استفاده از پارامترهای متعدد سرعت استنتاج را افزایش میدهد و برای پردازش وظایف چندزبانه و تولید کد مناسب است."
|
|
2296
2446
|
},
|
|
2447
|
+
"openai/gpt-3.5-turbo": {
|
|
2448
|
+
"description": "توانمندترین و مقرونبهصرفهترین مدل در سری GPT-3.5 از OpenAI که برای اهداف مکالمه بهینه شده است، اما در وظایف تکمیل سنتی نیز عملکرد خوبی دارد."
|
|
2449
|
+
},
|
|
2450
|
+
"openai/gpt-3.5-turbo-instruct": {
|
|
2451
|
+
"description": "توانایی مشابه مدلهای دوره GPT-3. با نقاط انتهایی تکمیل سنتی سازگار است، نه نقاط انتهایی تکمیل مکالمه."
|
|
2452
|
+
},
|
|
2453
|
+
"openai/gpt-4-turbo": {
|
|
2454
|
+
"description": "gpt-4-turbo از OpenAI دانش عمومی گسترده و تخصص حوزهای دارد که آن را قادر میسازد دستورالعملهای پیچیده زبان طبیعی را دنبال کرده و مسائل دشوار را با دقت حل کند. تاریخ قطع دانش آن آوریل 2023 است و پنجره زمینه آن 128,000 توکن است."
|
|
2455
|
+
},
|
|
2297
2456
|
"openai/gpt-4.1": {
|
|
2298
|
-
"description": "GPT
|
|
2457
|
+
"description": "GPT 4.1 مدل پرچمدار OpenAI برای وظایف پیچیده است. این مدل برای حل مسائل چندرشتهای بسیار مناسب است."
|
|
2299
2458
|
},
|
|
2300
2459
|
"openai/gpt-4.1-mini": {
|
|
2301
|
-
"description": "GPT
|
|
2460
|
+
"description": "GPT 4.1 mini تعادل بین هوشمندی، سرعت و هزینه را برقرار میکند و آن را به مدلی جذاب برای بسیاری از موارد استفاده تبدیل میکند."
|
|
2302
2461
|
},
|
|
2303
2462
|
"openai/gpt-4.1-nano": {
|
|
2304
|
-
"description": "GPT-4.1 nano سریعترین و
|
|
2463
|
+
"description": "GPT-4.1 nano سریعترین و مقرونبهصرفهترین مدل GPT 4.1 است."
|
|
2305
2464
|
},
|
|
2306
2465
|
"openai/gpt-4o": {
|
|
2307
|
-
"description": "
|
|
2466
|
+
"description": "GPT-4o از OpenAI دانش عمومی گسترده و تخصص حوزهای دارد که آن را قادر میسازد دستورالعملهای پیچیده زبان طبیعی را دنبال کرده و مسائل دشوار را با دقت حل کند. این مدل عملکرد GPT-4 Turbo را با API سریعتر و ارزانتر ارائه میدهد."
|
|
2308
2467
|
},
|
|
2309
2468
|
"openai/gpt-4o-mini": {
|
|
2310
|
-
"description": "GPT-4o mini
|
|
2469
|
+
"description": "GPT-4o mini از OpenAI کوچکترین مدل پیشرفته و مقرونبهصرفه آنها است. این مدل چندرسانهای است (ورودی متن یا تصویر را میپذیرد و خروجی متن ارائه میدهد) و هوشمندتر از gpt-3.5-turbo است، اما سرعت مشابهی دارد."
|
|
2470
|
+
},
|
|
2471
|
+
"openai/gpt-5": {
|
|
2472
|
+
"description": "GPT-5 مدل زبان پرچمدار OpenAI است که در استدلال پیچیده، دانش گسترده دنیای واقعی، وظایف کدمحور و نمایندگی چندمرحلهای عملکرد برجستهای دارد."
|
|
2473
|
+
},
|
|
2474
|
+
"openai/gpt-5-mini": {
|
|
2475
|
+
"description": "GPT-5 mini مدلی بهینهشده از نظر هزینه است که در وظایف استدلال/مکالمه عملکرد خوبی دارد. این مدل تعادل بهینهای بین سرعت، هزینه و توانایی ارائه میدهد."
|
|
2476
|
+
},
|
|
2477
|
+
"openai/gpt-5-nano": {
|
|
2478
|
+
"description": "GPT-5 nano مدلی با توان عملیاتی بالا است که در وظایف دستورالعمل ساده یا دستهبندی عملکرد خوبی دارد."
|
|
2311
2479
|
},
|
|
2312
2480
|
"openai/gpt-oss-120b": {
|
|
2313
|
-
"description": "
|
|
2481
|
+
"description": "مدل زبان بزرگ عمومی بسیار توانمند با توان استدلال قوی و قابل کنترل."
|
|
2314
2482
|
},
|
|
2315
2483
|
"openai/gpt-oss-20b": {
|
|
2316
|
-
"description": "
|
|
2484
|
+
"description": "مدل زبان جمعوجور با وزنهای متنباز که برای تأخیر کم و محیطهای محدود منابع بهینه شده است، شامل استقرار محلی و لبه."
|
|
2317
2485
|
},
|
|
2318
2486
|
"openai/o1": {
|
|
2319
|
-
"description": "o1 مدل استدلال
|
|
2487
|
+
"description": "o1 از OpenAI مدل استدلال پرچمدار است که برای مسائل پیچیده نیازمند تفکر عمیق طراحی شده است. این مدل توان استدلال قوی و دقت بالاتری برای وظایف چندمرحلهای پیچیده ارائه میدهد."
|
|
2320
2488
|
},
|
|
2321
2489
|
"openai/o1-mini": {
|
|
2322
2490
|
"description": "o1-mini یک مدل استنتاج سریع و مقرونبهصرفه است که برای برنامهنویسی، ریاضیات و کاربردهای علمی طراحی شده است. این مدل دارای ۱۲۸ هزار بایت زمینه و تاریخ قطع دانش تا اکتبر ۲۰۲۳ میباشد."
|
|
@@ -2325,23 +2493,44 @@
|
|
|
2325
2493
|
"description": "o1 مدل جدید استنتاج OpenAI است که برای وظایف پیچیدهای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 128K زمینه و تاریخ قطع دانش تا اکتبر 2023 است."
|
|
2326
2494
|
},
|
|
2327
2495
|
"openai/o3": {
|
|
2328
|
-
"description": "o3
|
|
2496
|
+
"description": "o3 از OpenAI قدرتمندترین مدل استدلال است که سطوح پیشرفته جدیدی در کدنویسی، ریاضیات، علوم و درک بصری ایجاد کرده است. این مدل در پرسشهای پیچیده که نیازمند تحلیل چندجانبه هستند مهارت دارد و در تحلیل تصاویر، نمودارها و گرافها برتری خاصی دارد."
|
|
2329
2497
|
},
|
|
2330
2498
|
"openai/o3-mini": {
|
|
2331
|
-
"description": "o3-mini
|
|
2499
|
+
"description": "o3-mini جدیدترین مدل استدلال کوچک OpenAI است که هوشمندی بالایی را با همان اهداف هزینه و تأخیر o1-mini ارائه میدهد."
|
|
2332
2500
|
},
|
|
2333
2501
|
"openai/o3-mini-high": {
|
|
2334
2502
|
"description": "نسخه o3-mini با سطح استدلال بالا، هوش بالایی را در همان هزینه و هدف تأخیر o1-mini ارائه میدهد."
|
|
2335
2503
|
},
|
|
2336
2504
|
"openai/o4-mini": {
|
|
2337
|
-
"description": "o4-mini
|
|
2505
|
+
"description": "o4-mini از OpenAI استدلال سریع و مقرونبهصرفه ارائه میدهد و در اندازه خود عملکرد برجستهای دارد، به ویژه در ریاضیات (بهترین عملکرد در آزمون AIME)، کدنویسی و وظایف بصری."
|
|
2338
2506
|
},
|
|
2339
2507
|
"openai/o4-mini-high": {
|
|
2340
2508
|
"description": "نسخه با سطح استدلال بالا o4-mini، که بهطور خاص برای استدلال سریع و مؤثر بهینهسازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
|
|
2341
2509
|
},
|
|
2510
|
+
"openai/text-embedding-3-large": {
|
|
2511
|
+
"description": "توانمندترین مدل جاسازی OpenAI برای وظایف انگلیسی و غیرانگلیسی."
|
|
2512
|
+
},
|
|
2513
|
+
"openai/text-embedding-3-small": {
|
|
2514
|
+
"description": "نسخه بهبود یافته و با عملکرد بالاتر مدل جاسازی ada از OpenAI."
|
|
2515
|
+
},
|
|
2516
|
+
"openai/text-embedding-ada-002": {
|
|
2517
|
+
"description": "مدل جاسازی متن سنتی OpenAI."
|
|
2518
|
+
},
|
|
2342
2519
|
"openrouter/auto": {
|
|
2343
2520
|
"description": "با توجه به طول متن، موضوع و پیچیدگی، درخواست شما به Llama 3 70B Instruct، Claude 3.5 Sonnet (تنظیم خودکار) یا GPT-4o ارسال خواهد شد."
|
|
2344
2521
|
},
|
|
2522
|
+
"perplexity/sonar": {
|
|
2523
|
+
"description": "محصول سبک Perplexity با قابلیت جستجوی مبتنی بر زمینه، سریعتر و ارزانتر از Sonar Pro."
|
|
2524
|
+
},
|
|
2525
|
+
"perplexity/sonar-pro": {
|
|
2526
|
+
"description": "محصول پرچمدار Perplexity با قابلیت جستجوی مبتنی بر زمینه که از پرسشهای پیشرفته و عملیات پیگیری پشتیبانی میکند."
|
|
2527
|
+
},
|
|
2528
|
+
"perplexity/sonar-reasoning": {
|
|
2529
|
+
"description": "مدلی متمرکز بر استدلال که زنجیره تفکر (CoT) را در پاسخها ارائه میدهد و توضیحات مفصل با جستجوی مبتنی بر زمینه فراهم میکند."
|
|
2530
|
+
},
|
|
2531
|
+
"perplexity/sonar-reasoning-pro": {
|
|
2532
|
+
"description": "مدل پیشرفته متمرکز بر استدلال که زنجیره تفکر (CoT) را در پاسخها ارائه میدهد و توضیحات جامع با قابلیت جستجوی پیشرفته و چندین پرسوجوی جستجو برای هر درخواست فراهم میکند."
|
|
2533
|
+
},
|
|
2345
2534
|
"phi3": {
|
|
2346
2535
|
"description": "Phi-3 یک مدل سبک و باز از مایکروسافت است که برای یکپارچهسازی کارآمد و استدلال دانش در مقیاس بزرگ مناسب است."
|
|
2347
2536
|
},
|
|
@@ -2804,6 +2993,12 @@
|
|
|
2804
2993
|
"v0-1.5-md": {
|
|
2805
2994
|
"description": "مدل v0-1.5-md برای وظایف روزمره و تولید رابط کاربری (UI) مناسب است"
|
|
2806
2995
|
},
|
|
2996
|
+
"vercel/v0-1.0-md": {
|
|
2997
|
+
"description": "دسترسی به مدل پشت v0 برای تولید، رفع اشکال و بهینهسازی برنامههای وب مدرن با استدلال چارچوب خاص و دانش بهروز."
|
|
2998
|
+
},
|
|
2999
|
+
"vercel/v0-1.5-md": {
|
|
3000
|
+
"description": "دسترسی به مدل پشت v0 برای تولید، رفع اشکال و بهینهسازی برنامههای وب مدرن با استدلال چارچوب خاص و دانش بهروز."
|
|
3001
|
+
},
|
|
2807
3002
|
"wan2.2-t2i-flash": {
|
|
2808
3003
|
"description": "نسخه سریع Wanxiang 2.2، جدیدترین مدل فعلی. در خلاقیت، پایداری و واقعگرایی به طور کامل ارتقا یافته، سرعت تولید بالا و نسبت قیمت به کیفیت عالی دارد."
|
|
2809
3004
|
},
|
|
@@ -2834,6 +3029,27 @@
|
|
|
2834
3029
|
"x1": {
|
|
2835
3030
|
"description": "مدل Spark X1 بهزودی ارتقا خواهد یافت و در زمینه وظایف ریاضی که در کشور پیشرو است، عملکردهای استدلال، تولید متن و درک زبان را با OpenAI o1 و DeepSeek R1 مقایسه خواهد کرد."
|
|
2836
3031
|
},
|
|
3032
|
+
"xai/grok-2": {
|
|
3033
|
+
"description": "Grok 2 مدل زبان پیشرفته با توان استدلال پیشرفته است. این مدل در مکالمه، کدنویسی و استدلال تواناییهای پیشرفته دارد و در رتبهبندی LMSYS بالاتر از Claude 3.5 Sonnet و GPT-4-Turbo قرار دارد."
|
|
3034
|
+
},
|
|
3035
|
+
"xai/grok-2-vision": {
|
|
3036
|
+
"description": "مدل بصری Grok 2 در وظایف مبتنی بر دید عملکرد برجستهای دارد و در استدلال ریاضی بصری (MathVista) و پرسش و پاسخ مبتنی بر سند (DocVQA) عملکرد پیشرفته ارائه میدهد. این مدل قادر به پردازش انواع اطلاعات بصری از جمله اسناد، نمودارها، جداول، اسکرینشاتها و عکسها است."
|
|
3037
|
+
},
|
|
3038
|
+
"xai/grok-3": {
|
|
3039
|
+
"description": "مدل پرچمدار xAI که در موارد استفاده شرکتی مانند استخراج داده، کدنویسی و خلاصهسازی متن عملکرد برجستهای دارد. دارای دانش عمیق حوزه در مالی، مراقبتهای بهداشتی، حقوقی و علوم است."
|
|
3040
|
+
},
|
|
3041
|
+
"xai/grok-3-fast": {
|
|
3042
|
+
"description": "مدل پرچمدار xAI که در موارد استفاده شرکتی مانند استخراج داده، کدنویسی و خلاصهسازی متن عملکرد برجستهای دارد. نسخه سریعتر مدل روی زیرساخت سریعتر ارائه میشود و زمان پاسخ بسیار کوتاهتری دارد. افزایش سرعت با هزینه بالاتر به ازای هر توکن خروجی همراه است."
|
|
3043
|
+
},
|
|
3044
|
+
"xai/grok-3-mini": {
|
|
3045
|
+
"description": "مدل سبک وزن xAI که قبل از پاسخ دادن تفکر میکند. برای وظایف ساده یا مبتنی بر منطق که نیاز به دانش عمیق حوزه ندارند بسیار مناسب است. مسیر تفکر خام قابل دسترسی است."
|
|
3046
|
+
},
|
|
3047
|
+
"xai/grok-3-mini-fast": {
|
|
3048
|
+
"description": "مدل سبک وزن xAI که قبل از پاسخ دادن تفکر میکند. برای وظایف ساده یا مبتنی بر منطق که نیاز به دانش عمیق حوزه ندارند بسیار مناسب است. مسیر تفکر خام قابل دسترسی است. نسخه سریعتر مدل روی زیرساخت سریعتر ارائه میشود و زمان پاسخ بسیار کوتاهتری دارد. افزایش سرعت با هزینه بالاتر به ازای هر توکن خروجی همراه است."
|
|
3049
|
+
},
|
|
3050
|
+
"xai/grok-4": {
|
|
3051
|
+
"description": "جدیدترین و بزرگترین مدل پرچمدار xAI که عملکرد بینظیری در زبان طبیعی، ریاضیات و استدلال ارائه میدهد — انتخابی کامل و همهکاره."
|
|
3052
|
+
},
|
|
2837
3053
|
"yi-1.5-34b-chat": {
|
|
2838
3054
|
"description": "Yi-1.5 نسخهی بهروزرسانی شدهی Yi است. این مدل با استفاده از یک مجموعه داده با کیفیت بالا شامل 500 میلیارد توکن برای پیشآموزی و 3 میلیون نمونه متنوع برای آموزش ریزی مجدداً آموزش داده شده است."
|
|
2839
3055
|
},
|
|
@@ -2881,5 +3097,14 @@
|
|
|
2881
3097
|
},
|
|
2882
3098
|
"zai-org/GLM-4.5V": {
|
|
2883
3099
|
"description": "GLM-4.5V نسل جدیدی از مدلهای زبان-بینایی (VLM) است که توسط Zhipu AI (智谱 AI) منتشر شده. این مدل بر پایهٔ مدل متنی پرچمدار GLM-4.5-Air ساخته شده که دارای 106 میلیارد پارامتر کل و 12 میلیارد پارامتر فعالسازی است؛ از معماری متخصصان ترکیبی (MoE) بهره میبرد و هدفش ارائهٔ عملکرد برجسته با هزینهٔ استدلال کمتر است. از منظر فناوری، GLM-4.5V راهبرد GLM-4.1V-Thinking را ادامه میدهد و نوآوریهایی مانند کدگذاری موقعیت چرخشی سهبعدی (3D-RoPE) را معرفی کرده که بهطور چشمگیری درک و استدلال نسبتهای فضایی سهبعدی را تقویت میکند. با بهینهسازی در مراحل پیشآموزش، ریزتنظیم نظارتی و یادگیری تقویتی، این مدل قادر به پردازش انواع محتواهای بصری از جمله تصویر، ویدیو و اسناد بلند شده و در 41 معیار چندوجهی عمومی به سطح برتر مدلهای متنباز همرده دست یافته است. علاوه بر این، یک سوئیچ «حالت تفکر» به مدل افزوده شده که به کاربران اجازه میدهد بین پاسخدهی سریع و استدلال عمیق بهصورت انعطافپذیر انتخاب کنند تا تعادل بین کارایی و کیفیت برقرار شود."
|
|
3100
|
+
},
|
|
3101
|
+
"zai/glm-4.5": {
|
|
3102
|
+
"description": "مجموعه مدلهای GLM-4.5 مدلهای پایه طراحی شده برای نمایندگان هوشمند هستند. مدل پرچمدار GLM-4.5 با 355 میلیارد پارامتر کل (32 میلیارد فعال) یکپارچهسازی استدلال، کدنویسی و تواناییهای نمایندگی را برای حل نیازهای پیچیده برنامهها ارائه میدهد. به عنوان یک سیستم استدلال ترکیبی، دو حالت عملیاتی دارد."
|
|
3103
|
+
},
|
|
3104
|
+
"zai/glm-4.5-air": {
|
|
3105
|
+
"description": "GLM-4.5 و GLM-4.5-Air مدلهای پرچمدار جدید ما هستند که به عنوان مدلهای پایه برای برنامههای نمایندگی طراحی شدهاند. هر دو از معماری متخصص ترکیبی (MoE) بهره میبرند. GLM-4.5 دارای 355 میلیارد پارامتر کل و 32 میلیارد پارامتر فعال در هر عبور جلو است، در حالی که GLM-4.5-Air طراحی سادهتری دارد با 106 میلیارد پارامتر کل و 12 میلیارد پارامتر فعال."
|
|
3106
|
+
},
|
|
3107
|
+
"zai/glm-4.5v": {
|
|
3108
|
+
"description": "GLM-4.5V بر پایه مدل پایه GLM-4.5-Air ساخته شده است، فناوری اثبات شده GLM-4.1V-Thinking را به ارث برده و در عین حال با معماری قدرتمند MoE با 106 میلیارد پارامتر به طور مؤثر مقیاسپذیر شده است."
|
|
2884
3109
|
}
|
|
2885
3110
|
}
|
|
@@ -161,6 +161,9 @@
|
|
|
161
161
|
"v0": {
|
|
162
162
|
"description": "v0 یک دستیار برنامهنویسی جفتی است که تنها با توصیف ایدهها به زبان طبیعی، میتواند کد و رابط کاربری (UI) را برای پروژه شما تولید کند"
|
|
163
163
|
},
|
|
164
|
+
"vercelaigateway": {
|
|
165
|
+
"description": "دروازه هوش مصنوعی Vercel یک API یکپارچه برای دسترسی به بیش از ۱۰۰ مدل ارائه میدهد که از طریق یک نقطه انتهایی واحد میتوان از مدلهای ارائهدهندگان مختلفی مانند OpenAI، Anthropic، Google و غیره استفاده کرد. این سرویس از تنظیم بودجه، نظارت بر استفاده، تعادل بار درخواستها و انتقال خطا پشتیبانی میکند."
|
|
166
|
+
},
|
|
164
167
|
"vertexai": {
|
|
165
168
|
"description": "سری Gemini گوگل پیشرفتهترین و عمومیترین مدلهای هوش مصنوعی است که توسط Google DeepMind طراحی شده و بهطور خاص برای چندرسانهای طراحی شده است و از درک و پردازش بیوقفه متن، کد، تصویر، صدا و ویدیو پشتیبانی میکند. این مدلها برای محیطهای مختلف از مراکز داده تا دستگاههای همراه مناسب هستند و بهطور قابل توجهی کارایی و کاربردهای مدلهای هوش مصنوعی را افزایش میدهند."
|
|
166
169
|
},
|