@lobehub/lobehub 2.0.0-next.108 → 2.0.0-next.109
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +33 -0
- package/changelog/v1.json +12 -0
- package/locales/ar/models.json +108 -13
- package/locales/bg-BG/models.json +126 -15
- package/locales/de-DE/models.json +3 -0
- package/locales/en-US/models.json +3 -0
- package/locales/es-ES/models.json +3 -0
- package/locales/fa-IR/models.json +108 -13
- package/locales/fr-FR/models.json +108 -13
- package/locales/it-IT/models.json +3 -0
- package/locales/ja-JP/models.json +108 -13
- package/locales/ko-KR/models.json +108 -13
- package/locales/nl-NL/models.json +3 -0
- package/locales/pl-PL/models.json +108 -13
- package/locales/pt-BR/models.json +3 -0
- package/locales/ru-RU/models.json +126 -15
- package/locales/tr-TR/models.json +108 -13
- package/locales/vi-VN/models.json +3 -0
- package/locales/zh-TW/models.json +3 -0
- package/package.json +1 -1
- package/src/app/[variants]/desktopRouter.config.tsx +5 -0
- package/src/app/[variants]/mobileRouter.config.tsx +5 -0
- package/src/features/KnowledgeManager/Home/index.tsx +1 -1
- package/src/server/globalConfig/genServerAiProviderConfig.ts +3 -3
- package/src/server/globalConfig/parseFilesConfig.ts +1 -1
- package/src/server/globalConfig/parseSystemAgent.ts +4 -4
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Preview پیشرفتهترین مدل فکری گوگل است که قادر به استدلال درباره مسائل پیچیده در زمینه کد، ریاضیات و حوزههای STEM بوده و همچنین میتواند با استفاده از متنهای طولانی، مجموعههای داده بزرگ، کدها و مستندات را تحلیل کند."
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتوگوی چندحالته پشتیبانی میکند."
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "نسخه رایگان Gemini 3 Pro Image که از تولید چندوجهی با سهمیه محدود پشتیبانی میکند."
|
|
1720
1723
|
},
|
|
@@ -2777,14 +2780,51 @@
|
|
|
2777
2780
|
"openai/gpt-4-turbo": {
|
|
2778
2781
|
"description": "gpt-4-turbo از OpenAI دانش عمومی گسترده و تخصص حوزهای دارد که آن را قادر میسازد دستورالعملهای پیچیده زبان طبیعی را دنبال کرده و مسائل دشوار را با دقت حل کند. تاریخ قطع دانش آن آوریل 2023 است و پنجره زمینه آن 128,000 توکن است."
|
|
2779
2782
|
},
|
|
2780
|
-
"openai/gpt-4.1": {
|
|
2781
|
-
|
|
2782
|
-
|
|
2783
|
-
"openai/gpt-
|
|
2784
|
-
|
|
2785
|
-
|
|
2786
|
-
"openai/gpt-
|
|
2787
|
-
|
|
2783
|
+
"openai/gpt-4.1": {
|
|
2784
|
+
"description": "سری GPT-4.1 زمینه متنی گستردهتر و تواناییهای مهندسی و استدلال قویتری را ارائه میدهد."
|
|
2785
|
+
},
|
|
2786
|
+
"openai/gpt-4.1-mini": {
|
|
2787
|
+
"description": "GPT-4.1 Mini با تأخیر کمتر و صرفهجویی بیشتر، برای کاربردهای با زمینه متنی متوسط مناسب است."
|
|
2788
|
+
},
|
|
2789
|
+
"openai/gpt-4.1-nano": {
|
|
2790
|
+
"description": "GPT-4.1 Nano گزینهای با هزینه و تأخیر بسیار پایین است که برای مکالمات کوتاه و پرتکرار یا سناریوهای طبقهبندی مناسب است."
|
|
2791
|
+
},
|
|
2792
|
+
"openai/gpt-4o": {
|
|
2793
|
+
"description": "سری GPT-4o مدل Omni شرکت OpenAI است که از ورودی متن + تصویر و خروجی متنی پشتیبانی میکند."
|
|
2794
|
+
},
|
|
2795
|
+
"openai/gpt-4o-mini": {
|
|
2796
|
+
"description": "GPT-4o-mini نسخه کوچک و سریع GPT-4o است که برای سناریوهای ترکیبی متن و تصویر با تأخیر پایین مناسب است."
|
|
2797
|
+
},
|
|
2798
|
+
"openai/gpt-5": {
|
|
2799
|
+
"description": "GPT-5 مدل قدرتمند OpenAI است که برای طیف گستردهای از وظایف تولیدی و پژوهشی مناسب است."
|
|
2800
|
+
},
|
|
2801
|
+
"openai/gpt-5-chat": {
|
|
2802
|
+
"description": "GPT-5 Chat زیرمدلی از GPT-5 است که برای سناریوهای گفتوگو بهینهسازی شده و با کاهش تأخیر، تجربه تعاملی بهتری ارائه میدهد."
|
|
2803
|
+
},
|
|
2804
|
+
"openai/gpt-5-codex": {
|
|
2805
|
+
"description": "GPT-5-Codex نسخهای از GPT-5 است که برای سناریوهای برنامهنویسی بهینه شده و برای جریانهای کاری کدنویسی در مقیاس بزرگ مناسب است."
|
|
2806
|
+
},
|
|
2807
|
+
"openai/gpt-5-mini": {
|
|
2808
|
+
"description": "GPT-5 Mini نسخهای فشرده از خانواده GPT-5 است که برای سناریوهای با تأخیر و هزینه پایین مناسب است."
|
|
2809
|
+
},
|
|
2810
|
+
"openai/gpt-5-nano": {
|
|
2811
|
+
"description": "GPT-5 Nano نسخه فوقکوچک این خانواده است که برای کاربردهایی با نیاز بسیار بالا به کاهش هزینه و تأخیر طراحی شده است."
|
|
2812
|
+
},
|
|
2813
|
+
"openai/gpt-5-pro": {
|
|
2814
|
+
"description": "GPT-5 Pro مدل پرچمدار OpenAI است که قابلیتهای پیشرفتهای در استدلال، تولید کد و ویژگیهای سطح سازمانی ارائه میدهد و از مسیریابی در زمان تست و سیاستهای امنیتی دقیقتر پشتیبانی میکند."
|
|
2815
|
+
},
|
|
2816
|
+
"openai/gpt-5.1": {
|
|
2817
|
+
"description": "GPT-5.1 جدیدترین مدل پرچمدار سری GPT-5 است که در استدلال عمومی، پیروی از دستورالعملها و طبیعی بودن مکالمه نسبت به GPT-5 بهبود چشمگیری دارد و برای وظایف متنوع مناسب است."
|
|
2818
|
+
},
|
|
2819
|
+
"openai/gpt-5.1-chat": {
|
|
2820
|
+
"description": "GPT-5.1 Chat عضو سبکتر خانواده GPT-5.1 است که برای گفتوگوهای با تأخیر پایین بهینه شده و در عین حال توانایی استدلال و اجرای دستورالعمل را حفظ کرده است."
|
|
2821
|
+
},
|
|
2822
|
+
"openai/gpt-5.1-codex": {
|
|
2823
|
+
"description": "GPT-5.1-Codex نسخهای از GPT-5.1 است که برای مهندسی نرمافزار و جریانهای کاری کدنویسی بهینه شده و برای بازسازیهای بزرگ، اشکالزدایی پیچیده و کدنویسی خودکار طولانیمدت مناسب است."
|
|
2824
|
+
},
|
|
2825
|
+
"openai/gpt-5.1-codex-mini": {
|
|
2826
|
+
"description": "GPT-5.1-Codex-Mini نسخه کوچک و سریع GPT-5.1-Codex است که برای سناریوهای کدنویسی حساس به تأخیر و هزینه مناسبتر است."
|
|
2827
|
+
},
|
|
2788
2828
|
"openai/gpt-oss-120b": {
|
|
2789
2829
|
"description": "مدل زبان بزرگ عمومی بسیار توانمند با توان استدلال قوی و قابل کنترل."
|
|
2790
2830
|
},
|
|
@@ -2809,7 +2849,9 @@
|
|
|
2809
2849
|
"openai/o3-mini-high": {
|
|
2810
2850
|
"description": "نسخه o3-mini با سطح استدلال بالا، هوش بالایی را در همان هزینه و هدف تأخیر o1-mini ارائه میدهد."
|
|
2811
2851
|
},
|
|
2812
|
-
"openai/o4-mini": {
|
|
2852
|
+
"openai/o4-mini": {
|
|
2853
|
+
"description": "OpenAI o4-mini مدل استدلالی کوچک و کارآمد OpenAI است که برای سناریوهای با تأخیر پایین مناسب است."
|
|
2854
|
+
},
|
|
2813
2855
|
"openai/o4-mini-high": {
|
|
2814
2856
|
"description": "نسخه با سطح استدلال بالا o4-mini، که بهطور خاص برای استدلال سریع و مؤثر بهینهسازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
|
|
2815
2857
|
},
|
|
@@ -3011,13 +3053,21 @@
|
|
|
3011
3053
|
"qwen/qwen2.5-coder-7b-instruct": {
|
|
3012
3054
|
"description": "مدل کد قدرتمند و متوسط که از طول زمینه 32K پشتیبانی میکند و در برنامهنویسی چند زبانه مهارت دارد."
|
|
3013
3055
|
},
|
|
3014
|
-
"qwen/qwen3-14b": {
|
|
3056
|
+
"qwen/qwen3-14b": {
|
|
3057
|
+
"description": "Qwen3-14B نسخه 14 میلیاردی از سری Qwen است که برای استدلال و گفتوگوهای معمولی مناسب است."
|
|
3058
|
+
},
|
|
3015
3059
|
"qwen/qwen3-14b:free": {
|
|
3016
3060
|
"description": "Qwen3-14B یک مدل زبان علّی با ۱۴.۸ میلیارد پارامتر در سری Qwen3 است که به طور خاص برای استدلال پیچیده و مکالمات کارآمد طراحی شده است. این مدل از جابجایی بیوقفه بین حالت «تفکر» برای وظایف ریاضی، برنامهنویسی و استدلال منطقی و حالت «غیرتفکری» برای مکالمات عمومی پشتیبانی میکند. این مدل به طور خاص برای پیروی از دستورات، استفاده از ابزارهای نمایندگی، نوشتن خلاق و انجام وظایف چند زبانه در بیش از ۱۰۰ زبان و گویش مختلف تنظیم شده است. این مدل به طور بومی از ۳۲K توکن زمینه پشتیبانی میکند و میتواند با استفاده از گسترش مبتنی بر YaRN به ۱۳۱K توکن گسترش یابد."
|
|
3017
3061
|
},
|
|
3018
3062
|
"qwen/qwen3-235b-a22b": {
|
|
3019
3063
|
"description": "Qwen3-235B-A22B یک مدل متخصص ترکیبی (MoE) با ۲۳۵B پارامتر است که توسط Qwen توسعه یافته و در هر بار انتقال رو به جلو ۲۲B پارامتر فعال میشود. این مدل از جابجایی بیوقفه بین حالت «تفکر» برای استدلال پیچیده، ریاضیات و وظایف کدنویسی و حالت «غیرتفکری» برای کارایی مکالمات عمومی پشتیبانی میکند. این مدل تواناییهای استدلال قوی، پشتیبانی چند زبانه (بیش از ۱۰۰ زبان و گویش)، پیروی از دستورات پیشرفته و توانایی فراخوانی ابزارهای نمایندگی را نشان میدهد. این مدل به طور بومی از پنجره زمینه ۳۲K توکن پشتیبانی میکند و میتواند با استفاده از گسترش مبتنی بر YaRN به ۱۳۱K توکن گسترش یابد."
|
|
3020
3064
|
},
|
|
3065
|
+
"qwen/qwen3-235b-a22b-2507": {
|
|
3066
|
+
"description": "Qwen3-235B-A22B-Instruct نسخه Instruct از سری Qwen3 است که برای دستورالعملهای چندزبانه و زمینههای طولانی بهینه شده است."
|
|
3067
|
+
},
|
|
3068
|
+
"qwen/qwen3-235b-a22b-thinking-2507": {
|
|
3069
|
+
"description": "Qwen3-235B-A22B-Thinking نسخه Thinking از Qwen3 است که برای وظایف پیچیده ریاضی و استدلالی تقویت شده است."
|
|
3070
|
+
},
|
|
3021
3071
|
"qwen/qwen3-235b-a22b:free": {
|
|
3022
3072
|
"description": "Qwen3-235B-A22B یک مدل متخصص ترکیبی (MoE) با ۲۳۵B پارامتر است که توسط Qwen توسعه یافته و در هر بار انتقال رو به جلو ۲۲B پارامتر فعال میشود. این مدل از جابجایی بیوقفه بین حالت «تفکر» برای استدلال پیچیده، ریاضیات و وظایف کدنویسی و حالت «غیرتفکری» برای کارایی مکالمات عمومی پشتیبانی میکند. این مدل تواناییهای استدلال قوی، پشتیبانی چند زبانه (بیش از ۱۰۰ زبان و گویش)، پیروی از دستورات پیشرفته و توانایی فراخوانی ابزارهای نمایندگی را نشان میدهد. این مدل به طور بومی از پنجره زمینه ۳۲K توکن پشتیبانی میکند و میتواند با استفاده از گسترش مبتنی بر YaRN به ۱۳۱K توکن گسترش یابد."
|
|
3023
3073
|
},
|
|
@@ -3036,6 +3086,21 @@
|
|
|
3036
3086
|
"qwen/qwen3-8b:free": {
|
|
3037
3087
|
"description": "Qwen3-8B یک مدل زبان علّی با ۸.۲ میلیارد پارامتر در سری Qwen3 است که به طور خاص برای وظایف استدلال فشرده و مکالمات کارآمد طراحی شده است. این مدل از جابجایی بیوقفه بین حالت «تفکر» برای ریاضیات، کدنویسی و استدلال منطقی و حالت «غیرتفکری» برای مکالمات عمومی پشتیبانی میکند. این مدل به طور خاص برای پیروی از دستورات، ادغام نمایندگی، نوشتن خلاق و استفاده چند زبانه در بیش از ۱۰۰ زبان و گویش مختلف تنظیم شده است. این مدل به طور بومی از پنجره زمینه ۳۲K توکن پشتیبانی میکند و میتواند از طریق YaRN به ۱۳۱K توکن گسترش یابد."
|
|
3038
3088
|
},
|
|
3089
|
+
"qwen/qwen3-coder": {
|
|
3090
|
+
"description": "Qwen3-Coder خانواده تولیدکننده کد از Qwen3 است که در درک و تولید کد در اسناد طولانی تخصص دارد."
|
|
3091
|
+
},
|
|
3092
|
+
"qwen/qwen3-coder-plus": {
|
|
3093
|
+
"description": "Qwen3-Coder-Plus مدل کدنویسی بهینهشده ویژه از سری Qwen است که از فراخوانی ابزارهای پیچیده و مکالمات بلندمدت پشتیبانی میکند."
|
|
3094
|
+
},
|
|
3095
|
+
"qwen/qwen3-max": {
|
|
3096
|
+
"description": "Qwen3 Max مدل استدلالی سطح بالا از سری Qwen3 است که برای استدلال چندزبانه و یکپارچهسازی ابزارها مناسب است."
|
|
3097
|
+
},
|
|
3098
|
+
"qwen/qwen3-max-preview": {
|
|
3099
|
+
"description": "Qwen3 Max (پیشنمایش) نسخه Max از سری Qwen است که برای استدلال پیشرفته و یکپارچهسازی ابزارها طراحی شده است."
|
|
3100
|
+
},
|
|
3101
|
+
"qwen/qwen3-vl-plus": {
|
|
3102
|
+
"description": "Qwen3 VL-Plus نسخه تقویتشده بصری از Qwen3 است که توانایی استدلال چندحالته و پردازش ویدیو را بهبود داده است."
|
|
3103
|
+
},
|
|
3039
3104
|
"qwen2": {
|
|
3040
3105
|
"description": "Qwen2 مدل زبان بزرگ نسل جدید علیبابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی میکند."
|
|
3041
3106
|
},
|
|
@@ -3411,6 +3476,9 @@
|
|
|
3411
3476
|
"vercel/v0-1.5-md": {
|
|
3412
3477
|
"description": "دسترسی به مدل پشت v0 برای تولید، رفع اشکال و بهینهسازی برنامههای وب مدرن با استدلال چارچوب خاص و دانش بهروز."
|
|
3413
3478
|
},
|
|
3479
|
+
"volcengine/doubao-seed-code": {
|
|
3480
|
+
"description": "Doubao-Seed-Code مدل بزرگ بهینهشده برای برنامهنویسی عاملی (Agentic Programming) از Volcengine است که در معیارهای مختلف برنامهنویسی و عاملها عملکرد برجستهای دارد و از زمینه ۲۵۶ هزار توکن پشتیبانی میکند."
|
|
3481
|
+
},
|
|
3414
3482
|
"wan2.2-t2i-flash": {
|
|
3415
3483
|
"description": "نسخه سریع Wanxiang 2.2، جدیدترین مدل فعلی. در خلاقیت، پایداری و واقعگرایی به طور کامل ارتقا یافته، سرعت تولید بالا و نسبت قیمت به کیفیت عالی دارد."
|
|
3416
3484
|
},
|
|
@@ -3438,8 +3506,24 @@
|
|
|
3438
3506
|
"wizardlm2:8x22b": {
|
|
3439
3507
|
"description": "WizardLM 2 یک مدل زبانی ارائه شده توسط مایکروسافت AI است که در زمینههای مکالمات پیچیده، چندزبانه، استدلال و دستیارهای هوشمند عملکرد برجستهای دارد."
|
|
3440
3508
|
},
|
|
3441
|
-
"x-ai/grok-4
|
|
3442
|
-
|
|
3509
|
+
"x-ai/grok-4": {
|
|
3510
|
+
"description": "Grok 4 مدل پرچمدار استدلالی xAI است که تواناییهای قدرتمند در استدلال و چندحالته ارائه میدهد."
|
|
3511
|
+
},
|
|
3512
|
+
"x-ai/grok-4-fast": {
|
|
3513
|
+
"description": "Grok 4 Fast مدل با توان عملیاتی بالا و هزینه پایین از xAI است (با پشتیبانی از پنجره زمینه ۲ میلیون توکن) که برای سناریوهای با نیاز به همزمانی بالا و زمینه طولانی مناسب است."
|
|
3514
|
+
},
|
|
3515
|
+
"x-ai/grok-4-fast-non-reasoning": {
|
|
3516
|
+
"description": "Grok 4 Fast (بدون استدلال) مدل چندحالته با توان عملیاتی بالا و هزینه پایین از xAI است (با پشتیبانی از پنجره زمینه ۲ میلیون توکن) که برای سناریوهایی مناسب است که به استدلال درونمدلی نیاز ندارند اما به تأخیر و هزینه حساس هستند. این مدل در کنار نسخه reasoning از Grok 4 Fast قرار دارد و میتوان از طریق پارامتر reasoning enable در API، قابلیت استدلال را در صورت نیاز فعال کرد. ورودیها و خروجیها ممکن است توسط xAI یا OpenRouter برای بهبود مدلهای آینده استفاده شوند."
|
|
3517
|
+
},
|
|
3518
|
+
"x-ai/grok-4.1-fast": {
|
|
3519
|
+
"description": "Grok 4.1 Fast مدل با توان عملیاتی بالا و هزینه پایین از xAI است (با پشتیبانی از پنجره زمینه ۲ میلیون توکن) که برای سناریوهای با نیاز به همزمانی بالا و زمینه طولانی مناسب است."
|
|
3520
|
+
},
|
|
3521
|
+
"x-ai/grok-4.1-fast-non-reasoning": {
|
|
3522
|
+
"description": "Grok 4.1 Fast (بدون استدلال) مدل چندحالته با توان عملیاتی بالا و هزینه پایین از xAI است (با پشتیبانی از پنجره زمینه ۲ میلیون توکن) که برای سناریوهایی مناسب است که به استدلال درونمدلی نیاز ندارند اما به تأخیر و هزینه حساس هستند. این مدل در کنار نسخه reasoning از Grok 4.1 Fast قرار دارد و میتوان از طریق پارامتر reasoning enable در API، قابلیت استدلال را در صورت نیاز فعال کرد. ورودیها و خروجیها ممکن است توسط xAI یا OpenRouter برای بهبود مدلهای آینده استفاده شوند."
|
|
3523
|
+
},
|
|
3524
|
+
"x-ai/grok-code-fast-1": {
|
|
3525
|
+
"description": "Grok Code Fast 1 مدل سریع کدنویسی از xAI است که خروجیهایی با خوانایی بالا و سازگار با مهندسی ارائه میدهد."
|
|
3526
|
+
},
|
|
3443
3527
|
"x1": {
|
|
3444
3528
|
"description": "مدل Spark X1 بهزودی ارتقا خواهد یافت و در زمینه وظایف ریاضی که در کشور پیشرو است، عملکردهای استدلال، تولید متن و درک زبان را با OpenAI o1 و DeepSeek R1 مقایسه خواهد کرد."
|
|
3445
3529
|
},
|
|
@@ -3500,7 +3584,15 @@
|
|
|
3500
3584
|
"yi-vision-v2": {
|
|
3501
3585
|
"description": "مدلهای پیچیده بصری که قابلیتهای درک و تحلیل با عملکرد بالا را بر اساس چندین تصویر ارائه میدهند."
|
|
3502
3586
|
},
|
|
3503
|
-
"z-ai/glm-4.
|
|
3587
|
+
"z-ai/glm-4.5": {
|
|
3588
|
+
"description": "GLM 4.5 مدل پرچمدار Z.AI است که از حالتهای استدلال ترکیبی پشتیبانی میکند و برای وظایف مهندسی و زمینههای طولانی بهینه شده است."
|
|
3589
|
+
},
|
|
3590
|
+
"z-ai/glm-4.5-air": {
|
|
3591
|
+
"description": "GLM 4.5 Air نسخه سبکتر GLM 4.5 است که برای سناریوهای حساس به هزینه طراحی شده و همچنان توانایی استدلال قوی را حفظ کرده است."
|
|
3592
|
+
},
|
|
3593
|
+
"z-ai/glm-4.6": {
|
|
3594
|
+
"description": "GLM 4.6 مدل پرچمدار Z.AI است که طول زمینه و تواناییهای کدنویسی را گسترش داده است."
|
|
3595
|
+
},
|
|
3504
3596
|
"zai-org/GLM-4.5": {
|
|
3505
3597
|
"description": "GLM-4.5 یک مدل پایه طراحی شده برای کاربردهای عامل هوشمند است که از معماری Mixture-of-Experts استفاده میکند. این مدل در زمینههای فراخوانی ابزار، مرور وب، مهندسی نرمافزار و برنامهنویسی فرانتاند بهینهسازی عمیق شده و از ادغام بیوقفه با عاملهای کد مانند Claude Code و Roo Code پشتیبانی میکند. GLM-4.5 از حالت استدلال ترکیبی بهره میبرد و میتواند در سناریوهای استدلال پیچیده و استفاده روزمره به خوبی عمل کند."
|
|
3506
3598
|
},
|
|
@@ -3521,5 +3613,8 @@
|
|
|
3521
3613
|
},
|
|
3522
3614
|
"zai/glm-4.5v": {
|
|
3523
3615
|
"description": "GLM-4.5V بر پایه مدل پایه GLM-4.5-Air ساخته شده است، فناوری اثبات شده GLM-4.1V-Thinking را به ارث برده و در عین حال با معماری قدرتمند MoE با 106 میلیارد پارامتر به طور مؤثر مقیاسپذیر شده است."
|
|
3616
|
+
},
|
|
3617
|
+
"zenmux/auto": {
|
|
3618
|
+
"description": "ویژگی مسیریابی خودکار ZenMux بر اساس محتوای درخواست شما، بهترین مدل موجود از نظر عملکرد و هزینه را از میان مدلهای پشتیبانیشده انتخاب میکند."
|
|
3524
3619
|
}
|
|
3525
3620
|
}
|
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, des bases de code et des documents en utilisant un contexte étendu."
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d’images de Google, prenant également en charge les dialogues multimodaux."
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "Version gratuite de Gemini 3 Pro Image, prenant en charge une génération multimodale avec quota limité."
|
|
1720
1723
|
},
|
|
@@ -2777,14 +2780,51 @@
|
|
|
2777
2780
|
"openai/gpt-4-turbo": {
|
|
2778
2781
|
"description": "gpt-4-turbo d'OpenAI possède une vaste connaissance générale et une expertise sectorielle, capable de suivre des instructions complexes en langage naturel et de résoudre précisément des problèmes difficiles. Sa date de coupure des connaissances est avril 2023, avec une fenêtre de contexte de 128 000 tokens."
|
|
2779
2782
|
},
|
|
2780
|
-
"openai/gpt-4.1": {
|
|
2781
|
-
|
|
2782
|
-
|
|
2783
|
-
"openai/gpt-
|
|
2784
|
-
|
|
2785
|
-
|
|
2786
|
-
"openai/gpt-
|
|
2787
|
-
|
|
2783
|
+
"openai/gpt-4.1": {
|
|
2784
|
+
"description": "La série GPT-4.1 offre un contexte étendu ainsi qu’une meilleure capacité d’ingénierie et de raisonnement."
|
|
2785
|
+
},
|
|
2786
|
+
"openai/gpt-4.1-mini": {
|
|
2787
|
+
"description": "GPT-4.1 Mini propose une latence réduite et un excellent rapport qualité-prix, idéal pour des contextes de taille moyenne."
|
|
2788
|
+
},
|
|
2789
|
+
"openai/gpt-4.1-nano": {
|
|
2790
|
+
"description": "GPT-4.1 Nano est une option à très faible coût et faible latence, adaptée aux dialogues courts et fréquents ou aux scénarios de classification."
|
|
2791
|
+
},
|
|
2792
|
+
"openai/gpt-4o": {
|
|
2793
|
+
"description": "La série GPT-4o est le modèle Omni d’OpenAI, prenant en charge les entrées texte + image et les sorties textuelles."
|
|
2794
|
+
},
|
|
2795
|
+
"openai/gpt-4o-mini": {
|
|
2796
|
+
"description": "GPT-4o-mini est une version rapide et compacte de GPT-4o, idéale pour les scénarios multimodaux à faible latence."
|
|
2797
|
+
},
|
|
2798
|
+
"openai/gpt-5": {
|
|
2799
|
+
"description": "GPT-5 est le modèle haute performance d’OpenAI, adapté à une large gamme de tâches de production et de recherche."
|
|
2800
|
+
},
|
|
2801
|
+
"openai/gpt-5-chat": {
|
|
2802
|
+
"description": "GPT-5 Chat est une sous-version de GPT-5 optimisée pour les dialogues, avec une latence réduite pour une meilleure expérience interactive."
|
|
2803
|
+
},
|
|
2804
|
+
"openai/gpt-5-codex": {
|
|
2805
|
+
"description": "GPT-5-Codex est une variante de GPT-5 spécialement optimisée pour les scénarios de codage, adaptée aux flux de travail de programmation à grande échelle."
|
|
2806
|
+
},
|
|
2807
|
+
"openai/gpt-5-mini": {
|
|
2808
|
+
"description": "GPT-5 Mini est une version allégée de la famille GPT-5, conçue pour des scénarios à faible coût et faible latence."
|
|
2809
|
+
},
|
|
2810
|
+
"openai/gpt-5-nano": {
|
|
2811
|
+
"description": "GPT-5 Nano est la version ultra-compacte de la famille, idéale pour les cas d’usage exigeant des performances optimales en termes de coût et de latence."
|
|
2812
|
+
},
|
|
2813
|
+
"openai/gpt-5-pro": {
|
|
2814
|
+
"description": "GPT-5 Pro est le modèle phare d’OpenAI, offrant des capacités avancées de raisonnement, de génération de code et des fonctionnalités de niveau entreprise, avec prise en charge du routage en phase de test et de politiques de sécurité renforcées."
|
|
2815
|
+
},
|
|
2816
|
+
"openai/gpt-5.1": {
|
|
2817
|
+
"description": "GPT-5.1 est le dernier modèle phare de la série GPT-5, avec des améliorations significatives en raisonnement général, suivi d’instructions et fluidité des dialogues, adapté à un large éventail de tâches."
|
|
2818
|
+
},
|
|
2819
|
+
"openai/gpt-5.1-chat": {
|
|
2820
|
+
"description": "GPT-5.1 Chat est un membre léger de la famille GPT-5.1, optimisé pour les dialogues à faible latence tout en conservant de solides capacités de raisonnement et d’exécution d’instructions."
|
|
2821
|
+
},
|
|
2822
|
+
"openai/gpt-5.1-codex": {
|
|
2823
|
+
"description": "GPT-5.1-Codex est une variante de GPT-5.1 optimisée pour l’ingénierie logicielle et les flux de travail de codage, adaptée aux refactorisations complexes, au débogage avancé et aux tâches de codage autonomes de longue durée."
|
|
2824
|
+
},
|
|
2825
|
+
"openai/gpt-5.1-codex-mini": {
|
|
2826
|
+
"description": "GPT-5.1-Codex-Mini est une version compacte et accélérée de GPT-5.1-Codex, mieux adaptée aux scénarios de codage sensibles à la latence et au coût."
|
|
2827
|
+
},
|
|
2788
2828
|
"openai/gpt-oss-120b": {
|
|
2789
2829
|
"description": "Modèle de langage général extrêmement performant avec des capacités de raisonnement puissantes et contrôlables."
|
|
2790
2830
|
},
|
|
@@ -2809,7 +2849,9 @@
|
|
|
2809
2849
|
"openai/o3-mini-high": {
|
|
2810
2850
|
"description": "o3-mini haute version de raisonnement, offrant une grande intelligence avec les mêmes objectifs de coût et de latence que o1-mini."
|
|
2811
2851
|
},
|
|
2812
|
-
"openai/o4-mini": {
|
|
2852
|
+
"openai/o4-mini": {
|
|
2853
|
+
"description": "OpenAI o4-mini est un modèle de raisonnement compact et efficace d’OpenAI, conçu pour les scénarios à faible latence."
|
|
2854
|
+
},
|
|
2813
2855
|
"openai/o4-mini-high": {
|
|
2814
2856
|
"description": "Version à haut niveau d'inférence d'o4-mini, optimisée pour une inférence rapide et efficace, offrant une grande efficacité et performance dans les tâches de codage et visuelles."
|
|
2815
2857
|
},
|
|
@@ -3011,13 +3053,21 @@
|
|
|
3011
3053
|
"qwen/qwen2.5-coder-7b-instruct": {
|
|
3012
3054
|
"description": "Modèle de code puissant de taille moyenne, prenant en charge une longueur de contexte de 32K, spécialisé dans la programmation multilingue."
|
|
3013
3055
|
},
|
|
3014
|
-
"qwen/qwen3-14b": {
|
|
3056
|
+
"qwen/qwen3-14b": {
|
|
3057
|
+
"description": "Qwen3-14B est la version 14B de la série Qwen, adaptée aux scénarios de raisonnement général et de dialogue."
|
|
3058
|
+
},
|
|
3015
3059
|
"qwen/qwen3-14b:free": {
|
|
3016
3060
|
"description": "Qwen3-14B est un modèle de langage causal dense de 14 milliards de paramètres dans la série Qwen3, conçu pour un raisonnement complexe et des dialogues efficaces. Il permet un passage sans effort entre un mode de pensée pour des tâches telles que les mathématiques, la programmation et le raisonnement logique, et un mode non-pensant pour des dialogues généraux. Ce modèle a été affiné pour le suivi des instructions, l'utilisation d'outils d'agents, l'écriture créative et des tâches multilingues dans plus de 100 langues et dialectes. Il gère nativement un contexte de 32K tokens et peut être étendu à 131K tokens via une extension basée sur YaRN."
|
|
3017
3061
|
},
|
|
3018
3062
|
"qwen/qwen3-235b-a22b": {
|
|
3019
3063
|
"description": "Qwen3-235B-A22B est un modèle de mélange d'experts (MoE) de 235 milliards de paramètres développé par Qwen, activant 22 milliards de paramètres à chaque passage avant. Il permet un passage sans effort entre un mode de pensée pour des tâches complexes de raisonnement, de mathématiques et de code, et un mode non-pensant pour une efficacité dans les dialogues généraux. Ce modèle démontre de solides capacités de raisonnement, un support multilingue (plus de 100 langues et dialectes), un suivi avancé des instructions et des capacités d'appel d'outils d'agents. Il gère nativement une fenêtre de contexte de 32K tokens et peut être étendu à 131K tokens via une extension basée sur YaRN."
|
|
3020
3064
|
},
|
|
3065
|
+
"qwen/qwen3-235b-a22b-2507": {
|
|
3066
|
+
"description": "Qwen3-235B-A22B-Instruct-2507 est la version Instruct de la série Qwen3, équilibrant les instructions multilingues et les contextes longs."
|
|
3067
|
+
},
|
|
3068
|
+
"qwen/qwen3-235b-a22b-thinking-2507": {
|
|
3069
|
+
"description": "Qwen3-235B-A22B-Thinking-2507 est une variante Thinking de Qwen3, renforcée pour les tâches complexes de mathématiques et de raisonnement."
|
|
3070
|
+
},
|
|
3021
3071
|
"qwen/qwen3-235b-a22b:free": {
|
|
3022
3072
|
"description": "Qwen3-235B-A22B est un modèle de mélange d'experts (MoE) de 235 milliards de paramètres développé par Qwen, activant 22 milliards de paramètres à chaque passage avant. Il permet un passage sans effort entre un mode de pensée pour des tâches complexes de raisonnement, de mathématiques et de code, et un mode non-pensant pour une efficacité dans les dialogues généraux. Ce modèle démontre de solides capacités de raisonnement, un support multilingue (plus de 100 langues et dialectes), un suivi avancé des instructions et des capacités d'appel d'outils d'agents. Il gère nativement une fenêtre de contexte de 32K tokens et peut être étendu à 131K tokens via une extension basée sur YaRN."
|
|
3023
3073
|
},
|
|
@@ -3036,6 +3086,21 @@
|
|
|
3036
3086
|
"qwen/qwen3-8b:free": {
|
|
3037
3087
|
"description": "Qwen3-8B est un modèle de langage causal dense de 8 milliards de paramètres dans la série Qwen3, conçu pour des tâches intensives en raisonnement et des dialogues efficaces. Il permet un passage sans effort entre un mode de pensée pour les mathématiques, le codage et le raisonnement logique, et un mode non-pensant pour des dialogues généraux. Ce modèle a été affiné pour le suivi des instructions, l'intégration d'agents, l'écriture créative et l'utilisation multilingue dans plus de 100 langues et dialectes. Il prend en charge nativement une fenêtre de contexte de 32K tokens et peut être étendu à 131K tokens via YaRN."
|
|
3038
3088
|
},
|
|
3089
|
+
"qwen/qwen3-coder": {
|
|
3090
|
+
"description": "Qwen3-Coder est la famille de générateurs de code de Qwen3, spécialisée dans la compréhension et la génération de code dans de longs documents."
|
|
3091
|
+
},
|
|
3092
|
+
"qwen/qwen3-coder-plus": {
|
|
3093
|
+
"description": "Qwen3-Coder-Plus est un modèle d’agent de codage spécialement optimisé de la série Qwen, prenant en charge des appels d’outils plus complexes et des conversations prolongées."
|
|
3094
|
+
},
|
|
3095
|
+
"qwen/qwen3-max": {
|
|
3096
|
+
"description": "Qwen3 Max est le modèle de raisonnement haut de gamme de la série Qwen3, adapté au raisonnement multilingue et à l’intégration d’outils."
|
|
3097
|
+
},
|
|
3098
|
+
"qwen/qwen3-max-preview": {
|
|
3099
|
+
"description": "Qwen3 Max (aperçu) est la version Max de la série Qwen, axée sur le raisonnement avancé et l’intégration d’outils (version préliminaire)."
|
|
3100
|
+
},
|
|
3101
|
+
"qwen/qwen3-vl-plus": {
|
|
3102
|
+
"description": "Qwen3 VL-Plus est la version enrichie en capacités visuelles de Qwen3, améliorant le raisonnement multimodal et le traitement vidéo."
|
|
3103
|
+
},
|
|
3039
3104
|
"qwen2": {
|
|
3040
3105
|
"description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
|
|
3041
3106
|
},
|
|
@@ -3411,6 +3476,9 @@
|
|
|
3411
3476
|
"vercel/v0-1.5-md": {
|
|
3412
3477
|
"description": "Accès au modèle derrière v0 pour générer, réparer et optimiser des applications Web modernes, avec raisonnement spécifique aux frameworks et connaissances à jour."
|
|
3413
3478
|
},
|
|
3479
|
+
"volcengine/doubao-seed-code": {
|
|
3480
|
+
"description": "Doubao-Seed-Code est un grand modèle optimisé par Volcengine pour la programmation agentique, performant sur de nombreux benchmarks de codage et d’agents, avec prise en charge de contextes jusqu’à 256K."
|
|
3481
|
+
},
|
|
3414
3482
|
"wan2.2-t2i-flash": {
|
|
3415
3483
|
"description": "Version ultra-rapide Wanxiang 2.2, le modèle le plus récent à ce jour. Améliorations globales en créativité, stabilité et réalisme, avec une vitesse de génération rapide et un excellent rapport qualité-prix."
|
|
3416
3484
|
},
|
|
@@ -3438,8 +3506,24 @@
|
|
|
3438
3506
|
"wizardlm2:8x22b": {
|
|
3439
3507
|
"description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
|
|
3440
3508
|
},
|
|
3441
|
-
"x-ai/grok-4
|
|
3442
|
-
|
|
3509
|
+
"x-ai/grok-4": {
|
|
3510
|
+
"description": "Grok 4 est le modèle phare de raisonnement de xAI, offrant de puissantes capacités de raisonnement et de traitement multimodal."
|
|
3511
|
+
},
|
|
3512
|
+
"x-ai/grok-4-fast": {
|
|
3513
|
+
"description": "Grok 4 Fast est un modèle à haut débit et faible coût de xAI (prise en charge d’une fenêtre de contexte de 2M), idéal pour les scénarios nécessitant une forte concurrence et de longs contextes."
|
|
3514
|
+
},
|
|
3515
|
+
"x-ai/grok-4-fast-non-reasoning": {
|
|
3516
|
+
"description": "Grok 4 Fast (Non-Reasoning) est un modèle multimodal à haut débit et faible coût de xAI (prise en charge d’une fenêtre de contexte de 2M), destiné aux scénarios sensibles à la latence et au coût ne nécessitant pas de raisonnement intégré. Il fonctionne en parallèle avec la version reasoning de Grok 4 Fast, et le raisonnement peut être activé via le paramètre reasoning enable de l’API. Les prompts et complétions peuvent être utilisés par xAI ou OpenRouter pour améliorer les modèles futurs."
|
|
3517
|
+
},
|
|
3518
|
+
"x-ai/grok-4.1-fast": {
|
|
3519
|
+
"description": "Grok 4.1 Fast est un modèle à haut débit et faible coût de xAI (prise en charge d’une fenêtre de contexte de 2M), idéal pour les scénarios nécessitant une forte concurrence et de longs contextes."
|
|
3520
|
+
},
|
|
3521
|
+
"x-ai/grok-4.1-fast-non-reasoning": {
|
|
3522
|
+
"description": "Grok 4.1 Fast (Non-Reasoning) est un modèle multimodal à haut débit et faible coût de xAI (prise en charge d’une fenêtre de contexte de 2M), destiné aux scénarios sensibles à la latence et au coût ne nécessitant pas de raisonnement intégré. Il fonctionne en parallèle avec la version reasoning de Grok 4.1 Fast, et le raisonnement peut être activé via le paramètre reasoning enable de l’API. Les prompts et complétions peuvent être utilisés par xAI ou OpenRouter pour améliorer les modèles futurs."
|
|
3523
|
+
},
|
|
3524
|
+
"x-ai/grok-code-fast-1": {
|
|
3525
|
+
"description": "Grok Code Fast 1 est le modèle de code rapide de xAI, produisant des sorties lisibles et adaptées à l’ingénierie."
|
|
3526
|
+
},
|
|
3443
3527
|
"x1": {
|
|
3444
3528
|
"description": "Le modèle Spark X1 sera mis à niveau, et sur la base de ses performances déjà leaders dans les tâches mathématiques, il atteindra des résultats comparables dans des tâches générales telles que le raisonnement, la génération de texte et la compréhension du langage, en se mesurant à OpenAI o1 et DeepSeek R1."
|
|
3445
3529
|
},
|
|
@@ -3500,7 +3584,15 @@
|
|
|
3500
3584
|
"yi-vision-v2": {
|
|
3501
3585
|
"description": "Modèle pour des tâches visuelles complexes, offrant des capacités de compréhension et d'analyse de haute performance basées sur plusieurs images."
|
|
3502
3586
|
},
|
|
3503
|
-
"z-ai/glm-4.
|
|
3587
|
+
"z-ai/glm-4.5": {
|
|
3588
|
+
"description": "GLM 4.5 est le modèle phare de Z.AI, prenant en charge les modes de raisonnement hybrides et optimisé pour les tâches d’ingénierie et de long contexte."
|
|
3589
|
+
},
|
|
3590
|
+
"z-ai/glm-4.5-air": {
|
|
3591
|
+
"description": "GLM 4.5 Air est une version allégée de GLM 4.5, adaptée aux scénarios sensibles au coût tout en conservant de solides capacités de raisonnement."
|
|
3592
|
+
},
|
|
3593
|
+
"z-ai/glm-4.6": {
|
|
3594
|
+
"description": "GLM 4.6 est le modèle phare de Z.AI, avec des capacités étendues de longueur de contexte et de codage."
|
|
3595
|
+
},
|
|
3504
3596
|
"zai-org/GLM-4.5": {
|
|
3505
3597
|
"description": "GLM-4.5 est un modèle de base conçu pour les applications d'agents intelligents, utilisant une architecture Mixture-of-Experts (MoE). Il est profondément optimisé pour l'appel d'outils, la navigation web, l'ingénierie logicielle et la programmation front-end, supportant une intégration transparente avec des agents de code tels que Claude Code et Roo Code. GLM-4.5 utilise un mode d'inférence hybride, adapté à des scénarios variés allant du raisonnement complexe à l'usage quotidien."
|
|
3506
3598
|
},
|
|
@@ -3521,5 +3613,8 @@
|
|
|
3521
3613
|
},
|
|
3522
3614
|
"zai/glm-4.5v": {
|
|
3523
3615
|
"description": "GLM-4.5V est construit sur le modèle de base GLM-4.5-Air, héritant des techniques éprouvées de GLM-4.1V-Thinking, tout en réalisant une mise à l'échelle efficace grâce à une puissante architecture MoE de 106 milliards de paramètres."
|
|
3616
|
+
},
|
|
3617
|
+
"zenmux/auto": {
|
|
3618
|
+
"description": "La fonction de routage automatique de ZenMux sélectionne automatiquement le modèle le plus performant et le plus rentable parmi les modèles pris en charge, en fonction du contenu de votre requête."
|
|
3524
3619
|
}
|
|
3525
3620
|
}
|
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi nel campo del codice, della matematica e delle STEM, oltre a utilizzare un contesto esteso per analizzare grandi set di dati, repository di codice e documenti."
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google, che supporta anche il dialogo multimodale."
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "Gemini 3 Pro Image versione gratuita, supporta generazione multimodale con limiti di utilizzo."
|
|
1720
1723
|
},
|
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Preview は、Google の最先端の思考モデルであり、コード、数学、STEM 分野の複雑な問題を推論し、長いコンテキストを用いて大規模なデータセット、コードベース、ドキュメントを分析することができます。"
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image(Nano Banana Pro)は、Googleの画像生成モデルであり、マルチモーダル対話にも対応しています。"
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "Gemini 3 Pro Image 無料版は、制限付きのマルチモーダル生成をサポートします。"
|
|
1720
1723
|
},
|
|
@@ -2777,14 +2780,51 @@
|
|
|
2777
2780
|
"openai/gpt-4-turbo": {
|
|
2778
2781
|
"description": "OpenAI の gpt-4-turbo は広範な一般知識と専門知識を持ち、自然言語の複雑な指示に従い、難解な問題を正確に解決します。知識カットオフは2023年4月で、128,000トークンのコンテキストウィンドウを備えています。"
|
|
2779
2782
|
},
|
|
2780
|
-
"openai/gpt-4.1": {
|
|
2781
|
-
|
|
2782
|
-
|
|
2783
|
-
"openai/gpt-
|
|
2784
|
-
|
|
2785
|
-
|
|
2786
|
-
"openai/gpt-
|
|
2787
|
-
|
|
2783
|
+
"openai/gpt-4.1": {
|
|
2784
|
+
"description": "GPT-4.1シリーズは、より広い文脈理解と強力なエンジニアリング・推論能力を提供します。"
|
|
2785
|
+
},
|
|
2786
|
+
"openai/gpt-4.1-mini": {
|
|
2787
|
+
"description": "GPT-4.1 Miniは、低遅延かつ高コストパフォーマンスを実現し、中程度の文脈処理に適しています。"
|
|
2788
|
+
},
|
|
2789
|
+
"openai/gpt-4.1-nano": {
|
|
2790
|
+
"description": "GPT-4.1 Nanoは、非常に低コスト・低遅延の選択肢であり、高頻度の短い対話や分類タスクに適しています。"
|
|
2791
|
+
},
|
|
2792
|
+
"openai/gpt-4o": {
|
|
2793
|
+
"description": "GPT-4oシリーズは、OpenAIのOmniモデルであり、テキスト+画像入力とテキスト出力に対応しています。"
|
|
2794
|
+
},
|
|
2795
|
+
"openai/gpt-4o-mini": {
|
|
2796
|
+
"description": "GPT-4o-miniは、GPT-4oの軽量高速モデルで、低遅延のマルチモーダルシナリオに適しています。"
|
|
2797
|
+
},
|
|
2798
|
+
"openai/gpt-5": {
|
|
2799
|
+
"description": "GPT-5は、OpenAIの高性能モデルで、幅広い生産・研究タスクに対応します。"
|
|
2800
|
+
},
|
|
2801
|
+
"openai/gpt-5-chat": {
|
|
2802
|
+
"description": "GPT-5 Chatは、対話シナリオ向けに最適化されたGPT-5のサブモデルで、遅延を抑えたインタラクション体験を提供します。"
|
|
2803
|
+
},
|
|
2804
|
+
"openai/gpt-5-codex": {
|
|
2805
|
+
"description": "GPT-5-Codexは、コーディング用途に特化して最適化されたGPT-5のバリアントで、大規模なコードワークフローに適しています。"
|
|
2806
|
+
},
|
|
2807
|
+
"openai/gpt-5-mini": {
|
|
2808
|
+
"description": "GPT-5 Miniは、GPT-5ファミリーの軽量版で、低遅延・低コストのシナリオに適しています。"
|
|
2809
|
+
},
|
|
2810
|
+
"openai/gpt-5-nano": {
|
|
2811
|
+
"description": "GPT-5 Nanoは、ファミリー内で最も小型のモデルで、コストと遅延に厳しい要件があるシナリオに最適です。"
|
|
2812
|
+
},
|
|
2813
|
+
"openai/gpt-5-pro": {
|
|
2814
|
+
"description": "GPT-5 Proは、OpenAIのフラッグシップモデルで、強力な推論・コード生成・エンタープライズ機能を提供し、テスト時のルーティングや厳格なセキュリティポリシーにも対応します。"
|
|
2815
|
+
},
|
|
2816
|
+
"openai/gpt-5.1": {
|
|
2817
|
+
"description": "GPT-5.1は、GPT-5シリーズの最新フラッグシップモデルで、一般的な推論、指示の遵守、自然な対話において大幅な向上を実現し、幅広いタスクに対応します。"
|
|
2818
|
+
},
|
|
2819
|
+
"openai/gpt-5.1-chat": {
|
|
2820
|
+
"description": "GPT-5.1 Chatは、GPT-5.1ファミリーの軽量モデルで、低遅延の対話に最適化されつつ、強力な推論と指示実行能力を保持しています。"
|
|
2821
|
+
},
|
|
2822
|
+
"openai/gpt-5.1-codex": {
|
|
2823
|
+
"description": "GPT-5.1-Codexは、ソフトウェアエンジニアリングとコーディングワークフローに特化して最適化されたGPT-5.1のバリアントで、大規模なリファクタリング、複雑なデバッグ、長時間の自律的コーディングに適しています。"
|
|
2824
|
+
},
|
|
2825
|
+
"openai/gpt-5.1-codex-mini": {
|
|
2826
|
+
"description": "GPT-5.1-Codex-Miniは、GPT-5.1-Codexの小型高速版で、遅延とコストに敏感なコーディングシナリオに適しています。"
|
|
2827
|
+
},
|
|
2788
2828
|
"openai/gpt-oss-120b": {
|
|
2789
2829
|
"description": "非常に有能な汎用大規模言語モデルで、強力かつ制御可能な推論能力を持ちます。"
|
|
2790
2830
|
},
|
|
@@ -2809,7 +2849,9 @@
|
|
|
2809
2849
|
"openai/o3-mini-high": {
|
|
2810
2850
|
"description": "o3-mini高推論レベル版は、o1-miniと同じコストと遅延目標で高い知性を提供します。"
|
|
2811
2851
|
},
|
|
2812
|
-
"openai/o4-mini": {
|
|
2852
|
+
"openai/o4-mini": {
|
|
2853
|
+
"description": "OpenAI o4-miniは、OpenAIの小型高効率推論モデルで、低遅延のシナリオに適しています。"
|
|
2854
|
+
},
|
|
2813
2855
|
"openai/o4-mini-high": {
|
|
2814
2856
|
"description": "o4-mini高推論レベル版で、迅速かつ効果的な推論のために最適化されており、コーディングや視覚タスクで非常に高い効率と性能を発揮します。"
|
|
2815
2857
|
},
|
|
@@ -3011,13 +3053,21 @@
|
|
|
3011
3053
|
"qwen/qwen2.5-coder-7b-instruct": {
|
|
3012
3054
|
"description": "強力な中型コードモデルで、32Kのコンテキスト長をサポートし、多言語プログラミングに優れています。"
|
|
3013
3055
|
},
|
|
3014
|
-
"qwen/qwen3-14b": {
|
|
3056
|
+
"qwen/qwen3-14b": {
|
|
3057
|
+
"description": "Qwen3-14Bは、Qwenシリーズの14Bバージョンで、一般的な推論や対話シナリオに適しています。"
|
|
3058
|
+
},
|
|
3015
3059
|
"qwen/qwen3-14b:free": {
|
|
3016
3060
|
"description": "Qwen3-14BはQwen3シリーズの中で、148億パラメータの密な因果言語モデルであり、複雑な推論と効率的な対話のために設計されています。数学、プログラミング、論理推論などのタスクのための「思考」モードと一般的な対話のための「非思考」モードの間をシームレスに切り替えることができます。このモデルは微調整されており、指示の遵守、エージェントツールの使用、創造的な執筆、100以上の言語と方言にわたる多言語タスクに対応しています。32Kトークンのコンテキストをネイティブに処理し、YaRNベースの拡張を使用して131Kトークンに拡張可能です。"
|
|
3017
3061
|
},
|
|
3018
3062
|
"qwen/qwen3-235b-a22b": {
|
|
3019
3063
|
"description": "Qwen3-235B-A22BはQwenによって開発された235Bパラメータの専門家混合(MoE)モデルで、各前方伝播で22Bパラメータをアクティブ化します。複雑な推論、数学、コードタスクのための「思考」モードと、一般的な対話の効率のための「非思考」モードの間をシームレスに切り替えることができます。このモデルは強力な推論能力、100以上の言語と方言にわたる多言語サポート、高度な指示遵守、エージェントツール呼び出し能力を示しています。32Kトークンのコンテキストウィンドウをネイティブに処理し、YaRNベースの拡張を使用して131Kトークンに拡張可能です。"
|
|
3020
3064
|
},
|
|
3065
|
+
"qwen/qwen3-235b-a22b-2507": {
|
|
3066
|
+
"description": "Qwen3-235B-A22B-Instruct-2507は、Qwen3シリーズのInstructバージョンで、多言語指示と長文脈シナリオの両方に対応しています。"
|
|
3067
|
+
},
|
|
3068
|
+
"qwen/qwen3-235b-a22b-thinking-2507": {
|
|
3069
|
+
"description": "Qwen3-235B-A22B-Thinking-2507は、Qwen3のThinkingバリアントで、複雑な数学や推論タスクに特化して強化されています。"
|
|
3070
|
+
},
|
|
3021
3071
|
"qwen/qwen3-235b-a22b:free": {
|
|
3022
3072
|
"description": "Qwen3-235B-A22BはQwenによって開発された235Bパラメータの専門家混合(MoE)モデルで、各前方伝播で22Bパラメータをアクティブ化します。複雑な推論、数学、コードタスクのための「思考」モードと、一般的な対話の効率のための「非思考」モードの間をシームレスに切り替えることができます。このモデルは強力な推論能力、100以上の言語と方言にわたる多言語サポート、高度な指示遵守、エージェントツール呼び出し能力を示しています。32Kトークンのコンテキストウィンドウをネイティブに処理し、YaRNベースの拡張を使用して131Kトークンに拡張可能です。"
|
|
3023
3073
|
},
|
|
@@ -3036,6 +3086,21 @@
|
|
|
3036
3086
|
"qwen/qwen3-8b:free": {
|
|
3037
3087
|
"description": "Qwen3-8BはQwen3シリーズの中で、82億パラメータの密な因果言語モデルであり、推論集約型タスクと効率的な対話のために設計されています。数学、コーディング、論理推論のための「思考」モードと一般的な対話のための「非思考」モードの間をシームレスに切り替えることができます。このモデルは微調整されており、指示の遵守、エージェント統合、創造的な執筆、100以上の言語と方言にわたる多言語使用に対応しています。32Kトークンのコンテキストウィンドウをネイティブにサポートし、YaRNを使用して131Kトークンに拡張可能です。"
|
|
3038
3088
|
},
|
|
3089
|
+
"qwen/qwen3-coder": {
|
|
3090
|
+
"description": "Qwen3-Coderは、Qwen3のコード生成ファミリーで、長文ドキュメント内のコード理解と生成に優れています。"
|
|
3091
|
+
},
|
|
3092
|
+
"qwen/qwen3-coder-plus": {
|
|
3093
|
+
"description": "Qwen3-Coder-Plusは、Qwenシリーズで特別に最適化されたコーディングエージェントモデルで、より複雑なツール呼び出しや長期的な会話に対応します。"
|
|
3094
|
+
},
|
|
3095
|
+
"qwen/qwen3-max": {
|
|
3096
|
+
"description": "Qwen3 Maxは、Qwen3シリーズのハイエンド推論モデルで、多言語推論やツール統合に適しています。"
|
|
3097
|
+
},
|
|
3098
|
+
"qwen/qwen3-max-preview": {
|
|
3099
|
+
"description": "Qwen3 Max(プレビュー)は、Qwenシリーズの高度な推論とツール統合に対応したMaxバージョンのプレビュー版です。"
|
|
3100
|
+
},
|
|
3101
|
+
"qwen/qwen3-vl-plus": {
|
|
3102
|
+
"description": "Qwen3 VL-Plusは、Qwen3の視覚強化バージョンで、マルチモーダル推論と動画処理能力が向上しています。"
|
|
3103
|
+
},
|
|
3039
3104
|
"qwen2": {
|
|
3040
3105
|
"description": "Qwen2は、Alibabaの新世代大規模言語モデルであり、優れた性能で多様なアプリケーションニーズをサポートします。"
|
|
3041
3106
|
},
|
|
@@ -3411,6 +3476,9 @@
|
|
|
3411
3476
|
"vercel/v0-1.5-md": {
|
|
3412
3477
|
"description": "v0 の背後にあるモデルにアクセスし、特定フレームワークの推論と最新知識を用いてモダンなWebアプリを生成、修正、最適化します。"
|
|
3413
3478
|
},
|
|
3479
|
+
"volcengine/doubao-seed-code": {
|
|
3480
|
+
"description": "Doubao-Seed-Codeは、ByteDanceのVolcano EngineによるAgentic Programming向けに最適化された大規模モデルで、複数のプログラミングおよびエージェントベンチマークで優れた性能を発揮し、256Kの文脈に対応します。"
|
|
3481
|
+
},
|
|
3414
3482
|
"wan2.2-t2i-flash": {
|
|
3415
3483
|
"description": "万相2.2の高速版で、現時点で最新のモデルです。創造性、安定性、写実的質感が全面的にアップグレードされ、生成速度が速く、コストパフォーマンスに優れています。"
|
|
3416
3484
|
},
|
|
@@ -3438,8 +3506,24 @@
|
|
|
3438
3506
|
"wizardlm2:8x22b": {
|
|
3439
3507
|
"description": "WizardLM 2は、Microsoft AIが提供する言語モデルであり、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。"
|
|
3440
3508
|
},
|
|
3441
|
-
"x-ai/grok-4
|
|
3442
|
-
|
|
3509
|
+
"x-ai/grok-4": {
|
|
3510
|
+
"description": "Grok 4は、xAIのフラッグシップ推論モデルで、強力な推論とマルチモーダル機能を提供します。"
|
|
3511
|
+
},
|
|
3512
|
+
"x-ai/grok-4-fast": {
|
|
3513
|
+
"description": "Grok 4 Fastは、xAIの高スループット・低コストモデルで(2Mの文脈ウィンドウに対応)、高並列性と長文脈が求められるシナリオに適しています。"
|
|
3514
|
+
},
|
|
3515
|
+
"x-ai/grok-4-fast-non-reasoning": {
|
|
3516
|
+
"description": "Grok 4 Fast(Non-Reasoning)は、xAIの高スループット・低コストのマルチモーダルモデルで(2Mの文脈ウィンドウに対応)、遅延とコストに敏感だがモデル内推論を必要としないシナリオ向けです。Grok 4 Fastの推論版と並列で提供され、APIのreasoning enableパラメータで推論機能を有効化できます。プロンプトと補完は、xAIまたはOpenRouterによって将来のモデル改善に使用される可能性があります。"
|
|
3517
|
+
},
|
|
3518
|
+
"x-ai/grok-4.1-fast": {
|
|
3519
|
+
"description": "Grok 4.1 Fastは、xAIの高スループット・低コストモデルで(2Mの文脈ウィンドウに対応)、高並列性と長文脈が求められるシナリオに適しています。"
|
|
3520
|
+
},
|
|
3521
|
+
"x-ai/grok-4.1-fast-non-reasoning": {
|
|
3522
|
+
"description": "Grok 4.1 Fast(Non-Reasoning)は、xAIの高スループット・低コストのマルチモーダルモデルで(2Mの文脈ウィンドウに対応)、遅延とコストに敏感だがモデル内推論を必要としないシナリオ向けです。Grok 4 Fastの推論版と並列で提供され、APIのreasoning enableパラメータで推論機能を有効化できます。プロンプトと補完は、xAIまたはOpenRouterによって将来のモデル改善に使用される可能性があります。"
|
|
3523
|
+
},
|
|
3524
|
+
"x-ai/grok-code-fast-1": {
|
|
3525
|
+
"description": "Grok Code Fast 1は、xAIの高速コードモデルで、可読性とエンジニアリング適合性の高い出力を提供します。"
|
|
3526
|
+
},
|
|
3443
3527
|
"x1": {
|
|
3444
3528
|
"description": "Spark X1 モデルはさらにアップグレードされ、元の数学タスクで国内のリーダーシップを維持しつつ、推論、テキスト生成、言語理解などの一般的なタスクで OpenAI o1 および DeepSeek R1 に匹敵する効果を実現します。"
|
|
3445
3529
|
},
|
|
@@ -3500,7 +3584,15 @@
|
|
|
3500
3584
|
"yi-vision-v2": {
|
|
3501
3585
|
"description": "複雑な視覚タスクモデルで、複数の画像に基づく高性能な理解と分析能力を提供します。"
|
|
3502
3586
|
},
|
|
3503
|
-
"z-ai/glm-4.
|
|
3587
|
+
"z-ai/glm-4.5": {
|
|
3588
|
+
"description": "GLM 4.5は、Z.AIのフラッグシップモデルで、ハイブリッド推論モードをサポートし、エンジニアリングや長文脈タスクに最適化されています。"
|
|
3589
|
+
},
|
|
3590
|
+
"z-ai/glm-4.5-air": {
|
|
3591
|
+
"description": "GLM 4.5 Airは、GLM 4.5の軽量版で、コストに敏感なシナリオに適しつつ、強力な推論能力を保持しています。"
|
|
3592
|
+
},
|
|
3593
|
+
"z-ai/glm-4.6": {
|
|
3594
|
+
"description": "GLM 4.6は、Z.AIのフラッグシップモデルで、文脈長とコーディング能力が拡張されています。"
|
|
3595
|
+
},
|
|
3504
3596
|
"zai-org/GLM-4.5": {
|
|
3505
3597
|
"description": "GLM-4.5はエージェントアプリケーション向けに設計された基盤モデルで、混合専門家(Mixture-of-Experts)アーキテクチャを採用。ツール呼び出し、ウェブブラウジング、ソフトウェア工学、フロントエンドプログラミング分野で深く最適化され、Claude CodeやRoo Codeなどのコードエージェントへのシームレスな統合をサポートします。混合推論モードを採用し、複雑な推論や日常利用など多様なシナリオに適応可能です。"
|
|
3506
3598
|
},
|
|
@@ -3521,5 +3613,8 @@
|
|
|
3521
3613
|
},
|
|
3522
3614
|
"zai/glm-4.5v": {
|
|
3523
3615
|
"description": "GLM-4.5V は GLM-4.5-Air 基盤モデルに基づき、GLM-4.1V-Thinking の検証済み技術を継承しつつ、強力な1060億パラメータの MoE アーキテクチャで効率的にスケールアップしています。"
|
|
3616
|
+
},
|
|
3617
|
+
"zenmux/auto": {
|
|
3618
|
+
"description": "ZenMuxの自動ルーティング機能は、リクエスト内容に応じて、対応するモデルの中から最もコストパフォーマンスが高く、性能の良いモデルを自動的に選択します。"
|
|
3524
3619
|
}
|
|
3525
3620
|
}
|