@lobehub/lobehub 2.1.3 → 2.1.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.env.example +0 -3
- package/.env.example.development +0 -3
- package/CHANGELOG.md +34 -0
- package/changelog/v2.json +9 -0
- package/docker-compose/deploy/.env.example +3 -1
- package/docker-compose/deploy/.env.zh-CN.example +4 -1
- package/docker-compose/local/.env.example +0 -1
- package/docker-compose/local/.env.zh-CN.example +0 -1
- package/docker-compose/local/grafana/.env.example +0 -1
- package/docker-compose/local/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/local/logto/docker-compose.yml +0 -1
- package/docker-compose/local/zitadel/.env.example +1 -2
- package/docker-compose/local/zitadel/.env.zh-CN.example +1 -2
- package/docker-compose/production/grafana/.env.example +0 -1
- package/docker-compose/production/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/production/logto/.env.example +0 -2
- package/docker-compose/production/logto/.env.zh-CN.example +0 -2
- package/docker-compose/production/zitadel/.env.example +0 -2
- package/docker-compose/production/zitadel/.env.zh-CN.example +0 -2
- package/docker-compose/setup.sh +16 -2
- package/docs/development/basic/folder-structure.mdx +23 -14
- package/docs/development/basic/folder-structure.zh-CN.mdx +23 -14
- package/docs/development/basic/work-with-server-side-database.mdx +0 -1
- package/docs/development/basic/work-with-server-side-database.zh-CN.mdx +0 -1
- package/docs/development/start.mdx +19 -12
- package/docs/development/start.zh-CN.mdx +19 -12
- package/docs/self-hosting/advanced/s3/cloudflare-r2.mdx +0 -5
- package/docs/self-hosting/advanced/s3/cloudflare-r2.zh-CN.mdx +0 -5
- package/docs/self-hosting/advanced/s3/rustfs.mdx +0 -2
- package/docs/self-hosting/advanced/s3/rustfs.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3/tencent-cloud.mdx +0 -1
- package/docs/self-hosting/advanced/s3/tencent-cloud.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3.mdx +0 -9
- package/docs/self-hosting/advanced/s3.zh-CN.mdx +0 -8
- package/docs/self-hosting/environment-variables/s3.mdx +0 -7
- package/docs/self-hosting/environment-variables/s3.zh-CN.mdx +0 -7
- package/docs/self-hosting/platform/docker-compose.mdx +0 -1
- package/docs/self-hosting/platform/docker-compose.zh-CN.mdx +0 -1
- package/docs/self-hosting/platform/docker.mdx +5 -3
- package/docs/self-hosting/platform/docker.zh-CN.mdx +5 -4
- package/docs/self-hosting/platform/dokploy.mdx +0 -2
- package/docs/self-hosting/platform/dokploy.zh-CN.mdx +0 -2
- package/docs/self-hosting/platform/vercel.mdx +0 -7
- package/docs/self-hosting/platform/vercel.zh-CN.mdx +0 -7
- package/e2e/src/steps/home/sidebarAgent.steps.ts +56 -24
- package/locales/ar/authError.json +1 -0
- package/locales/ar/models.json +25 -22
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +16 -0
- package/locales/bg-BG/authError.json +1 -0
- package/locales/bg-BG/models.json +18 -21
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +16 -0
- package/locales/de-DE/authError.json +1 -0
- package/locales/de-DE/models.json +20 -20
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +16 -0
- package/locales/en-US/models.json +22 -22
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/authError.json +1 -0
- package/locales/es-ES/models.json +84 -20
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +16 -0
- package/locales/fa-IR/authError.json +1 -0
- package/locales/fa-IR/models.json +43 -20
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +16 -0
- package/locales/fr-FR/authError.json +1 -0
- package/locales/fr-FR/models.json +19 -21
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +16 -0
- package/locales/it-IT/authError.json +1 -0
- package/locales/it-IT/models.json +17 -19
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +16 -0
- package/locales/ja-JP/authError.json +1 -0
- package/locales/ja-JP/models.json +43 -22
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +16 -0
- package/locales/ko-KR/authError.json +1 -0
- package/locales/ko-KR/models.json +41 -20
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +16 -0
- package/locales/nl-NL/authError.json +1 -0
- package/locales/nl-NL/models.json +48 -20
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +16 -0
- package/locales/pl-PL/authError.json +1 -0
- package/locales/pl-PL/models.json +19 -22
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +16 -0
- package/locales/pt-BR/authError.json +1 -0
- package/locales/pt-BR/models.json +21 -21
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +16 -0
- package/locales/ru-RU/authError.json +1 -0
- package/locales/ru-RU/models.json +23 -20
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +16 -0
- package/locales/tr-TR/authError.json +1 -0
- package/locales/tr-TR/models.json +37 -20
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +16 -0
- package/locales/vi-VN/authError.json +1 -0
- package/locales/vi-VN/models.json +15 -19
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +16 -0
- package/locales/zh-CN/models.json +20 -20
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/authError.json +1 -0
- package/locales/zh-TW/models.json +20 -20
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +16 -0
- package/package.json +1 -1
- package/packages/model-bank/src/aiModels/google.ts +0 -19
- package/packages/model-bank/src/aiModels/moonshot.ts +56 -5
- package/packages/model-bank/src/aiModels/ollamacloud.ts +14 -0
- package/packages/model-bank/src/aiModels/openrouter.ts +0 -14
- package/packages/model-bank/src/aiModels/qwen.ts +105 -4
- package/packages/model-bank/src/aiModels/siliconcloud.ts +39 -0
- package/packages/model-bank/src/aiModels/wenxin.ts +0 -99
- package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +24 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.ts +22 -5
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +10 -3
- package/packages/model-runtime/src/core/streams/google/google-ai.test.ts +54 -13
- package/packages/model-runtime/src/core/streams/google/index.ts +1 -4
- package/packages/model-runtime/src/providers/moonshot/index.ts +24 -2
- package/packages/model-runtime/src/providers/qwen/index.ts +16 -15
- package/src/server/routers/lambda/__tests__/integration/aiAgent/execAgent.integration.test.ts +3 -2
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "مدلی با ۷ میلیارد پارامتر و کیفیت بالاتر نسبت به Phi-3-mini، متمرکز بر دادههای با کیفیت و نیازمند استدلال.",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "نسخه بهروزشده مدل Phi-3-mini.",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "نسخه بهروزشده مدل Phi-3-vision.",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 یک مدل زبان بزرگ متنباز است که برای قابلیتهای عامل بهینهسازی شده و در برنامهنویسی، استفاده از ابزارها، پیروی از دستورالعملها و برنامهریزی بلندمدت عملکرد برجستهای دارد. این مدل از توسعه نرمافزار چندزبانه و اجرای جریانهای کاری پیچیده چندمرحلهای پشتیبانی میکند و با کسب امتیاز ۷۴.۰ در SWE-bench Verified، در سناریوهای چندزبانه از Claude Sonnet 4.5 پیشی گرفته است.",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct یک مدل LLM با ۷ میلیارد پارامتر در سری Qwen2 است که با معماری ترنسفورمر، SwiGLU، بایاس QKV توجه و توجه گروهی طراحی شده و ورودیهای بزرگ را مدیریت میکند. این مدل در درک زبان، تولید، وظایف چندزبانه، کدنویسی، ریاضی و استدلال عملکرد قوی دارد و از بسیاری از مدلهای باز پیشی میگیرد و با مدلهای اختصاصی رقابت میکند. در چندین معیار از Qwen1.5-7B-Chat بهتر عمل میکند.",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct بخشی از جدیدترین سری LLM علیبابا کلود است. این مدل ۷ میلیاردی پیشرفتهای قابل توجهی در کدنویسی و ریاضی دارد، از بیش از ۲۹ زبان پشتیبانی میکند و در پیروی از دستورالعملها، درک دادههای ساختاریافته و تولید خروجی ساختاریافته (بهویژه JSON) بهبود یافته است.",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct جدیدترین مدل LLM متمرکز بر کد از علیبابا کلود است. بر پایه Qwen2.5 ساخته شده و با ۵.۵ تریلیون توکن آموزش دیده، تولید کد، استدلال و اصلاح را بهطور قابل توجهی بهبود میبخشد و در عین حال تواناییهای ریاضی و عمومی را حفظ میکند، و پایهای قوی برای عاملهای کدنویسی فراهم میکند.",
|
|
@@ -271,20 +272,20 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
272
273
|
"claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
273
274
|
"claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارتهای مختلف بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگتر قبلی، Claude 3 Opus، پیشی گرفته است.",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخهای سریع برای وظایف سبک ارائه میدهد.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل میتواند پاسخهای تقریباً فوری یا استدلال گامبهگام قابل مشاهده تولید کند. Sonnet بهویژه در برنامهنویسی، علم داده، بینایی و وظایف عامل قوی است.",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای پاسخهای تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار میکند و با هزینه کمتر، بهرهوری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه میدهد.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت بالا و توانایی استدلال پیشرفته ارائه میشود.",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که میتواند فرآیند استدلال خود را آشکار کند.",
|
|
283
|
-
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک
|
|
284
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
|
|
285
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب عملکردی ممتاز دارد.",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برجسته را با عملکرد مقیاسپذیر ترکیب میکند و برای وظایف پیچیدهای که نیاز به پاسخهای باکیفیت و استدلال دارند، ایدهآل است.",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام طولانی با فرآیند قابل مشاهده تولید کند.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام با فرآیند قابل مشاهده تولید کند.",
|
|
288
289
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامهنویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی میکند تا بهرهوری توسعهدهندگان را افزایش دهد.",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی میکند و طیف گستردهای از سناریوهای توسعه نرمافزار را پوشش میدهد. این مدل یکی از بهترین مدلهای کد زیر ۱۰ میلیارد پارامتر است.",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp نسخه آزمایشی V3.2 است که به معماری بعدی پل میزند. این مدل با افزودن DeepSeek Sparse Attention (DSA) بر پایه V3.1-Terminus، کارایی آموزش و استنتاج در زمینههای طولانی را بهبود میبخشد و برای استفاده از ابزارها، درک اسناد طولانی و استدلال چندمرحلهای بهینه شده است. این مدل برای بررسی بهرهوری بالاتر در استدلال با بودجه متنی بزرگ ایدهآل است.",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که از MLA و DeepSeekMoE با تعادل بار بدون اتلاف برای آموزش و استنتاج کارآمد استفاده میکند. این مدل با استفاده از ۱۴.۸ تریلیون توکن با کیفیت بالا و آموزش با SFT و RL، از سایر مدلهای متنباز پیشی گرفته و به مدلهای بسته پیشرو نزدیک شده است.",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه با درک عمیق زبان و تعامل است.",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "یک مدل LLM کارآمد و پیشرفته با توانایی بالا در استدلال، ریاضی و برنامهنویسی.",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعالسازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قویای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایهگذاری بصری عملکرد درخشانی دارد.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "مدلی متنباز و جدید که تواناییهای عمومی و کدنویسی را ترکیب میکند. این مدل گفتوگوی عمومی مدل چت و قدرت کدنویسی مدل برنامهنویس را حفظ کرده و با همراستایی ترجیحی بهتر ارائه میشود. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعملها بهبود یافته است.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامهنویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم میکند.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخدهی سریعتر ترکیب میکند.",
|
|
379
379
|
"deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قویتری را ارائه میدهد.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از دادههای شروع سرد استفاده میکند و در وظایف ریاضی، کدنویسی و استدلال عملکردی همسطح با OpenAI-o1 دارد.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از پاسخ نهایی زنجیرهای از افکار را تولید میکند تا دقت را افزایش دهد.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرونبهصرفه را امکانپذیر میسازد.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامهنویسی، تواناییهای فنی، درک زمینه و پردازش متون بلند عملکرد برجستهای دارد.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوقسبک برای پرسشوپاسخ ساده، طبقهبندی و استنتاج کمهزینه است.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفتوگوی چندمرحلهای است.",
|
|
474
474
|
"ernie-x1.1-preview.description": "پیشنمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساختهشده توسط تیم Seed شرکت ByteDance، از ورودیهای متنی و تصویری برای تولید تصاویر با کیفیت بالا و کنترلپذیری بالا از طریق دستورات پشتیبانی میکند.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودیهای متنی و تصویری پشتیبانی میکند و تولید تصاویر با کیفیت بالا و قابل کنترل را ممکن میسازد. این مدل تصاویر را از دستورات متنی تولید میکند.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودیهای متنی و تصویری پشتیبانی میکند.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودیهای متنی و تصاویر مرجع را میپذیرد و امکان ویرایشهای محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم میکند.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیباییشناسی به تصاویر طبیعی و واقعگرایانهتر است.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم میکند.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفهای از تیم Qwen که از
|
|
485
|
-
"fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفهای از تیم Qwen که از ویرایشهای معنایی و ظاهری پشتیبانی میکند، متون چینی و انگلیسی را با دقت ویرایش میکند و ویرایشهای با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن میسازد.",
|
|
484
|
+
"fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متون چینی و سبکهای بصری متنوع.",
|
|
486
485
|
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده میکند. این مدل با جایگزینهای بسته رقابت میکند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزنهای باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفهای و پیروی از دستورالعمل را حفظ میکند و در عین حال کارآمدتر اجرا میشود و منابع را بهتر از مدلهای استاندارد همسایز استفاده میکند.",
|
|
488
487
|
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "یک نسخه بهینهشده Gemini 2.0 Flash برای بهرهوری هزینه و تأخیر کم.",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "یک نسخه بهینهشده Gemini 2.0 Flash برای بهرهوری هزینه و تأخیر کم.",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash ویژگیهای نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه میدهد.",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمهمحور را ممکن میسازد.",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمهمحور را ممکن میسازد.",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمهای را ممکن میسازد.",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمهای را ممکن میسازد.",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "نسخه پیشنمایش Gemini 2.5 Flash-Lite کوچکترین و مقرونبهصرفهترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.",
|
|
@@ -530,7 +527,7 @@
|
|
|
530
527
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro پرچمدار مدلهای استدلالی گوگل است که از زمینههای طولانی برای انجام وظایف پیچیده پشتیبانی میکند.",
|
|
531
528
|
"gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحیشده برای سرعت است که هوش پیشرفته را با قابلیت جستوجوی دقیق ترکیب میکند.",
|
|
532
529
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتوگوی چندوجهی نیز پشتیبانی میکند.",
|
|
533
|
-
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از
|
|
530
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از چت چندوجهی نیز پشتیبانی میکند.",
|
|
534
531
|
"gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنیتر و تعامل عمیقتری را بر پایه استدلال پیشرفته ارائه میدهد.",
|
|
535
532
|
"gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash",
|
|
536
533
|
"gemini-flash-lite-latest.description": "آخرین نسخه منتشرشده از Gemini Flash-Lite",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max کاملترین نسخه است که از جستجوی وب و افزونههای داخلی متعددی پشتیبانی میکند. قابلیتهای اصلی آن بهینهسازی شدهاند و نقشهای سیستمی و فراخوانی توابع عملکردی عالی در سناریوهای پیچیده ارائه میدهند.",
|
|
544
541
|
"generalv3.description": "Spark Pro یک مدل LLM با عملکرد بالا است که برای حوزههای حرفهای بهینهسازی شده و بر ریاضی، برنامهنویسی، سلامت و آموزش تمرکز دارد. این مدل از جستجوی وب و افزونههای داخلی مانند آبوهوا و تاریخ پشتیبانی میکند و در پرسشوپاسخ دانش پیچیده، درک زبان و تولید متن پیشرفته عملکرد قوی و کارآمدی دارد و گزینهای ایدهآل برای کاربردهای حرفهای است.",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع با عملکرد عالی طراحی شده است.",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7 جدیدترین مدل پرچمدار Zhipu AI است. این مدل تواناییهای برنامهنویسی، برنامهریزی بلندمدت وظایف و همکاری با ابزارها را برای سناریوهای Agentic Coding بهبود میبخشد و در چندین معیار عمومی عملکردی پیشرو در میان مدلهای متنباز دارد. پاسخها طبیعیتر و نوشتار غنیتر شدهاند. در وظایف پیچیده عامل، پیروی از دستورالعملها در هنگام استفاده از ابزارها قویتر است و زیباییشناسی رابط و کارایی انجام وظایف بلندمدت نیز بهبود یافته است.",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat در حوزههای معناشناسی، ریاضی، استدلال، کدنویسی و دانش عملکرد قوی دارد. همچنین از مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی و استدلال متنهای طولانی پشتیبانی میکند و از ۲۶ زبان از جمله ژاپنی، کرهای و آلمانی پشتیبانی میکند.",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air گزینهای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air گزینهای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking قویترین مدل VLM شناختهشده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفتهای مانند درک ویدیو، پرسشوپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عاملهای رابط کاربری، کدنویسی فرانتاند و اتصال به واقعیت را پوشش میدهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگتر است در بسیاری از وظایف پیشی میگیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیرهای برای بهبود دقت و غنای پاسخها بهره میبرد و در نتایج و قابلیت توضیحپذیری از مدلهای سنتی بدون تفکر بهتر عمل میکند.",
|
|
559
556
|
"glm-4.5-air.description": "نسخه سبک GLM-4.5 که بین عملکرد و هزینه تعادل برقرار میکند و از حالتهای تفکر ترکیبی انعطافپذیر پشتیبانی میکند.",
|
|
560
557
|
"glm-4.5-airx.description": "نسخه سریع GLM-4.5-Air با پاسخدهی سریعتر برای استفاده در مقیاس بالا و سرعت بالا.",
|
|
561
|
-
"glm-4.5-flash.description": "نسخه رایگان GLM-4.5 با عملکرد قوی در استدلال، برنامهنویسی و وظایف عاملها.",
|
|
562
558
|
"glm-4.5-x.description": "نسخه سریع GLM-4.5 با عملکرد قوی و سرعت تولید تا ۱۰۰ توکن در ثانیه.",
|
|
563
559
|
"glm-4.5.description": "مدل پرچمدار Zhipu با حالت تفکر قابل تغییر، ارائهدهنده بهترین عملکرد متنباز و پشتیبانی از زمینه تا ۱۲۸ هزار توکن.",
|
|
564
560
|
"glm-4.5v.description": "مدل نسل بعدی بینایی و استدلال Zhipu با معماری MoE، دارای ۱۰۶ میلیارد پارامتر کل و ۱۲ میلیارد فعال، که در میان مدلهای چندوجهی متنباز همرده خود درک تصویر، ویدیو، اسناد و رابطهای گرافیکی را به سطح SOTA میرساند.",
|
|
565
561
|
"glm-4.6.description": "مدل پرچمدار جدید Zhipu با نام GLM-4.6 (۳۵۵ میلیارد پارامتر) در زمینههای برنامهنویسی پیشرفته، پردازش متون بلند، استدلال و تواناییهای عامل از نسخههای قبلی خود فراتر رفته است. این مدل بهویژه در توانایی برنامهنویسی با Claude Sonnet 4 همتراز است و به عنوان برترین مدل برنامهنویسی در چین شناخته میشود.",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flash بهعنوان یک مدل سطح ۳۰ میلیاردی SOTA، گزینهای جدید برای تعادل بین عملکرد و کارایی ارائه میدهد. این مدل تواناییهای برنامهنویسی، برنامهریزی بلندمدت وظایف و همکاری با ابزارها را برای سناریوهای Agentic Coding بهبود میبخشد و در معیارهای فعلی در میان مدلهای متنباز همرده عملکردی پیشرو دارد.",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flash بهعنوان یک مدل سطح ۳۰ میلیاردی SOTA، گزینهای جدید برای تعادل بین عملکرد و کارایی ارائه میدهد. این مدل تواناییهای برنامهنویسی، برنامهریزی بلندمدت وظایف و همکاری با ابزارها را برای سناریوهای Agentic Coding بهبود میبخشد و در معیارهای فعلی در میان مدلهای متنباز همرده عملکردی پیشرو دارد.",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7 جدیدترین مدل پرچمدار Zhipu است که برای سناریوهای برنامهنویسی عاملمحور بهینهسازی شده و دارای تواناییهای برنامهنویسی پیشرفتهتر، برنامهریزی وظایف بلندمدت و همکاری با ابزارها است. این مدل در چندین معیار عمومی عملکردی پیشرو در میان مدلهای متنباز دارد. تواناییهای عمومی آن با پاسخهای طبیعیتر و مختصرتر و نوشتاری جذابتر بهبود یافته است. در وظایف پیچیده عاملمحور، پیروی از دستورالعملها هنگام استفاده از ابزارها قویتر شده و زیبایی ظاهری رابط کاربری و کارایی انجام وظایف بلندمدت در Artifacts و برنامهنویسی عاملمحور ارتقا یافته است.",
|
|
567
565
|
"glm-4.description": "GLM-4 پرچمدار قدیمی است که در ژانویه ۲۰۲۴ منتشر شد و اکنون با GLM-4-0520 قویتر جایگزین شده است.",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash بر درک کارآمد تصویر تکی تمرکز دارد و برای سناریوهای تحلیلی سریع مانند پردازش تصویر بلادرنگ یا دستهای مناسب است.",
|
|
@@ -654,8 +652,8 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: نسخه کوچکتر و کمهزینهتر Codex بهینهشده برای وظایف برنامهنویسی عاملمحور.",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex: نسخهای از GPT-5.1 بهینهشده برای وظایف برنامهنویسی عاملمحور، مناسب برای گردشکارهای پیچیده کد/عامل در API پاسخها.",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 — یک مدل پرچمدار بهینهشده برای برنامهنویسی و وظایف عامل با تلاش استدلال قابل تنظیم و زمینه طولانیتر.",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat نسخه ChatGPT
|
|
658
|
-
"gpt-5.2-pro.description": "GPT-5.2 Pro: نسخهای هوشمندتر و دقیقتر از GPT-5.2 (فقط
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat نسخه ChatGPT برای تجربه آخرین بهبودهای مکالمهای است.",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro: نسخهای هوشمندتر و دقیقتر از GPT-5.2 (فقط از طریق API پاسخها)، مناسب برای مسائل دشوار و استدلال چندمرحلهای طولانی.",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2 یک مدل پرچمدار برای گردشکارهای برنامهنویسی و عاملمحور با استدلال قویتر و عملکرد بهتر در زمینههای طولانی است.",
|
|
660
658
|
"gpt-5.description": "بهترین مدل برای برنامهنویسی میانرشتهای و وظایف عامل. GPT-5 جهشی در دقت، سرعت، استدلال، آگاهی زمینهای، تفکر ساختاریافته و حل مسئله دارد.",
|
|
661
659
|
"gpt-audio.description": "GPT Audio یک مدل چت عمومی برای ورودی/خروجی صوتی است که در API تکمیل چت پشتیبانی میشود.",
|
|
@@ -966,6 +964,9 @@
|
|
|
966
964
|
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini نسخهای کوچکتر و سریعتر از GPT-5.1-Codex است که برای سناریوهای کدنویسی حساس به تأخیر و هزینه مناسبتر است.",
|
|
967
965
|
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex نسخهای از GPT-5.1 است که برای مهندسی نرمافزار و جریانهای کاری کدنویسی بهینه شده و برای بازسازیهای بزرگ، اشکالزدایی پیچیده و وظایف خودکار طولانی مناسب است.",
|
|
968
966
|
"openai/gpt-5.1.description": "GPT-5.1 جدیدترین مدل پرچمدار در سری GPT-5 است که بهبودهای قابلتوجهی در استدلال عمومی، پیروی از دستورالعمل و طبیعی بودن مکالمه نسبت به GPT-5 دارد و برای وظایف گسترده مناسب است.",
|
|
967
|
+
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat نسخه ChatGPT برای تجربه بهبودهای جدید مکالمهای است.",
|
|
968
|
+
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: نسخهای هوشمندتر و دقیقتر از GPT-5.2 (فقط از طریق API پاسخها)، مناسب برای مسائل دشوار و استدلال چندمرحلهای طولانی.",
|
|
969
|
+
"openai/gpt-5.2.description": "GPT-5.2 یک مدل پرچمدار برای برنامهنویسی و جریانهای کاری عاملمحور با استدلال قویتر و عملکرد بهتر در زمینههای طولانی است.",
|
|
969
970
|
"openai/gpt-5.description": "GPT-5 مدل قدرتمند OpenAI برای طیف وسیعی از وظایف تولیدی و پژوهشی است.",
|
|
970
971
|
"openai/gpt-oss-120b.description": "یک مدل زبانی بزرگ چندمنظوره با قابلیت استدلال قوی و قابلکنترل.",
|
|
971
972
|
"openai/gpt-oss-20b.description": "مدلی جمعوجور با وزنهای باز که برای تأخیر پایین و محیطهای با منابع محدود، از جمله اجراهای محلی و لبهای بهینه شده است.",
|
|
@@ -1139,6 +1140,28 @@
|
|
|
1139
1140
|
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 از نقطه بازیابی v1.2 آغاز شده و به مدت ۵۹۵ هزار مرحله روی مجموعه «laion-aesthetics v2 5+» با وضوح ۵۱۲x۵۱۲ آموزش دیده است. با کاهش ۱۰٪ در شرطبندی متنی، نمونهگیری بدون طبقهبندی را بهبود میبخشد.",
|
|
1140
1141
|
"stable-diffusion-xl-base-1.0.description": "یک مدل متنباز تبدیل متن به تصویر از Stability AI با قابلیتهای خلاقانه پیشرو در صنعت. درک قوی از دستورالعملها دارد و از تعریف معکوس دستورات برای تولید دقیق پشتیبانی میکند.",
|
|
1141
1142
|
"stable-diffusion-xl.description": "stable-diffusion-xl بهبودهای عمدهای نسبت به نسخه v1.5 دارد و با بهترین نتایج متنباز تبدیل متن به تصویر برابری میکند. بهبودها شامل ستون فقرات UNet سه برابر بزرگتر، ماژول پالایش برای کیفیت بهتر تصویر و تکنیکهای آموزشی کارآمدتر است.",
|
|
1143
|
+
"step-1-128k.description": "تعادل بین عملکرد و هزینه برای سناریوهای عمومی.",
|
|
1144
|
+
"step-1-256k.description": "پشتیبانی از زمینههای بسیار طولانی، ایدهآل برای تحلیل اسناد بلند.",
|
|
1145
|
+
"step-1-32k.description": "پشتیبانی از مکالمات با طول متوسط برای طیف گستردهای از کاربردها.",
|
|
1146
|
+
"step-1-8k.description": "مدلی کوچک مناسب برای وظایف سبک.",
|
|
1147
|
+
"step-1-flash.description": "مدلی پرسرعت مناسب برای چت بلادرنگ.",
|
|
1148
|
+
"step-1.5v-mini.description": "توانایی قوی در درک ویدیو.",
|
|
1149
|
+
"step-1o-turbo-vision.description": "درک قوی تصویر، عملکرد بهتر از 1o در ریاضی و کدنویسی. کوچکتر از 1o با خروجی سریعتر.",
|
|
1150
|
+
"step-1o-vision-32k.description": "درک قوی تصویر با عملکرد بصری بهتر نسبت به سری Step-1V.",
|
|
1151
|
+
"step-1v-32k.description": "پشتیبانی از ورودیهای تصویری برای تعامل چندوجهی غنیتر.",
|
|
1152
|
+
"step-1v-8k.description": "مدل تصویری کوچک برای وظایف پایه تصویر و متن.",
|
|
1153
|
+
"step-1x-edit.description": "این مدل بر ویرایش تصویر تمرکز دارد و تصاویر را بر اساس ورودیهای کاربر شامل متن و تصویر تغییر و بهبود میدهد. از فرمتهای ورودی مختلف پشتیبانی میکند و ویرایشهایی مطابق با هدف کاربر تولید میکند.",
|
|
1154
|
+
"step-1x-medium.description": "این مدل تولید تصویر قوی با ورودی دستورات متنی ارائه میدهد. با پشتیبانی بومی از زبان چینی، توصیفهای چینی را بهتر درک کرده و به ویژگیهای بصری دقیقتری تبدیل میکند. تصاویر با کیفیت بالا و وضوح بالا تولید میکند و از انتقال سبک نیز پشتیبانی میکند.",
|
|
1155
|
+
"step-2-16k-exp.description": "نسخه آزمایشی Step-2 با ویژگیهای جدید و بهروزرسانیهای پیوسته. برای استفاده در تولید توصیه نمیشود.",
|
|
1156
|
+
"step-2-16k.description": "پشتیبانی از تعاملات با زمینه بزرگ برای گفتوگوهای پیچیده.",
|
|
1157
|
+
"step-2-mini.description": "ساختهشده بر پایه معماری توجه MFA نسل بعدی داخلی، با نتایجی مشابه Step-1 اما با هزینه کمتر، توان عملیاتی بالاتر و تأخیر کمتر. وظایف عمومی را با توانایی قوی در کدنویسی انجام میدهد.",
|
|
1158
|
+
"step-2x-large.description": "مدل تصویری نسل جدید StepFun با تمرکز بر تولید تصویر، تولید تصاویر با کیفیت بالا از دستورات متنی. بافت واقعیتر و رندر بهتر متون چینی/انگلیسی ارائه میدهد.",
|
|
1159
|
+
"step-3.description": "این مدل دارای درک بصری قوی و استدلال پیچیده است و درک دانش میانرشتهای، تحلیل ریاضی-تصویری و طیف گستردهای از وظایف تحلیل بصری روزمره را با دقت انجام میدهد.",
|
|
1160
|
+
"step-r1-v-mini.description": "مدل استدلال با درک قوی تصویر که میتواند تصاویر و متون را پردازش کرده و پس از استدلال عمیق، متن تولید کند. در استدلال بصری، ریاضی، کدنویسی و استدلال متنی عملکردی در سطح بالا دارد و از پنجره زمینه ۱۰۰ هزار توکن پشتیبانی میکند.",
|
|
1161
|
+
"stepfun-ai/step3.description": "Step3 یک مدل استدلال چندوجهی پیشرفته از StepFun است که بر پایه معماری MoE با ۳۲۱ میلیارد پارامتر کل و ۳۸ میلیارد فعال ساخته شده است. طراحی انتها به انتها هزینه رمزگشایی را کاهش داده و استدلال زبان-تصویر سطح بالا را ارائه میدهد. با طراحی MFA و AFD، در شتابدهندههای پرچمدار و سطح پایین کارآمد باقی میماند. پیشآموزش با بیش از ۲۰ تریلیون توکن متنی و ۴ تریلیون توکن تصویر-متن در زبانهای مختلف انجام شده و در معیارهای ریاضی، کدنویسی و چندوجهی عملکردی پیشرو دارد.",
|
|
1162
|
+
"taichu_llm.description": "آموزشدیده بر دادههای باکیفیت عظیم، با درک متنی قویتر، تولید محتوا و پرسشوپاسخ مکالمهای.",
|
|
1163
|
+
"taichu_o1.description": "taichu_o1 یک مدل استدلال نسل جدید است که با تعامل چندوجهی و یادگیری تقویتی، زنجیره تفکر انسانیمانند را ایجاد میکند، از شبیهسازی تصمیمگیری پیچیده پشتیبانی کرده و مسیرهای استدلال را در عین حفظ دقت بالا نمایش میدهد. مناسب برای تحلیل استراتژی و تفکر عمیق.",
|
|
1164
|
+
"taichu_vl.description": "ترکیبی از درک تصویر، انتقال دانش و استنتاج منطقی، با عملکرد عالی در پرسشوپاسخ تصویر-متن.",
|
|
1142
1165
|
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct با استفاده از ۸۰ میلیارد پارامتر کلی و ۱۳ میلیارد پارامتر فعال، عملکردی همتراز با مدلهای بزرگتر ارائه میدهد. این مدل از استدلال ترکیبی سریع/کند، درک پایدار متون بلند و توانایی پیشرو در عاملها در آزمونهای BFCL-v3 و τ-Bench پشتیبانی میکند. فرمتهای GQA و چندکوانتیزهسازی، استنتاج کارآمد را ممکن میسازند.",
|
|
1143
1166
|
"tencent/Hunyuan-MT-7B.description": "مدل ترجمه Hunyuan شامل Hunyuan-MT-7B و مدل ترکیبی Hunyuan-MT-Chimera است. Hunyuan-MT-7B یک مدل ترجمه سبک با ۷ میلیارد پارامتر است که از ۳۳ زبان بهعلاوه ۵ زبان اقلیت چینی پشتیبانی میکند. در رقابت WMT25، در ۳۰ جفتزبان از ۳۱ مورد، رتبه اول را کسب کرد. Hunyuan از یک زنجیره کامل آموزش شامل پیشآموزش، SFT، تقویت یادگیری ترجمه و تقویت یادگیری ترکیبی استفاده میکند و با عملکردی پیشرو در اندازه خود، بهراحتی قابل استقرار است.",
|
|
1144
1167
|
"text-embedding-3-large.description": "قویترین مدل تعبیهسازی برای وظایف انگلیسی و غیرانگلیسی.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "یک سازمان متنباز متمرکز بر تحقیقات مدلهای بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه میدهد تا مدلها و الگوریتمهای پیشرفته را در دسترس قرار دهد.",
|
|
30
30
|
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدلهای برداری، رتبهبندها و مدلهای زبانی کوچک برای ساخت اپلیکیشنهای جستجوی مولد و چندوجهی با کیفیت بالا است.",
|
|
31
31
|
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدلهای زبانی بزرگ روی رایانه شخصی شماست.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud از رابطهای برنامهنویسی رسمی برای دسترسی به مدلهای هوش مصنوعی استفاده میکند و مصرف را با اعتباراتی که به توکنهای مدل وابستهاند، اندازهگیری میکند.",
|
|
33
32
|
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدلهای پایه چندوجهی از جمله مدلهای متنی با پارامترهای تریلیونی، مدلهای گفتاری و تصویری توسعه میدهد و اپهایی مانند Hailuo AI را ارائه میکند.",
|
|
34
33
|
"mistral.description": "Mistral مدلهای عمومی، تخصصی و تحقیقاتی پیشرفتهای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه میدهد و از فراخوانی توابع برای یکپارچهسازی سفارشی پشتیبانی میکند.",
|
|
35
34
|
"modelscope.description": "ModelScope پلتفرم مدل بهعنوانسرویس Alibaba Cloud است که مجموعهای گسترده از مدلهای هوش مصنوعی و خدمات استنتاج را ارائه میدهد.",
|
|
@@ -34,11 +34,20 @@
|
|
|
34
34
|
"agentCronJobs.empty.description": "اولین وظیفه زمانبندیشده خود را برای خودکارسازی عامل ایجاد کنید",
|
|
35
35
|
"agentCronJobs.empty.title": "هنوز وظیفه زمانبندیشدهای وجود ندارد",
|
|
36
36
|
"agentCronJobs.enable": "فعال کردن",
|
|
37
|
+
"agentCronJobs.form.at": "در",
|
|
37
38
|
"agentCronJobs.form.content.placeholder": "دستور یا راهنمایی برای عامل وارد کنید",
|
|
39
|
+
"agentCronJobs.form.every": "هر",
|
|
40
|
+
"agentCronJobs.form.frequency": "تناوب",
|
|
41
|
+
"agentCronJobs.form.hours": "ساعت",
|
|
42
|
+
"agentCronJobs.form.maxExecutions": "توقف پس از",
|
|
38
43
|
"agentCronJobs.form.maxExecutions.placeholder": "برای نامحدود خالی بگذارید",
|
|
39
44
|
"agentCronJobs.form.name.placeholder": "نام وظیفه را وارد کنید",
|
|
45
|
+
"agentCronJobs.form.time": "زمان",
|
|
40
46
|
"agentCronJobs.form.timeRange.end": "زمان پایان",
|
|
41
47
|
"agentCronJobs.form.timeRange.start": "زمان شروع",
|
|
48
|
+
"agentCronJobs.form.times": "بار",
|
|
49
|
+
"agentCronJobs.form.timezone": "منطقه زمانی",
|
|
50
|
+
"agentCronJobs.form.unlimited": "اجرا بهصورت مداوم",
|
|
42
51
|
"agentCronJobs.form.validation.contentRequired": "محتوای وظیفه الزامی است",
|
|
43
52
|
"agentCronJobs.form.validation.invalidTimeRange": "زمان شروع باید قبل از زمان پایان باشد",
|
|
44
53
|
"agentCronJobs.form.validation.nameRequired": "نام وظیفه الزامی است",
|
|
@@ -83,6 +92,13 @@
|
|
|
83
92
|
"agentCronJobs.weekday.tuesday": "سهشنبه",
|
|
84
93
|
"agentCronJobs.weekday.wednesday": "چهارشنبه",
|
|
85
94
|
"agentCronJobs.weekdays": "روزهای هفته",
|
|
95
|
+
"agentCronJobs.weekdays.fri": "جمعه",
|
|
96
|
+
"agentCronJobs.weekdays.mon": "دوشنبه",
|
|
97
|
+
"agentCronJobs.weekdays.sat": "شنبه",
|
|
98
|
+
"agentCronJobs.weekdays.sun": "یکشنبه",
|
|
99
|
+
"agentCronJobs.weekdays.thu": "پنجشنبه",
|
|
100
|
+
"agentCronJobs.weekdays.tue": "سهشنبه",
|
|
101
|
+
"agentCronJobs.weekdays.wed": "چهارشنبه",
|
|
86
102
|
"agentInfoDescription.basic.avatar": "آواتار",
|
|
87
103
|
"agentInfoDescription.basic.description": "توضیحات",
|
|
88
104
|
"agentInfoDescription.basic.name": "نام",
|
|
@@ -8,6 +8,7 @@
|
|
|
8
8
|
"codes.DELETED_ACCOUNT_EMAIL": "Cet e-mail est associé à un compte supprimé et ne peut pas être utilisé pour l'inscription",
|
|
9
9
|
"codes.EMAIL_CAN_NOT_BE_UPDATED": "L'adresse e-mail ne peut pas être mise à jour pour ce compte",
|
|
10
10
|
"codes.EMAIL_NOT_ALLOWED": "Adresse e-mail non autorisée pour l'inscription",
|
|
11
|
+
"codes.EMAIL_NOT_FOUND": "Aucune adresse e-mail n’est associée à ce compte. Veuillez vérifier si une adresse e-mail y est liée.",
|
|
11
12
|
"codes.EMAIL_NOT_VERIFIED": "Veuillez d'abord vérifier votre adresse e-mail",
|
|
12
13
|
"codes.FAILED_TO_CREATE_SESSION": "Échec de la création de la session",
|
|
13
14
|
"codes.FAILED_TO_CREATE_USER": "Échec de la création de l'utilisateur",
|
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "Un modèle de 7 milliards de paramètres avec une qualité supérieure à Phi-3-mini, axé sur des données de haute qualité nécessitant un raisonnement poussé.",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Une version mise à jour du modèle Phi-3-mini.",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Une version mise à jour du modèle Phi-3-vision.",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 est un modèle de langage open source de grande taille, optimisé pour les capacités d’agent. Il excelle en programmation, utilisation d’outils, suivi d’instructions et planification à long terme. Le modèle prend en charge le développement logiciel multilingue et l’exécution de flux de travail complexes en plusieurs étapes, atteignant un score de 74,0 sur SWE-bench Verified et surpassant Claude Sonnet 4.5 dans des scénarios multilingues.",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct est un LLM de 7 milliards de paramètres ajusté pour les instructions, de la série Qwen2. Il utilise une architecture Transformer avec SwiGLU, un biais QKV pour l’attention et une attention à requêtes groupées, capable de gérer de grandes entrées. Il excelle en compréhension linguistique, génération, tâches multilingues, codage, mathématiques et raisonnement, surpassant la plupart des modèles open source et rivalisant avec les modèles propriétaires. Il dépasse Qwen1.5-7B-Chat sur plusieurs benchmarks.",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct fait partie de la dernière série de LLM d’Alibaba Cloud. Ce modèle de 7 milliards apporte des améliorations notables en codage et mathématiques, prend en charge plus de 29 langues et améliore le suivi des instructions, la compréhension des données structurées et la génération de sorties structurées (notamment en JSON).",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct est le dernier LLM d’Alibaba Cloud axé sur le code. Basé sur Qwen2.5 et entraîné sur 5,5T de jetons, il améliore considérablement la génération de code, le raisonnement et la correction, tout en conservant ses forces en mathématiques et en intelligence générale, constituant une base solide pour les agents de codage.",
|
|
@@ -271,21 +272,21 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
|
|
272
273
|
"claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
273
274
|
"claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences globales et dépasse le précédent modèle le plus avancé, Claude 3 Opus, sur de nombreux benchmarks d’intelligence.",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d’Anthropic et le premier modèle de raisonnement hybride sur le marché. Il peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet est particulièrement performant en programmation, science des données, vision et tâches d’agent.",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, combinant une vitesse fulgurante et un raisonnement approfondi.",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
|
|
283
|
-
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d
|
|
284
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches hautement complexes, se distinguant par ses performances, son intelligence, sa fluidité et sa compréhension.",
|
|
285
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
288
|
-
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
|
|
289
|
+
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est à ce jour le modèle le plus intelligent d’Anthropic.",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
|
|
291
292
|
"codegemma.description": "CodeGemma est un modèle léger pour diverses tâches de programmation, permettant une itération rapide et une intégration facile.",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp est une version expérimentale de V3.2 servant de pont vers la prochaine architecture. Il ajoute DeepSeek Sparse Attention (DSA) au-dessus de V3.1-Terminus pour améliorer l’efficacité de l’entraînement et de l’inférence sur les contextes longs, avec des optimisations pour l’utilisation d’outils, la compréhension de documents longs et le raisonnement multi-étapes. Idéal pour explorer une efficacité de raisonnement accrue avec de grands budgets de contexte.",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 est un modèle MoE de 671 milliards de paramètres utilisant MLA et DeepSeekMoE avec un équilibrage de charge sans perte pour un entraînement et une inférence efficaces. Préentraîné sur 14,8T de tokens de haute qualité avec SFT et RL, il surpasse les autres modèles open source et rivalise avec les modèles fermés de pointe.",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) est un modèle innovant offrant une compréhension linguistique approfondie et une interaction fluide.",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "Un modèle LLM efficace de pointe, performant en raisonnement, mathématiques et programmation.",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et les solides compétences en programmation du modèle de codeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
|
|
379
379
|
"deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "Le mode de raisonnement DeepSeek V3.2 produit une chaîne de pensée avant la réponse finale pour améliorer la précision.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K est un modèle ultra-léger pour la QA simple, la classification et l’inférence à faible coût.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d'images de haute qualité et hautement contrôlable à partir d'invites.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 est un modèle de génération d’images développé par ByteDance Seed, prenant en charge les entrées texte et image pour une génération d’images de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur l’édition d’images, prenant en charge les entrées texte et image.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération d’images avec une préférence esthétique pour des images plus réalistes et naturelles.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération d’images.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "Modèle de génération d’images de haute qualité développé par Google.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images via la conversation.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Un modèle d
|
|
485
|
-
"fal-ai/qwen-image.description": "Un puissant modèle de génération d
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Un modèle professionnel d’édition d’images de l’équipe Qwen, prenant en charge les modifications sémantiques et visuelles, l’édition précise de texte en chinois et en anglais, ainsi que des retouches de haute qualité comme le transfert de style et la rotation d’objets.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Un puissant modèle de génération d’images de l’équipe Qwen, offrant un rendu impressionnant du texte chinois et une grande diversité de styles visuels.",
|
|
486
485
|
"flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité d’image proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
|
|
488
487
|
"flux-kontext-max.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, l’utilisation native d’outils, la génération multimodale et une fenêtre de contexte de 1 million de jetons.",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana est le modèle multimodal natif le plus récent, rapide et efficace de Google, permettant la génération et l'édition d'images en conversation.",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana est le modèle multimodal natif le plus récent, rapide et efficace de Google, permettant la génération et l'édition d'images en conversation.",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview est le plus petit modèle de Google, offrant le meilleur rapport qualité-prix, conçu pour une utilisation à grande échelle.",
|
|
@@ -530,7 +527,7 @@
|
|
|
530
527
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro est le modèle de raisonnement phare de Google, avec un support de long contexte pour les tâches complexes.",
|
|
531
528
|
"gemini-3-flash-preview.description": "Gemini 3 Flash est le modèle le plus intelligent conçu pour la vitesse, alliant intelligence de pointe et ancrage de recherche performant.",
|
|
532
529
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d’images de Google, prenant également en charge les dialogues multimodaux.",
|
|
533
|
-
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d
|
|
530
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d’images de Google, prenant également en charge le chat multimodal.",
|
|
534
531
|
"gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle agent et de codage le plus puissant de Google, offrant des visuels enrichis et une interaction plus poussée grâce à un raisonnement de pointe.",
|
|
535
532
|
"gemini-flash-latest.description": "Dernière version de Gemini Flash",
|
|
536
533
|
"gemini-flash-lite-latest.description": "Dernière version de Gemini Flash-Lite",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max est la version la plus complète, prenant en charge la recherche web et de nombreux plugins intégrés. Ses capacités de base entièrement optimisées, ses rôles système et ses appels de fonctions offrent d'excellentes performances dans des scénarios d'application complexes.",
|
|
544
541
|
"generalv3.description": "Spark Pro est un modèle LLM haute performance optimisé pour les domaines professionnels, axé sur les mathématiques, la programmation, la santé et l'éducation, avec recherche web et plugins intégrés comme la météo et la date. Il offre de solides performances et une grande efficacité dans les questions-réponses complexes, la compréhension du langage et la création de texte avancée, en faisant un choix idéal pour les cas d’usage professionnels.",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520 est la dernière version du modèle, conçu pour des tâches très complexes et variées avec d'excellentes performances.",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7 est le modèle phare le plus récent de Zhipu AI. Il améliore les capacités de codage, la planification de tâches à long terme et la collaboration avec des outils pour les scénarios de codage agentique, atteignant des performances de pointe parmi les modèles open source sur de nombreux benchmarks publics. Ses capacités générales sont renforcées, avec des réponses plus concises et naturelles, et une écriture plus immersive. Dans les tâches complexes d’agent, le suivi des instructions est renforcé lors des appels d’outils, et l’esthétique des interfaces Artifacts et Agentic Coding, ainsi que l’efficacité d’exécution des tâches à long terme, sont améliorées.",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat excelle en sémantique, mathématiques, raisonnement, code et connaissances. Il prend également en charge la navigation web, l'exécution de code, l'appel d'outils personnalisés et le raisonnement sur de longs textes, avec prise en charge de 26 langues dont le japonais, le coréen et l'allemand.",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air est une option à forte valeur ajoutée avec des performances proches de GLM-4, une vitesse rapide et un coût réduit.",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air est une option à forte valeur ajoutée avec des performances proches de GLM-4, une vitesse rapide et un coût réduit.",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking est le plus puissant VLM connu (~10B), couvrant des tâches SOTA telles que la compréhension vidéo, les questions-réponses sur images, la résolution de problèmes, l'OCR, la lecture de documents et de graphiques, les agents GUI, le codage frontend et l’ancrage. Il surpasse même le Qwen2.5-VL-72B, 8 fois plus grand, sur de nombreuses tâches. Grâce à l’apprentissage par renforcement avancé, il utilise un raisonnement en chaîne pour améliorer la précision et la richesse, surpassant les modèles traditionnels non pensants en résultats et en explicabilité.",
|
|
559
556
|
"glm-4.5-air.description": "Édition légère de GLM-4.5 qui équilibre performance et coût, avec des modes de pensée hybrides flexibles.",
|
|
560
557
|
"glm-4.5-airx.description": "Édition rapide de GLM-4.5-Air avec des réponses plus rapides pour une utilisation à grande échelle et à haute vitesse.",
|
|
561
|
-
"glm-4.5-flash.description": "Niveau gratuit de GLM-4.5 avec de solides performances en raisonnement, codage et tâches d’agent.",
|
|
562
558
|
"glm-4.5-x.description": "Édition rapide de GLM-4.5, offrant de solides performances avec des vitesses de génération allant jusqu'à 100 tokens/sec.",
|
|
563
559
|
"glm-4.5.description": "Modèle phare de Zhipu avec un mode de pensée commutable, offrant un SOTA open-source global et jusqu'à 128K de contexte.",
|
|
564
560
|
"glm-4.5v.description": "Modèle de raisonnement visuel de nouvelle génération de Zhipu basé sur MoE, avec 106B de paramètres totaux et 12B actifs, atteignant un SOTA parmi les modèles multimodaux open-source de taille similaire sur les tâches d’image, vidéo, documents et GUI.",
|
|
565
561
|
"glm-4.6.description": "GLM-4.6 (355B), le dernier modèle phare de Zhipu, surpasse entièrement ses prédécesseurs en codage avancé, traitement de longs textes, raisonnement et capacités d’agent. Il rivalise notamment avec Claude Sonnet 4 en programmation, devenant ainsi le meilleur modèle de codage en Chine.",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flash, en tant que modèle SOTA de niveau 30B, offre un nouvel équilibre entre performance et efficacité. Il améliore les capacités de codage, la planification de tâches à long terme et la collaboration avec des outils pour les scénarios de codage agentique, atteignant des performances de pointe parmi les modèles open source de même taille sur plusieurs classements de référence actuels. Lors de l’exécution de tâches complexes d’agent intelligent, il suit mieux les instructions lors des appels d’outils et améliore l’esthétique du front-end ainsi que l’efficacité d’exécution des tâches à long terme pour Artifacts et Agentic Coding.",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flash, en tant que modèle SOTA de niveau 30B, offre un nouvel équilibre entre performance et efficacité. Il améliore les capacités de codage, la planification de tâches à long terme et la collaboration avec des outils pour les scénarios de codage agentique, atteignant des performances de pointe parmi les modèles open source de même taille sur plusieurs classements de référence actuels. Lors de l’exécution de tâches complexes d’agent intelligent, il suit mieux les instructions lors des appels d’outils et améliore l’esthétique du front-end ainsi que l’efficacité d’exécution des tâches à long terme pour Artifacts et Agentic Coding.",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7 est le dernier modèle phare de Zhipu, optimisé pour les scénarios de codage agentique avec des capacités de programmation améliorées, une planification de tâches à long terme et une meilleure collaboration avec les outils. Il atteint des performances de pointe parmi les modèles open source sur de nombreux benchmarks publics. Ses capacités générales sont renforcées avec des réponses plus concises et naturelles, ainsi qu’une écriture plus immersive. Pour les tâches complexes d’agent, le suivi des instructions lors des appels d’outils est plus robuste, et l’esthétique du frontend ainsi que l’efficacité d’exécution à long terme dans les environnements Artifacts et Agentic Coding sont également améliorées.",
|
|
567
565
|
"glm-4.description": "GLM-4 est l’ancien modèle phare sorti en janvier 2024, désormais remplacé par le plus performant GLM-4-0520.",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash se concentre sur la compréhension efficace d’une seule image pour des scénarios d’analyse rapide comme le traitement d’images en temps réel ou par lot.",
|
|
@@ -654,8 +652,8 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini : une variante Codex plus petite et économique, optimisée pour les tâches de codage agentique.",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex : une variante de GPT-5.1 optimisée pour les flux de travail complexes de codage/agents dans l’API Responses.",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 — un modèle phare optimisé pour le codage et les tâches d’agents, avec un effort de raisonnement configurable et un contexte étendu.",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat est la variante ChatGPT (chat-latest)
|
|
658
|
-
"gpt-5.2-pro.description": "GPT-5.2 Pro : une variante plus intelligente et plus précise
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat est la variante ChatGPT (chat-latest) intégrant les dernières améliorations conversationnelles.",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro : une variante GPT-5.2 plus intelligente et plus précise (uniquement via l’API Responses), adaptée aux problèmes complexes et au raisonnement multi-tours prolongé.",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2 est un modèle phare pour les flux de travail de codage et d’agents, avec un raisonnement renforcé et des performances sur de longs contextes.",
|
|
660
658
|
"gpt-5.description": "Le meilleur modèle pour le codage inter-domaines et les tâches d’agents. GPT-5 marque un bond en précision, vitesse, raisonnement, compréhension du contexte, pensée structurée et résolution de problèmes.",
|
|
661
659
|
"gpt-audio.description": "GPT Audio est un modèle de chat général prenant en charge les entrées/sorties audio, disponible via l’API Chat Completions.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
|
|
30
30
|
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
|
|
31
31
|
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de crédits liés aux jetons des modèles.",
|
|
33
32
|
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
|
|
35
34
|
"modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
|
|
@@ -34,11 +34,20 @@
|
|
|
34
34
|
"agentCronJobs.empty.description": "Créez votre première tâche planifiée pour automatiser votre agent",
|
|
35
35
|
"agentCronJobs.empty.title": "Aucune tâche planifiée pour le moment",
|
|
36
36
|
"agentCronJobs.enable": "Activer",
|
|
37
|
+
"agentCronJobs.form.at": "à",
|
|
37
38
|
"agentCronJobs.form.content.placeholder": "Saisissez l'invite ou l'instruction pour l'agent",
|
|
39
|
+
"agentCronJobs.form.every": "Chaque",
|
|
40
|
+
"agentCronJobs.form.frequency": "Fréquence",
|
|
41
|
+
"agentCronJobs.form.hours": "heure(s)",
|
|
42
|
+
"agentCronJobs.form.maxExecutions": "Arrêter après",
|
|
38
43
|
"agentCronJobs.form.maxExecutions.placeholder": "Laisser vide pour illimité",
|
|
39
44
|
"agentCronJobs.form.name.placeholder": "Saisissez le nom de la tâche",
|
|
45
|
+
"agentCronJobs.form.time": "Heure",
|
|
40
46
|
"agentCronJobs.form.timeRange.end": "Heure de fin",
|
|
41
47
|
"agentCronJobs.form.timeRange.start": "Heure de début",
|
|
48
|
+
"agentCronJobs.form.times": "fois",
|
|
49
|
+
"agentCronJobs.form.timezone": "Fuseau horaire",
|
|
50
|
+
"agentCronJobs.form.unlimited": "Exécuter en continu",
|
|
42
51
|
"agentCronJobs.form.validation.contentRequired": "Le contenu de la tâche est requis",
|
|
43
52
|
"agentCronJobs.form.validation.invalidTimeRange": "L'heure de début doit être antérieure à l'heure de fin",
|
|
44
53
|
"agentCronJobs.form.validation.nameRequired": "Le nom de la tâche est requis",
|
|
@@ -83,6 +92,13 @@
|
|
|
83
92
|
"agentCronJobs.weekday.tuesday": "Mardi",
|
|
84
93
|
"agentCronJobs.weekday.wednesday": "Mercredi",
|
|
85
94
|
"agentCronJobs.weekdays": "Jours de la semaine",
|
|
95
|
+
"agentCronJobs.weekdays.fri": "Ven",
|
|
96
|
+
"agentCronJobs.weekdays.mon": "Lun",
|
|
97
|
+
"agentCronJobs.weekdays.sat": "Sam",
|
|
98
|
+
"agentCronJobs.weekdays.sun": "Dim",
|
|
99
|
+
"agentCronJobs.weekdays.thu": "Jeu",
|
|
100
|
+
"agentCronJobs.weekdays.tue": "Mar",
|
|
101
|
+
"agentCronJobs.weekdays.wed": "Mer",
|
|
86
102
|
"agentInfoDescription.basic.avatar": "Avatar",
|
|
87
103
|
"agentInfoDescription.basic.description": "Description",
|
|
88
104
|
"agentInfoDescription.basic.name": "Nom",
|
|
@@ -8,6 +8,7 @@
|
|
|
8
8
|
"codes.DELETED_ACCOUNT_EMAIL": "Questa email è associata a un account eliminato e non può essere utilizzata per la registrazione",
|
|
9
9
|
"codes.EMAIL_CAN_NOT_BE_UPDATED": "L'email non può essere aggiornata per questo account",
|
|
10
10
|
"codes.EMAIL_NOT_ALLOWED": "Email non consentita per la registrazione",
|
|
11
|
+
"codes.EMAIL_NOT_FOUND": "Nessuna email associata a questo account. Verifica se al tuo account è collegata un'email.",
|
|
11
12
|
"codes.EMAIL_NOT_VERIFIED": "Verifica prima la tua email",
|
|
12
13
|
"codes.FAILED_TO_CREATE_SESSION": "Creazione della sessione non riuscita",
|
|
13
14
|
"codes.FAILED_TO_CREATE_USER": "Creazione dell'utente non riuscita",
|