@lobehub/lobehub 2.1.3 → 2.1.4

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (129) hide show
  1. package/.env.example +0 -3
  2. package/.env.example.development +0 -3
  3. package/CHANGELOG.md +34 -0
  4. package/changelog/v2.json +9 -0
  5. package/docker-compose/deploy/.env.example +3 -1
  6. package/docker-compose/deploy/.env.zh-CN.example +4 -1
  7. package/docker-compose/local/.env.example +0 -1
  8. package/docker-compose/local/.env.zh-CN.example +0 -1
  9. package/docker-compose/local/grafana/.env.example +0 -1
  10. package/docker-compose/local/grafana/.env.zh-CN.example +0 -1
  11. package/docker-compose/local/logto/docker-compose.yml +0 -1
  12. package/docker-compose/local/zitadel/.env.example +1 -2
  13. package/docker-compose/local/zitadel/.env.zh-CN.example +1 -2
  14. package/docker-compose/production/grafana/.env.example +0 -1
  15. package/docker-compose/production/grafana/.env.zh-CN.example +0 -1
  16. package/docker-compose/production/logto/.env.example +0 -2
  17. package/docker-compose/production/logto/.env.zh-CN.example +0 -2
  18. package/docker-compose/production/zitadel/.env.example +0 -2
  19. package/docker-compose/production/zitadel/.env.zh-CN.example +0 -2
  20. package/docker-compose/setup.sh +16 -2
  21. package/docs/development/basic/folder-structure.mdx +23 -14
  22. package/docs/development/basic/folder-structure.zh-CN.mdx +23 -14
  23. package/docs/development/basic/work-with-server-side-database.mdx +0 -1
  24. package/docs/development/basic/work-with-server-side-database.zh-CN.mdx +0 -1
  25. package/docs/development/start.mdx +19 -12
  26. package/docs/development/start.zh-CN.mdx +19 -12
  27. package/docs/self-hosting/advanced/s3/cloudflare-r2.mdx +0 -5
  28. package/docs/self-hosting/advanced/s3/cloudflare-r2.zh-CN.mdx +0 -5
  29. package/docs/self-hosting/advanced/s3/rustfs.mdx +0 -2
  30. package/docs/self-hosting/advanced/s3/rustfs.zh-CN.mdx +0 -2
  31. package/docs/self-hosting/advanced/s3/tencent-cloud.mdx +0 -1
  32. package/docs/self-hosting/advanced/s3/tencent-cloud.zh-CN.mdx +0 -2
  33. package/docs/self-hosting/advanced/s3.mdx +0 -9
  34. package/docs/self-hosting/advanced/s3.zh-CN.mdx +0 -8
  35. package/docs/self-hosting/environment-variables/s3.mdx +0 -7
  36. package/docs/self-hosting/environment-variables/s3.zh-CN.mdx +0 -7
  37. package/docs/self-hosting/platform/docker-compose.mdx +0 -1
  38. package/docs/self-hosting/platform/docker-compose.zh-CN.mdx +0 -1
  39. package/docs/self-hosting/platform/docker.mdx +5 -3
  40. package/docs/self-hosting/platform/docker.zh-CN.mdx +5 -4
  41. package/docs/self-hosting/platform/dokploy.mdx +0 -2
  42. package/docs/self-hosting/platform/dokploy.zh-CN.mdx +0 -2
  43. package/docs/self-hosting/platform/vercel.mdx +0 -7
  44. package/docs/self-hosting/platform/vercel.zh-CN.mdx +0 -7
  45. package/e2e/src/steps/home/sidebarAgent.steps.ts +56 -24
  46. package/locales/ar/authError.json +1 -0
  47. package/locales/ar/models.json +25 -22
  48. package/locales/ar/providers.json +0 -1
  49. package/locales/ar/setting.json +16 -0
  50. package/locales/bg-BG/authError.json +1 -0
  51. package/locales/bg-BG/models.json +18 -21
  52. package/locales/bg-BG/providers.json +0 -1
  53. package/locales/bg-BG/setting.json +16 -0
  54. package/locales/de-DE/authError.json +1 -0
  55. package/locales/de-DE/models.json +20 -20
  56. package/locales/de-DE/providers.json +0 -1
  57. package/locales/de-DE/setting.json +16 -0
  58. package/locales/en-US/models.json +22 -22
  59. package/locales/en-US/providers.json +0 -1
  60. package/locales/es-ES/authError.json +1 -0
  61. package/locales/es-ES/models.json +84 -20
  62. package/locales/es-ES/providers.json +0 -1
  63. package/locales/es-ES/setting.json +16 -0
  64. package/locales/fa-IR/authError.json +1 -0
  65. package/locales/fa-IR/models.json +43 -20
  66. package/locales/fa-IR/providers.json +0 -1
  67. package/locales/fa-IR/setting.json +16 -0
  68. package/locales/fr-FR/authError.json +1 -0
  69. package/locales/fr-FR/models.json +19 -21
  70. package/locales/fr-FR/providers.json +0 -1
  71. package/locales/fr-FR/setting.json +16 -0
  72. package/locales/it-IT/authError.json +1 -0
  73. package/locales/it-IT/models.json +17 -19
  74. package/locales/it-IT/providers.json +0 -1
  75. package/locales/it-IT/setting.json +16 -0
  76. package/locales/ja-JP/authError.json +1 -0
  77. package/locales/ja-JP/models.json +43 -22
  78. package/locales/ja-JP/providers.json +0 -1
  79. package/locales/ja-JP/setting.json +16 -0
  80. package/locales/ko-KR/authError.json +1 -0
  81. package/locales/ko-KR/models.json +41 -20
  82. package/locales/ko-KR/providers.json +0 -1
  83. package/locales/ko-KR/setting.json +16 -0
  84. package/locales/nl-NL/authError.json +1 -0
  85. package/locales/nl-NL/models.json +48 -20
  86. package/locales/nl-NL/providers.json +0 -1
  87. package/locales/nl-NL/setting.json +16 -0
  88. package/locales/pl-PL/authError.json +1 -0
  89. package/locales/pl-PL/models.json +19 -22
  90. package/locales/pl-PL/providers.json +0 -1
  91. package/locales/pl-PL/setting.json +16 -0
  92. package/locales/pt-BR/authError.json +1 -0
  93. package/locales/pt-BR/models.json +21 -21
  94. package/locales/pt-BR/providers.json +0 -1
  95. package/locales/pt-BR/setting.json +16 -0
  96. package/locales/ru-RU/authError.json +1 -0
  97. package/locales/ru-RU/models.json +23 -20
  98. package/locales/ru-RU/providers.json +0 -1
  99. package/locales/ru-RU/setting.json +16 -0
  100. package/locales/tr-TR/authError.json +1 -0
  101. package/locales/tr-TR/models.json +37 -20
  102. package/locales/tr-TR/providers.json +0 -1
  103. package/locales/tr-TR/setting.json +16 -0
  104. package/locales/vi-VN/authError.json +1 -0
  105. package/locales/vi-VN/models.json +15 -19
  106. package/locales/vi-VN/providers.json +0 -1
  107. package/locales/vi-VN/setting.json +16 -0
  108. package/locales/zh-CN/models.json +20 -20
  109. package/locales/zh-CN/providers.json +0 -1
  110. package/locales/zh-TW/authError.json +1 -0
  111. package/locales/zh-TW/models.json +20 -20
  112. package/locales/zh-TW/providers.json +0 -1
  113. package/locales/zh-TW/setting.json +16 -0
  114. package/package.json +1 -1
  115. package/packages/model-bank/src/aiModels/google.ts +0 -19
  116. package/packages/model-bank/src/aiModels/moonshot.ts +56 -5
  117. package/packages/model-bank/src/aiModels/ollamacloud.ts +14 -0
  118. package/packages/model-bank/src/aiModels/openrouter.ts +0 -14
  119. package/packages/model-bank/src/aiModels/qwen.ts +105 -4
  120. package/packages/model-bank/src/aiModels/siliconcloud.ts +39 -0
  121. package/packages/model-bank/src/aiModels/wenxin.ts +0 -99
  122. package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +24 -0
  123. package/packages/model-runtime/src/core/contextBuilders/openai.ts +22 -5
  124. package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +10 -3
  125. package/packages/model-runtime/src/core/streams/google/google-ai.test.ts +54 -13
  126. package/packages/model-runtime/src/core/streams/google/index.ts +1 -4
  127. package/packages/model-runtime/src/providers/moonshot/index.ts +24 -2
  128. package/packages/model-runtime/src/providers/qwen/index.ts +16 -15
  129. package/src/server/routers/lambda/__tests__/integration/aiAgent/execAgent.integration.test.ts +3 -2
@@ -90,6 +90,7 @@
90
90
  "Phi-3-small-8k-instruct.description": "مدلی با ۷ میلیارد پارامتر و کیفیت بالاتر نسبت به Phi-3-mini، متمرکز بر داده‌های با کیفیت و نیازمند استدلال.",
91
91
  "Phi-3.5-mini-instruct.description": "نسخه به‌روزشده مدل Phi-3-mini.",
92
92
  "Phi-3.5-vision-instrust.description": "نسخه به‌روزشده مدل Phi-3-vision.",
93
+ "Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 یک مدل زبان بزرگ متن‌باز است که برای قابلیت‌های عامل بهینه‌سازی شده و در برنامه‌نویسی، استفاده از ابزارها، پیروی از دستورالعمل‌ها و برنامه‌ریزی بلندمدت عملکرد برجسته‌ای دارد. این مدل از توسعه نرم‌افزار چندزبانه و اجرای جریان‌های کاری پیچیده چندمرحله‌ای پشتیبانی می‌کند و با کسب امتیاز ۷۴.۰ در SWE-bench Verified، در سناریوهای چندزبانه از Claude Sonnet 4.5 پیشی گرفته است.",
93
94
  "Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct یک مدل LLM با ۷ میلیارد پارامتر در سری Qwen2 است که با معماری ترنسفورمر، SwiGLU، بایاس QKV توجه و توجه گروهی طراحی شده و ورودی‌های بزرگ را مدیریت می‌کند. این مدل در درک زبان، تولید، وظایف چندزبانه، کدنویسی، ریاضی و استدلال عملکرد قوی دارد و از بسیاری از مدل‌های باز پیشی می‌گیرد و با مدل‌های اختصاصی رقابت می‌کند. در چندین معیار از Qwen1.5-7B-Chat بهتر عمل می‌کند.",
94
95
  "Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct بخشی از جدیدترین سری LLM علی‌بابا کلود است. این مدل ۷ میلیاردی پیشرفت‌های قابل توجهی در کدنویسی و ریاضی دارد، از بیش از ۲۹ زبان پشتیبانی می‌کند و در پیروی از دستورالعمل‌ها، درک داده‌های ساختاریافته و تولید خروجی ساختاریافته (به‌ویژه JSON) بهبود یافته است.",
95
96
  "Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct جدیدترین مدل LLM متمرکز بر کد از علی‌بابا کلود است. بر پایه Qwen2.5 ساخته شده و با ۵.۵ تریلیون توکن آموزش دیده، تولید کد، استدلال و اصلاح را به‌طور قابل توجهی بهبود می‌بخشد و در عین حال توانایی‌های ریاضی و عمومی را حفظ می‌کند، و پایه‌ای قوی برای عامل‌های کدنویسی فراهم می‌کند.",
@@ -271,20 +272,20 @@
271
272
  "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
272
273
  "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
273
274
  "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که مهارت‌های مختلف را بهبود داده و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.",
275
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌های مختلف بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی، Claude 3 Opus، پیشی گرفته است.",
275
276
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است که پاسخ‌های تقریباً فوری یا تفکر گسترش‌یافته را با کنترل دقیق ارائه می‌دهد.",
277
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام قابل مشاهده تولید کند. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، بینایی و وظایف عامل قوی است.",
277
278
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
278
279
  "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
279
280
  "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
280
281
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر عمیق همراه است.",
282
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت بالا و توانایی استدلال پیشرفته ارائه می‌شود.",
282
283
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
283
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برجسته عمل می‌کند.",
284
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
285
+ "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب عملکردی ممتاز دارد.",
285
286
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
286
287
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترش‌یافته را با کنترل دقیق برای کاربران API ارائه می‌دهد.",
288
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام با فرآیند قابل مشاهده تولید کند.",
288
289
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
289
290
  "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
290
291
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@@ -351,11 +352,10 @@
351
352
  "deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp نسخه آزمایشی V3.2 است که به معماری بعدی پل می‌زند. این مدل با افزودن DeepSeek Sparse Attention (DSA) بر پایه V3.1-Terminus، کارایی آموزش و استنتاج در زمینه‌های طولانی را بهبود می‌بخشد و برای استفاده از ابزارها، درک اسناد طولانی و استدلال چندمرحله‌ای بهینه شده است. این مدل برای بررسی بهره‌وری بالاتر در استدلال با بودجه متنی بزرگ ایده‌آل است.",
352
353
  "deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که از MLA و DeepSeekMoE با تعادل بار بدون اتلاف برای آموزش و استنتاج کارآمد استفاده می‌کند. این مدل با استفاده از ۱۴.۸ تریلیون توکن با کیفیت بالا و آموزش با SFT و RL، از سایر مدل‌های متن‌باز پیشی گرفته و به مدل‌های بسته پیشرو نزدیک شده است.",
353
354
  "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه با درک عمیق زبان و تعامل است.",
354
- "deepseek-ai/deepseek-r1.description": "یک مدل LLM کارآمد و پیشرفته با توانایی بالا در استدلال، ریاضی و برنامه‌نویسی.",
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
358
- "deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسش‌وپاسخ روزمره و وظایف عامل برقرار می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام می‌کند و در ارزیابی‌های عامل متن‌باز پیشتاز است.",
358
+ "deepseek-chat.description": "مدلی متن‌باز و جدید که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل گفت‌وگوی عمومی مدل چت و قدرت کدنویسی مدل برنامه‌نویس را حفظ کرده و با هم‌راستایی ترجیحی بهتر ارائه می‌شود. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته است.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
379
379
  "deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که پیش از تولید خروجی، زنجیره‌ای از تفکر ایجاد می‌کند تا دقت را افزایش دهد و نتایجی در سطح رقابت با Gemini-3.0-Pro ارائه می‌دهد.",
381
+ "deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از پاسخ نهایی زنجیره‌ای از افکار را تولید می‌کند تا دقت را افزایش دهد.",
382
382
  "deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
@@ -472,8 +472,7 @@
472
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوق‌سبک برای پرسش‌وپاسخ ساده، طبقه‌بندی و استنتاج کم‌هزینه است.",
473
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
474
474
  "ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
475
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4. ساخته‌شده توسط تیم Seed شرکت ByteDance، از ویرایش و ترکیب چندتصویری پشتیبانی می‌کند. این مدل دارای ثبات بیشتر در موضوع، پیروی دقیق از دستورالعمل‌ها، درک منطق فضایی، بیان زیبایی‌شناختی، طراحی پوستر و لوگو با رندر دقیق متن-تصویر است.",
476
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته‌شده توسط تیم Seed شرکت ByteDance، از ورودی‌های متنی و تصویری برای تولید تصاویر با کیفیت بالا و کنترل‌پذیری بالا از طریق دستورات پشتیبانی می‌کند.",
475
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصاویر با کیفیت بالا و قابل کنترل را ممکن می‌سازد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
477
476
  "fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
478
477
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.",
479
478
  "fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.",
@@ -481,8 +480,8 @@
481
480
  "fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
482
481
  "fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
483
482
  "fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم می‌کند.",
484
- "fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر پشتیبانی می‌کند.",
485
- "fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر قوی متن چینی و سبک‌های بصری متنوع.",
483
+ "fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش‌های معنایی و ظاهری پشتیبانی می‌کند، متون چینی و انگلیسی را با دقت ویرایش می‌کند و ویرایش‌های با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن می‌سازد.",
484
+ "fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متون چینی و سبک‌های بصری متنوع.",
486
485
  "flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده می‌کند. این مدل با جایگزین‌های بسته رقابت می‌کند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
487
486
  "flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزن‌های باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفه‌ای و پیروی از دستورالعمل را حفظ می‌کند و در عین حال کارآمدتر اجرا می‌شود و منابع را بهتر از مدل‌های استاندارد هم‌سایز استفاده می‌کند.",
488
487
  "flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.",
@@ -514,8 +513,6 @@
514
513
  "gemini-2.0-flash-lite-001.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.",
515
514
  "gemini-2.0-flash-lite.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.",
516
515
  "gemini-2.0-flash.description": "Gemini 2.0 Flash ویژگی‌های نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه می‌دهد.",
517
- "gemini-2.5-flash-image-preview.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌محور را ممکن می‌سازد.",
518
- "gemini-2.5-flash-image-preview:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌محور را ممکن می‌سازد.",
519
516
  "gemini-2.5-flash-image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
520
517
  "gemini-2.5-flash-image:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
521
518
  "gemini-2.5-flash-lite-preview-06-17.description": "نسخه پیش‌نمایش Gemini 2.5 Flash-Lite کوچک‌ترین و مقرون‌به‌صرفه‌ترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.",
@@ -530,7 +527,7 @@
530
527
  "gemini-2.5-pro.description": "Gemini 2.5 Pro پرچم‌دار مدل‌های استدلالی گوگل است که از زمینه‌های طولانی برای انجام وظایف پیچیده پشتیبانی می‌کند.",
531
528
  "gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحی‌شده برای سرعت است که هوش پیشرفته را با قابلیت جست‌وجوی دقیق ترکیب می‌کند.",
532
529
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.",
533
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.",
530
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از چت چندوجهی نیز پشتیبانی می‌کند.",
534
531
  "gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنی‌تر و تعامل عمیق‌تری را بر پایه استدلال پیشرفته ارائه می‌دهد.",
535
532
  "gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash",
536
533
  "gemini-flash-lite-latest.description": "آخرین نسخه منتشرشده از Gemini Flash-Lite",
@@ -543,7 +540,7 @@
543
540
  "generalv3.5.description": "Spark Max کامل‌ترین نسخه است که از جستجوی وب و افزونه‌های داخلی متعددی پشتیبانی می‌کند. قابلیت‌های اصلی آن بهینه‌سازی شده‌اند و نقش‌های سیستمی و فراخوانی توابع عملکردی عالی در سناریوهای پیچیده ارائه می‌دهند.",
544
541
  "generalv3.description": "Spark Pro یک مدل LLM با عملکرد بالا است که برای حوزه‌های حرفه‌ای بهینه‌سازی شده و بر ریاضی، برنامه‌نویسی، سلامت و آموزش تمرکز دارد. این مدل از جستجوی وب و افزونه‌های داخلی مانند آب‌وهوا و تاریخ پشتیبانی می‌کند و در پرسش‌وپاسخ دانش پیچیده، درک زبان و تولید متن پیشرفته عملکرد قوی و کارآمدی دارد و گزینه‌ای ایده‌آل برای کاربردهای حرفه‌ای است.",
545
542
  "glm-4-0520.description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع با عملکرد عالی طراحی شده است.",
546
- "glm-4-32b-0414.description": "GLM-4 32B 0414 یک مدل عمومی GLM است که از تولید و درک متن چندوظیفه‌ای پشتیبانی می‌کند.",
543
+ "glm-4-7.description": "GLM-4.7 جدیدترین مدل پرچم‌دار Zhipu AI است. این مدل توانایی‌های برنامه‌نویسی، برنامه‌ریزی بلندمدت وظایف و همکاری با ابزارها را برای سناریوهای Agentic Coding بهبود می‌بخشد و در چندین معیار عمومی عملکردی پیشرو در میان مدل‌های متن‌باز دارد. پاسخ‌ها طبیعی‌تر و نوشتار غنی‌تر شده‌اند. در وظایف پیچیده عامل، پیروی از دستورالعمل‌ها در هنگام استفاده از ابزارها قوی‌تر است و زیبایی‌شناسی رابط و کارایی انجام وظایف بلندمدت نیز بهبود یافته است.",
547
544
  "glm-4-9b-chat.description": "GLM-4-9B-Chat در حوزه‌های معناشناسی، ریاضی، استدلال، کدنویسی و دانش عملکرد قوی دارد. همچنین از مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی و استدلال متن‌های طولانی پشتیبانی می‌کند و از ۲۶ زبان از جمله ژاپنی، کره‌ای و آلمانی پشتیبانی می‌کند.",
548
545
  "glm-4-air-250414.description": "GLM-4-Air گزینه‌ای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
549
546
  "glm-4-air.description": "GLM-4-Air گزینه‌ای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
@@ -558,11 +555,12 @@
558
555
  "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking قوی‌ترین مدل VLM شناخته‌شده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفته‌ای مانند درک ویدیو، پرسش‌وپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عامل‌های رابط کاربری، کدنویسی فرانت‌اند و اتصال به واقعیت را پوشش می‌دهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگ‌تر است در بسیاری از وظایف پیشی می‌گیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیره‌ای برای بهبود دقت و غنای پاسخ‌ها بهره می‌برد و در نتایج و قابلیت توضیح‌پذیری از مدل‌های سنتی بدون تفکر بهتر عمل می‌کند.",
559
556
  "glm-4.5-air.description": "نسخه سبک GLM-4.5 که بین عملکرد و هزینه تعادل برقرار می‌کند و از حالت‌های تفکر ترکیبی انعطاف‌پذیر پشتیبانی می‌کند.",
560
557
  "glm-4.5-airx.description": "نسخه سریع GLM-4.5-Air با پاسخ‌دهی سریع‌تر برای استفاده در مقیاس بالا و سرعت بالا.",
561
- "glm-4.5-flash.description": "نسخه رایگان GLM-4.5 با عملکرد قوی در استدلال، برنامه‌نویسی و وظایف عامل‌ها.",
562
558
  "glm-4.5-x.description": "نسخه سریع GLM-4.5 با عملکرد قوی و سرعت تولید تا ۱۰۰ توکن در ثانیه.",
563
559
  "glm-4.5.description": "مدل پرچم‌دار Zhipu با حالت تفکر قابل تغییر، ارائه‌دهنده بهترین عملکرد متن‌باز و پشتیبانی از زمینه تا ۱۲۸ هزار توکن.",
564
560
  "glm-4.5v.description": "مدل نسل بعدی بینایی و استدلال Zhipu با معماری MoE، دارای ۱۰۶ میلیارد پارامتر کل و ۱۲ میلیارد فعال، که در میان مدل‌های چندوجهی متن‌باز هم‌رده خود درک تصویر، ویدیو، اسناد و رابط‌های گرافیکی را به سطح SOTA می‌رساند.",
565
561
  "glm-4.6.description": "مدل پرچم‌دار جدید Zhipu با نام GLM-4.6 (۳۵۵ میلیارد پارامتر) در زمینه‌های برنامه‌نویسی پیشرفته، پردازش متون بلند، استدلال و توانایی‌های عامل از نسخه‌های قبلی خود فراتر رفته است. این مدل به‌ویژه در توانایی برنامه‌نویسی با Claude Sonnet 4 هم‌تراز است و به عنوان برترین مدل برنامه‌نویسی در چین شناخته می‌شود.",
562
+ "glm-4.7-flash.description": "GLM-4.7-Flash به‌عنوان یک مدل سطح ۳۰ میلیاردی SOTA، گزینه‌ای جدید برای تعادل بین عملکرد و کارایی ارائه می‌دهد. این مدل توانایی‌های برنامه‌نویسی، برنامه‌ریزی بلندمدت وظایف و همکاری با ابزارها را برای سناریوهای Agentic Coding بهبود می‌بخشد و در معیارهای فعلی در میان مدل‌های متن‌باز هم‌رده عملکردی پیشرو دارد.",
563
+ "glm-4.7-flashx.description": "GLM-4.7-Flash به‌عنوان یک مدل سطح ۳۰ میلیاردی SOTA، گزینه‌ای جدید برای تعادل بین عملکرد و کارایی ارائه می‌دهد. این مدل توانایی‌های برنامه‌نویسی، برنامه‌ریزی بلندمدت وظایف و همکاری با ابزارها را برای سناریوهای Agentic Coding بهبود می‌بخشد و در معیارهای فعلی در میان مدل‌های متن‌باز هم‌رده عملکردی پیشرو دارد.",
566
564
  "glm-4.7.description": "GLM-4.7 جدیدترین مدل پرچم‌دار Zhipu است که برای سناریوهای برنامه‌نویسی عامل‌محور بهینه‌سازی شده و دارای توانایی‌های برنامه‌نویسی پیشرفته‌تر، برنامه‌ریزی وظایف بلندمدت و همکاری با ابزارها است. این مدل در چندین معیار عمومی عملکردی پیشرو در میان مدل‌های متن‌باز دارد. توانایی‌های عمومی آن با پاسخ‌های طبیعی‌تر و مختصرتر و نوشتاری جذاب‌تر بهبود یافته است. در وظایف پیچیده عامل‌محور، پیروی از دستورالعمل‌ها هنگام استفاده از ابزارها قوی‌تر شده و زیبایی ظاهری رابط کاربری و کارایی انجام وظایف بلندمدت در Artifacts و برنامه‌نویسی عامل‌محور ارتقا یافته است.",
567
565
  "glm-4.description": "GLM-4 پرچم‌دار قدیمی است که در ژانویه ۲۰۲۴ منتشر شد و اکنون با GLM-4-0520 قوی‌تر جایگزین شده است.",
568
566
  "glm-4v-flash.description": "GLM-4V-Flash بر درک کارآمد تصویر تکی تمرکز دارد و برای سناریوهای تحلیلی سریع مانند پردازش تصویر بلادرنگ یا دسته‌ای مناسب است.",
@@ -654,8 +652,8 @@
654
652
  "gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: نسخه کوچک‌تر و کم‌هزینه‌تر Codex بهینه‌شده برای وظایف برنامه‌نویسی عامل‌محور.",
655
653
  "gpt-5.1-codex.description": "GPT-5.1 Codex: نسخه‌ای از GPT-5.1 بهینه‌شده برای وظایف برنامه‌نویسی عامل‌محور، مناسب برای گردش‌کارهای پیچیده کد/عامل در API پاسخ‌ها.",
656
654
  "gpt-5.1.description": "GPT-5.1 — یک مدل پرچم‌دار بهینه‌شده برای برنامه‌نویسی و وظایف عامل با تلاش استدلال قابل تنظیم و زمینه طولانی‌تر.",
657
- "gpt-5.2-chat-latest.description": "GPT-5.2 Chat نسخه ChatGPT (chat-latest) برای تجربه بهبودهای جدید مکالمه‌ای است.",
658
- "gpt-5.2-pro.description": "GPT-5.2 Pro: نسخه‌ای هوشمندتر و دقیق‌تر از GPT-5.2 (فقط در API پاسخ‌ها)، مناسب برای مسائل دشوار و استدلال چندمرحله‌ای طولانی.",
655
+ "gpt-5.2-chat-latest.description": "GPT-5.2 Chat نسخه ChatGPT برای تجربه آخرین بهبودهای مکالمه‌ای است.",
656
+ "gpt-5.2-pro.description": "GPT-5.2 Pro: نسخه‌ای هوشمندتر و دقیق‌تر از GPT-5.2 (فقط از طریق API پاسخ‌ها)، مناسب برای مسائل دشوار و استدلال چندمرحله‌ای طولانی.",
659
657
  "gpt-5.2.description": "GPT-5.2 یک مدل پرچم‌دار برای گردش‌کارهای برنامه‌نویسی و عامل‌محور با استدلال قوی‌تر و عملکرد بهتر در زمینه‌های طولانی است.",
660
658
  "gpt-5.description": "بهترین مدل برای برنامه‌نویسی میان‌رشته‌ای و وظایف عامل. GPT-5 جهشی در دقت، سرعت، استدلال، آگاهی زمینه‌ای، تفکر ساختاریافته و حل مسئله دارد.",
661
659
  "gpt-audio.description": "GPT Audio یک مدل چت عمومی برای ورودی/خروجی صوتی است که در API تکمیل چت پشتیبانی می‌شود.",
@@ -966,6 +964,9 @@
966
964
  "openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini نسخه‌ای کوچک‌تر و سریع‌تر از GPT-5.1-Codex است که برای سناریوهای کدنویسی حساس به تأخیر و هزینه مناسب‌تر است.",
967
965
  "openai/gpt-5.1-codex.description": "GPT-5.1-Codex نسخه‌ای از GPT-5.1 است که برای مهندسی نرم‌افزار و جریان‌های کاری کدنویسی بهینه شده و برای بازسازی‌های بزرگ، اشکال‌زدایی پیچیده و وظایف خودکار طولانی مناسب است.",
968
966
  "openai/gpt-5.1.description": "GPT-5.1 جدیدترین مدل پرچم‌دار در سری GPT-5 است که بهبودهای قابل‌توجهی در استدلال عمومی، پیروی از دستورالعمل و طبیعی بودن مکالمه نسبت به GPT-5 دارد و برای وظایف گسترده مناسب است.",
967
+ "openai/gpt-5.2-chat.description": "GPT-5.2 Chat نسخه ChatGPT برای تجربه بهبودهای جدید مکالمه‌ای است.",
968
+ "openai/gpt-5.2-pro.description": "GPT-5.2 Pro: نسخه‌ای هوشمندتر و دقیق‌تر از GPT-5.2 (فقط از طریق API پاسخ‌ها)، مناسب برای مسائل دشوار و استدلال چندمرحله‌ای طولانی.",
969
+ "openai/gpt-5.2.description": "GPT-5.2 یک مدل پرچم‌دار برای برنامه‌نویسی و جریان‌های کاری عامل‌محور با استدلال قوی‌تر و عملکرد بهتر در زمینه‌های طولانی است.",
969
970
  "openai/gpt-5.description": "GPT-5 مدل قدرتمند OpenAI برای طیف وسیعی از وظایف تولیدی و پژوهشی است.",
970
971
  "openai/gpt-oss-120b.description": "یک مدل زبانی بزرگ چندمنظوره با قابلیت استدلال قوی و قابل‌کنترل.",
971
972
  "openai/gpt-oss-20b.description": "مدلی جمع‌وجور با وزن‌های باز که برای تأخیر پایین و محیط‌های با منابع محدود، از جمله اجراهای محلی و لبه‌ای بهینه شده است.",
@@ -1139,6 +1140,28 @@
1139
1140
  "stable-diffusion-v1.5.description": "stable-diffusion-v1.5 از نقطه بازیابی v1.2 آغاز شده و به مدت ۵۹۵ هزار مرحله روی مجموعه «laion-aesthetics v2 5+» با وضوح ۵۱۲x۵۱۲ آموزش دیده است. با کاهش ۱۰٪ در شرط‌بندی متنی، نمونه‌گیری بدون طبقه‌بندی را بهبود می‌بخشد.",
1140
1141
  "stable-diffusion-xl-base-1.0.description": "یک مدل متن‌باز تبدیل متن به تصویر از Stability AI با قابلیت‌های خلاقانه پیشرو در صنعت. درک قوی از دستورالعمل‌ها دارد و از تعریف معکوس دستورات برای تولید دقیق پشتیبانی می‌کند.",
1141
1142
  "stable-diffusion-xl.description": "stable-diffusion-xl بهبودهای عمده‌ای نسبت به نسخه v1.5 دارد و با بهترین نتایج متن‌باز تبدیل متن به تصویر برابری می‌کند. بهبودها شامل ستون فقرات UNet سه برابر بزرگ‌تر، ماژول پالایش برای کیفیت بهتر تصویر و تکنیک‌های آموزشی کارآمدتر است.",
1143
+ "step-1-128k.description": "تعادل بین عملکرد و هزینه برای سناریوهای عمومی.",
1144
+ "step-1-256k.description": "پشتیبانی از زمینه‌های بسیار طولانی، ایده‌آل برای تحلیل اسناد بلند.",
1145
+ "step-1-32k.description": "پشتیبانی از مکالمات با طول متوسط برای طیف گسترده‌ای از کاربردها.",
1146
+ "step-1-8k.description": "مدلی کوچک مناسب برای وظایف سبک.",
1147
+ "step-1-flash.description": "مدلی پرسرعت مناسب برای چت بلادرنگ.",
1148
+ "step-1.5v-mini.description": "توانایی قوی در درک ویدیو.",
1149
+ "step-1o-turbo-vision.description": "درک قوی تصویر، عملکرد بهتر از 1o در ریاضی و کدنویسی. کوچکتر از 1o با خروجی سریع‌تر.",
1150
+ "step-1o-vision-32k.description": "درک قوی تصویر با عملکرد بصری بهتر نسبت به سری Step-1V.",
1151
+ "step-1v-32k.description": "پشتیبانی از ورودی‌های تصویری برای تعامل چندوجهی غنی‌تر.",
1152
+ "step-1v-8k.description": "مدل تصویری کوچک برای وظایف پایه تصویر و متن.",
1153
+ "step-1x-edit.description": "این مدل بر ویرایش تصویر تمرکز دارد و تصاویر را بر اساس ورودی‌های کاربر شامل متن و تصویر تغییر و بهبود می‌دهد. از فرمت‌های ورودی مختلف پشتیبانی می‌کند و ویرایش‌هایی مطابق با هدف کاربر تولید می‌کند.",
1154
+ "step-1x-medium.description": "این مدل تولید تصویر قوی با ورودی دستورات متنی ارائه می‌دهد. با پشتیبانی بومی از زبان چینی، توصیف‌های چینی را بهتر درک کرده و به ویژگی‌های بصری دقیق‌تری تبدیل می‌کند. تصاویر با کیفیت بالا و وضوح بالا تولید می‌کند و از انتقال سبک نیز پشتیبانی می‌کند.",
1155
+ "step-2-16k-exp.description": "نسخه آزمایشی Step-2 با ویژگی‌های جدید و به‌روزرسانی‌های پیوسته. برای استفاده در تولید توصیه نمی‌شود.",
1156
+ "step-2-16k.description": "پشتیبانی از تعاملات با زمینه بزرگ برای گفت‌وگوهای پیچیده.",
1157
+ "step-2-mini.description": "ساخته‌شده بر پایه معماری توجه MFA نسل بعدی داخلی، با نتایجی مشابه Step-1 اما با هزینه کمتر، توان عملیاتی بالاتر و تأخیر کمتر. وظایف عمومی را با توانایی قوی در کدنویسی انجام می‌دهد.",
1158
+ "step-2x-large.description": "مدل تصویری نسل جدید StepFun با تمرکز بر تولید تصویر، تولید تصاویر با کیفیت بالا از دستورات متنی. بافت واقعی‌تر و رندر بهتر متون چینی/انگلیسی ارائه می‌دهد.",
1159
+ "step-3.description": "این مدل دارای درک بصری قوی و استدلال پیچیده است و درک دانش میان‌رشته‌ای، تحلیل ریاضی-تصویری و طیف گسترده‌ای از وظایف تحلیل بصری روزمره را با دقت انجام می‌دهد.",
1160
+ "step-r1-v-mini.description": "مدل استدلال با درک قوی تصویر که می‌تواند تصاویر و متون را پردازش کرده و پس از استدلال عمیق، متن تولید کند. در استدلال بصری، ریاضی، کدنویسی و استدلال متنی عملکردی در سطح بالا دارد و از پنجره زمینه ۱۰۰ هزار توکن پشتیبانی می‌کند.",
1161
+ "stepfun-ai/step3.description": "Step3 یک مدل استدلال چندوجهی پیشرفته از StepFun است که بر پایه معماری MoE با ۳۲۱ میلیارد پارامتر کل و ۳۸ میلیارد فعال ساخته شده است. طراحی انتها به انتها هزینه رمزگشایی را کاهش داده و استدلال زبان-تصویر سطح بالا را ارائه می‌دهد. با طراحی MFA و AFD، در شتاب‌دهنده‌های پرچم‌دار و سطح پایین کارآمد باقی می‌ماند. پیش‌آموزش با بیش از ۲۰ تریلیون توکن متنی و ۴ تریلیون توکن تصویر-متن در زبان‌های مختلف انجام شده و در معیارهای ریاضی، کدنویسی و چندوجهی عملکردی پیشرو دارد.",
1162
+ "taichu_llm.description": "آموزش‌دیده بر داده‌های باکیفیت عظیم، با درک متنی قوی‌تر، تولید محتوا و پرسش‌وپاسخ مکالمه‌ای.",
1163
+ "taichu_o1.description": "taichu_o1 یک مدل استدلال نسل جدید است که با تعامل چندوجهی و یادگیری تقویتی، زنجیره تفکر انسانی‌مانند را ایجاد می‌کند، از شبیه‌سازی تصمیم‌گیری پیچیده پشتیبانی کرده و مسیرهای استدلال را در عین حفظ دقت بالا نمایش می‌دهد. مناسب برای تحلیل استراتژی و تفکر عمیق.",
1164
+ "taichu_vl.description": "ترکیبی از درک تصویر، انتقال دانش و استنتاج منطقی، با عملکرد عالی در پرسش‌وپاسخ تصویر-متن.",
1142
1165
  "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct با استفاده از ۸۰ میلیارد پارامتر کلی و ۱۳ میلیارد پارامتر فعال، عملکردی هم‌تراز با مدل‌های بزرگ‌تر ارائه می‌دهد. این مدل از استدلال ترکیبی سریع/کند، درک پایدار متون بلند و توانایی پیشرو در عامل‌ها در آزمون‌های BFCL-v3 و τ-Bench پشتیبانی می‌کند. فرمت‌های GQA و چندکوانتیزه‌سازی، استنتاج کارآمد را ممکن می‌سازند.",
1143
1166
  "tencent/Hunyuan-MT-7B.description": "مدل ترجمه Hunyuan شامل Hunyuan-MT-7B و مدل ترکیبی Hunyuan-MT-Chimera است. Hunyuan-MT-7B یک مدل ترجمه سبک با ۷ میلیارد پارامتر است که از ۳۳ زبان به‌علاوه ۵ زبان اقلیت چینی پشتیبانی می‌کند. در رقابت WMT25، در ۳۰ جفت‌زبان از ۳۱ مورد، رتبه اول را کسب کرد. Hunyuan از یک زنجیره کامل آموزش شامل پیش‌آموزش، SFT، تقویت یادگیری ترجمه و تقویت یادگیری ترکیبی استفاده می‌کند و با عملکردی پیشرو در اندازه خود، به‌راحتی قابل استقرار است.",
1144
1167
  "text-embedding-3-large.description": "قوی‌ترین مدل تعبیه‌سازی برای وظایف انگلیسی و غیرانگلیسی.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
30
30
  "jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
31
31
  "lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
32
- "lobehub.description": "LobeHub Cloud از رابط‌های برنامه‌نویسی رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
33
32
  "minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
34
33
  "mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
35
34
  "modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",
@@ -34,11 +34,20 @@
34
34
  "agentCronJobs.empty.description": "اولین وظیفه زمان‌بندی‌شده خود را برای خودکارسازی عامل ایجاد کنید",
35
35
  "agentCronJobs.empty.title": "هنوز وظیفه زمان‌بندی‌شده‌ای وجود ندارد",
36
36
  "agentCronJobs.enable": "فعال کردن",
37
+ "agentCronJobs.form.at": "در",
37
38
  "agentCronJobs.form.content.placeholder": "دستور یا راهنمایی برای عامل وارد کنید",
39
+ "agentCronJobs.form.every": "هر",
40
+ "agentCronJobs.form.frequency": "تناوب",
41
+ "agentCronJobs.form.hours": "ساعت",
42
+ "agentCronJobs.form.maxExecutions": "توقف پس از",
38
43
  "agentCronJobs.form.maxExecutions.placeholder": "برای نامحدود خالی بگذارید",
39
44
  "agentCronJobs.form.name.placeholder": "نام وظیفه را وارد کنید",
45
+ "agentCronJobs.form.time": "زمان",
40
46
  "agentCronJobs.form.timeRange.end": "زمان پایان",
41
47
  "agentCronJobs.form.timeRange.start": "زمان شروع",
48
+ "agentCronJobs.form.times": "بار",
49
+ "agentCronJobs.form.timezone": "منطقه زمانی",
50
+ "agentCronJobs.form.unlimited": "اجرا به‌صورت مداوم",
42
51
  "agentCronJobs.form.validation.contentRequired": "محتوای وظیفه الزامی است",
43
52
  "agentCronJobs.form.validation.invalidTimeRange": "زمان شروع باید قبل از زمان پایان باشد",
44
53
  "agentCronJobs.form.validation.nameRequired": "نام وظیفه الزامی است",
@@ -83,6 +92,13 @@
83
92
  "agentCronJobs.weekday.tuesday": "سه‌شنبه",
84
93
  "agentCronJobs.weekday.wednesday": "چهارشنبه",
85
94
  "agentCronJobs.weekdays": "روزهای هفته",
95
+ "agentCronJobs.weekdays.fri": "جمعه",
96
+ "agentCronJobs.weekdays.mon": "دوشنبه",
97
+ "agentCronJobs.weekdays.sat": "شنبه",
98
+ "agentCronJobs.weekdays.sun": "یکشنبه",
99
+ "agentCronJobs.weekdays.thu": "پنج‌شنبه",
100
+ "agentCronJobs.weekdays.tue": "سه‌شنبه",
101
+ "agentCronJobs.weekdays.wed": "چهارشنبه",
86
102
  "agentInfoDescription.basic.avatar": "آواتار",
87
103
  "agentInfoDescription.basic.description": "توضیحات",
88
104
  "agentInfoDescription.basic.name": "نام",
@@ -8,6 +8,7 @@
8
8
  "codes.DELETED_ACCOUNT_EMAIL": "Cet e-mail est associé à un compte supprimé et ne peut pas être utilisé pour l'inscription",
9
9
  "codes.EMAIL_CAN_NOT_BE_UPDATED": "L'adresse e-mail ne peut pas être mise à jour pour ce compte",
10
10
  "codes.EMAIL_NOT_ALLOWED": "Adresse e-mail non autorisée pour l'inscription",
11
+ "codes.EMAIL_NOT_FOUND": "Aucune adresse e-mail n’est associée à ce compte. Veuillez vérifier si une adresse e-mail y est liée.",
11
12
  "codes.EMAIL_NOT_VERIFIED": "Veuillez d'abord vérifier votre adresse e-mail",
12
13
  "codes.FAILED_TO_CREATE_SESSION": "Échec de la création de la session",
13
14
  "codes.FAILED_TO_CREATE_USER": "Échec de la création de l'utilisateur",
@@ -90,6 +90,7 @@
90
90
  "Phi-3-small-8k-instruct.description": "Un modèle de 7 milliards de paramètres avec une qualité supérieure à Phi-3-mini, axé sur des données de haute qualité nécessitant un raisonnement poussé.",
91
91
  "Phi-3.5-mini-instruct.description": "Une version mise à jour du modèle Phi-3-mini.",
92
92
  "Phi-3.5-vision-instrust.description": "Une version mise à jour du modèle Phi-3-vision.",
93
+ "Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 est un modèle de langage open source de grande taille, optimisé pour les capacités d’agent. Il excelle en programmation, utilisation d’outils, suivi d’instructions et planification à long terme. Le modèle prend en charge le développement logiciel multilingue et l’exécution de flux de travail complexes en plusieurs étapes, atteignant un score de 74,0 sur SWE-bench Verified et surpassant Claude Sonnet 4.5 dans des scénarios multilingues.",
93
94
  "Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct est un LLM de 7 milliards de paramètres ajusté pour les instructions, de la série Qwen2. Il utilise une architecture Transformer avec SwiGLU, un biais QKV pour l’attention et une attention à requêtes groupées, capable de gérer de grandes entrées. Il excelle en compréhension linguistique, génération, tâches multilingues, codage, mathématiques et raisonnement, surpassant la plupart des modèles open source et rivalisant avec les modèles propriétaires. Il dépasse Qwen1.5-7B-Chat sur plusieurs benchmarks.",
94
95
  "Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct fait partie de la dernière série de LLM d’Alibaba Cloud. Ce modèle de 7 milliards apporte des améliorations notables en codage et mathématiques, prend en charge plus de 29 langues et améliore le suivi des instructions, la compréhension des données structurées et la génération de sorties structurées (notamment en JSON).",
95
96
  "Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct est le dernier LLM d’Alibaba Cloud axé sur le code. Basé sur Qwen2.5 et entraîné sur 5,5T de jetons, il améliore considérablement la génération de code, le raisonnement et la correction, tout en conservant ses forces en mathématiques et en intelligence générale, constituant une base solide pour les agents de codage.",
@@ -271,21 +272,21 @@
271
272
  "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
272
273
  "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
273
274
  "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d'Anthropic, offrant des améliorations globales et surpassant l'ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.",
275
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide dAnthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences globales et dépasse le précédent modèle le plus avancé, Claude 3 Opus, sur de nombreux benchmarks d’intelligence.",
275
276
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent d'Anthropic et le premier modèle hybride de raisonnement sur le marché, capable de fournir des réponses quasi instantanées ou une réflexion approfondie avec un contrôle précis.",
277
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent dAnthropic et le premier modèle de raisonnement hybride sur le marché. Il peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet est particulièrement performant en programmation, science des données, vision et tâches d’agent.",
277
278
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
278
279
  "claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
279
280
  "claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
280
281
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, combinant une vitesse fulgurante et une capacité de réflexion étendue.",
282
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, combinant une vitesse fulgurante et un raisonnement approfondi.",
282
283
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
283
- "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus avancé d'Anthropic pour les tâches complexes, excelling en performance, intelligence, fluidité et compréhension.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
284
+ "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant dAnthropic pour les tâches hautement complexes, se distinguant par ses performances, son intelligence, sa fluidité et sa compréhension.",
285
+ "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant dAnthropic pour les tâches complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
285
286
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
286
287
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d'Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion pas à pas avec un contrôle précis pour les utilisateurs d'API.",
288
- "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d'Anthropic à ce jour.",
288
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
289
+ "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est à ce jour le modèle le plus intelligent dAnthropic.",
289
290
  "codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
290
291
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
291
292
  "codegemma.description": "CodeGemma est un modèle léger pour diverses tâches de programmation, permettant une itération rapide et une intégration facile.",
@@ -351,11 +352,10 @@
351
352
  "deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp est une version expérimentale de V3.2 servant de pont vers la prochaine architecture. Il ajoute DeepSeek Sparse Attention (DSA) au-dessus de V3.1-Terminus pour améliorer l’efficacité de l’entraînement et de l’inférence sur les contextes longs, avec des optimisations pour l’utilisation d’outils, la compréhension de documents longs et le raisonnement multi-étapes. Idéal pour explorer une efficacité de raisonnement accrue avec de grands budgets de contexte.",
352
353
  "deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 est un modèle MoE de 671 milliards de paramètres utilisant MLA et DeepSeekMoE avec un équilibrage de charge sans perte pour un entraînement et une inférence efficaces. Préentraîné sur 14,8T de tokens de haute qualité avec SFT et RL, il surpasse les autres modèles open source et rivalise avec les modèles fermés de pointe.",
353
354
  "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) est un modèle innovant offrant une compréhension linguistique approfondie et une interaction fluide.",
354
- "deepseek-ai/deepseek-r1.description": "Un modèle LLM efficace de pointe, performant en raisonnement, mathématiques et programmation.",
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
358
- "deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d'agents. Il atteint des performances comparables à GPT-5 sur les benchmarks publics et est le premier à intégrer la réflexion dans l'utilisation d'outils, se classant en tête des évaluations open source pour agents.",
358
+ "deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et les solides compétences en programmation du modèle de codeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
379
379
  "deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement avancé qui génère une chaîne de pensée avant la réponse pour une précision accrue, avec des résultats compétitifs et un raisonnement comparable à Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Le mode de raisonnement DeepSeek V3.2 produit une chaîne de pensée avant la réponse finale pour améliorer la précision.",
382
382
  "deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
@@ -472,8 +472,7 @@
472
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K est un modèle ultra-léger pour la QA simple, la classification et l’inférence à faible coût.",
473
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
474
474
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.",
475
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, développé par l'équipe Seed de ByteDance, prend en charge l'édition et la composition multi-images. Il offre une meilleure cohérence des sujets, un suivi précis des instructions, une compréhension de la logique spatiale, une expression esthétique, une mise en page d'affiches et une conception de logos avec un rendu texte-image de haute précision.",
476
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d'images de haute qualité et hautement contrôlable à partir d'invites.",
475
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 est un modèle de génération d’images développé par ByteDance Seed, prenant en charge les entrées texte et image pour une génération d’images de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.",
477
476
  "fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur l’édition d’images, prenant en charge les entrées texte et image.",
478
477
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
479
478
  "fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération d’images avec une préférence esthétique pour des images plus réalistes et naturelles.",
@@ -481,8 +480,8 @@
481
480
  "fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération d’images.",
482
481
  "fal-ai/imagen4/preview.description": "Modèle de génération d’images de haute qualité développé par Google.",
483
482
  "fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images via la conversation.",
484
- "fal-ai/qwen-image-edit.description": "Un modèle d'édition d'image professionnel de l'équipe Qwen, prenant en charge les modifications sémantiques et d'apparence, l'édition précise de texte en chinois/anglais, le transfert de style, la rotation, et plus encore.",
485
- "fal-ai/qwen-image.description": "Un puissant modèle de génération d'images de l'équipe Qwen, avec un excellent rendu du texte chinois et une grande diversité de styles visuels.",
483
+ "fal-ai/qwen-image-edit.description": "Un modèle professionnel d’édition d’images de l’équipe Qwen, prenant en charge les modifications sémantiques et visuelles, l’édition précise de texte en chinois et en anglais, ainsi que des retouches de haute qualité comme le transfert de style et la rotation d’objets.",
484
+ "fal-ai/qwen-image.description": "Un puissant modèle de génération dimages de l’équipe Qwen, offrant un rendu impressionnant du texte chinois et une grande diversité de styles visuels.",
486
485
  "flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
487
486
  "flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité d’image proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
488
487
  "flux-kontext-max.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
@@ -514,8 +513,6 @@
514
513
  "gemini-2.0-flash-lite-001.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.",
515
514
  "gemini-2.0-flash-lite.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.",
516
515
  "gemini-2.0-flash.description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, l’utilisation native d’outils, la génération multimodale et une fenêtre de contexte de 1 million de jetons.",
517
- "gemini-2.5-flash-image-preview.description": "Nano Banana est le modèle multimodal natif le plus récent, rapide et efficace de Google, permettant la génération et l'édition d'images en conversation.",
518
- "gemini-2.5-flash-image-preview:image.description": "Nano Banana est le modèle multimodal natif le plus récent, rapide et efficace de Google, permettant la génération et l'édition d'images en conversation.",
519
516
  "gemini-2.5-flash-image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
520
517
  "gemini-2.5-flash-image:image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
521
518
  "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview est le plus petit modèle de Google, offrant le meilleur rapport qualité-prix, conçu pour une utilisation à grande échelle.",
@@ -530,7 +527,7 @@
530
527
  "gemini-2.5-pro.description": "Gemini 2.5 Pro est le modèle de raisonnement phare de Google, avec un support de long contexte pour les tâches complexes.",
531
528
  "gemini-3-flash-preview.description": "Gemini 3 Flash est le modèle le plus intelligent conçu pour la vitesse, alliant intelligence de pointe et ancrage de recherche performant.",
532
529
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d’images de Google, prenant également en charge les dialogues multimodaux.",
533
- "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'images de Google, prenant également en charge le chat multimodal.",
530
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération dimages de Google, prenant également en charge le chat multimodal.",
534
531
  "gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle agent et de codage le plus puissant de Google, offrant des visuels enrichis et une interaction plus poussée grâce à un raisonnement de pointe.",
535
532
  "gemini-flash-latest.description": "Dernière version de Gemini Flash",
536
533
  "gemini-flash-lite-latest.description": "Dernière version de Gemini Flash-Lite",
@@ -543,7 +540,7 @@
543
540
  "generalv3.5.description": "Spark Max est la version la plus complète, prenant en charge la recherche web et de nombreux plugins intégrés. Ses capacités de base entièrement optimisées, ses rôles système et ses appels de fonctions offrent d'excellentes performances dans des scénarios d'application complexes.",
544
541
  "generalv3.description": "Spark Pro est un modèle LLM haute performance optimisé pour les domaines professionnels, axé sur les mathématiques, la programmation, la santé et l'éducation, avec recherche web et plugins intégrés comme la météo et la date. Il offre de solides performances et une grande efficacité dans les questions-réponses complexes, la compréhension du langage et la création de texte avancée, en faisant un choix idéal pour les cas d’usage professionnels.",
545
542
  "glm-4-0520.description": "GLM-4-0520 est la dernière version du modèle, conçu pour des tâches très complexes et variées avec d'excellentes performances.",
546
- "glm-4-32b-0414.description": "GLM-4 32B 0414 est un modèle GLM généraliste prenant en charge la génération et la compréhension de texte multitâche.",
543
+ "glm-4-7.description": "GLM-4.7 est le modèle phare le plus récent de Zhipu AI. Il améliore les capacités de codage, la planification de tâches à long terme et la collaboration avec des outils pour les scénarios de codage agentique, atteignant des performances de pointe parmi les modèles open source sur de nombreux benchmarks publics. Ses capacités générales sont renforcées, avec des réponses plus concises et naturelles, et une écriture plus immersive. Dans les tâches complexes d’agent, le suivi des instructions est renforcé lors des appels d’outils, et l’esthétique des interfaces Artifacts et Agentic Coding, ainsi que l’efficacité d’exécution des tâches à long terme, sont améliorées.",
547
544
  "glm-4-9b-chat.description": "GLM-4-9B-Chat excelle en sémantique, mathématiques, raisonnement, code et connaissances. Il prend également en charge la navigation web, l'exécution de code, l'appel d'outils personnalisés et le raisonnement sur de longs textes, avec prise en charge de 26 langues dont le japonais, le coréen et l'allemand.",
548
545
  "glm-4-air-250414.description": "GLM-4-Air est une option à forte valeur ajoutée avec des performances proches de GLM-4, une vitesse rapide et un coût réduit.",
549
546
  "glm-4-air.description": "GLM-4-Air est une option à forte valeur ajoutée avec des performances proches de GLM-4, une vitesse rapide et un coût réduit.",
@@ -558,11 +555,12 @@
558
555
  "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking est le plus puissant VLM connu (~10B), couvrant des tâches SOTA telles que la compréhension vidéo, les questions-réponses sur images, la résolution de problèmes, l'OCR, la lecture de documents et de graphiques, les agents GUI, le codage frontend et l’ancrage. Il surpasse même le Qwen2.5-VL-72B, 8 fois plus grand, sur de nombreuses tâches. Grâce à l’apprentissage par renforcement avancé, il utilise un raisonnement en chaîne pour améliorer la précision et la richesse, surpassant les modèles traditionnels non pensants en résultats et en explicabilité.",
559
556
  "glm-4.5-air.description": "Édition légère de GLM-4.5 qui équilibre performance et coût, avec des modes de pensée hybrides flexibles.",
560
557
  "glm-4.5-airx.description": "Édition rapide de GLM-4.5-Air avec des réponses plus rapides pour une utilisation à grande échelle et à haute vitesse.",
561
- "glm-4.5-flash.description": "Niveau gratuit de GLM-4.5 avec de solides performances en raisonnement, codage et tâches d’agent.",
562
558
  "glm-4.5-x.description": "Édition rapide de GLM-4.5, offrant de solides performances avec des vitesses de génération allant jusqu'à 100 tokens/sec.",
563
559
  "glm-4.5.description": "Modèle phare de Zhipu avec un mode de pensée commutable, offrant un SOTA open-source global et jusqu'à 128K de contexte.",
564
560
  "glm-4.5v.description": "Modèle de raisonnement visuel de nouvelle génération de Zhipu basé sur MoE, avec 106B de paramètres totaux et 12B actifs, atteignant un SOTA parmi les modèles multimodaux open-source de taille similaire sur les tâches d’image, vidéo, documents et GUI.",
565
561
  "glm-4.6.description": "GLM-4.6 (355B), le dernier modèle phare de Zhipu, surpasse entièrement ses prédécesseurs en codage avancé, traitement de longs textes, raisonnement et capacités d’agent. Il rivalise notamment avec Claude Sonnet 4 en programmation, devenant ainsi le meilleur modèle de codage en Chine.",
562
+ "glm-4.7-flash.description": "GLM-4.7-Flash, en tant que modèle SOTA de niveau 30B, offre un nouvel équilibre entre performance et efficacité. Il améliore les capacités de codage, la planification de tâches à long terme et la collaboration avec des outils pour les scénarios de codage agentique, atteignant des performances de pointe parmi les modèles open source de même taille sur plusieurs classements de référence actuels. Lors de l’exécution de tâches complexes d’agent intelligent, il suit mieux les instructions lors des appels d’outils et améliore l’esthétique du front-end ainsi que l’efficacité d’exécution des tâches à long terme pour Artifacts et Agentic Coding.",
563
+ "glm-4.7-flashx.description": "GLM-4.7-Flash, en tant que modèle SOTA de niveau 30B, offre un nouvel équilibre entre performance et efficacité. Il améliore les capacités de codage, la planification de tâches à long terme et la collaboration avec des outils pour les scénarios de codage agentique, atteignant des performances de pointe parmi les modèles open source de même taille sur plusieurs classements de référence actuels. Lors de l’exécution de tâches complexes d’agent intelligent, il suit mieux les instructions lors des appels d’outils et améliore l’esthétique du front-end ainsi que l’efficacité d’exécution des tâches à long terme pour Artifacts et Agentic Coding.",
566
564
  "glm-4.7.description": "GLM-4.7 est le dernier modèle phare de Zhipu, optimisé pour les scénarios de codage agentique avec des capacités de programmation améliorées, une planification de tâches à long terme et une meilleure collaboration avec les outils. Il atteint des performances de pointe parmi les modèles open source sur de nombreux benchmarks publics. Ses capacités générales sont renforcées avec des réponses plus concises et naturelles, ainsi qu’une écriture plus immersive. Pour les tâches complexes d’agent, le suivi des instructions lors des appels d’outils est plus robuste, et l’esthétique du frontend ainsi que l’efficacité d’exécution à long terme dans les environnements Artifacts et Agentic Coding sont également améliorées.",
567
565
  "glm-4.description": "GLM-4 est l’ancien modèle phare sorti en janvier 2024, désormais remplacé par le plus performant GLM-4-0520.",
568
566
  "glm-4v-flash.description": "GLM-4V-Flash se concentre sur la compréhension efficace d’une seule image pour des scénarios d’analyse rapide comme le traitement d’images en temps réel ou par lot.",
@@ -654,8 +652,8 @@
654
652
  "gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini : une variante Codex plus petite et économique, optimisée pour les tâches de codage agentique.",
655
653
  "gpt-5.1-codex.description": "GPT-5.1 Codex : une variante de GPT-5.1 optimisée pour les flux de travail complexes de codage/agents dans l’API Responses.",
656
654
  "gpt-5.1.description": "GPT-5.1 — un modèle phare optimisé pour le codage et les tâches d’agents, avec un effort de raisonnement configurable et un contexte étendu.",
657
- "gpt-5.2-chat-latest.description": "GPT-5.2 Chat est la variante ChatGPT (chat-latest) pour découvrir les dernières améliorations conversationnelles.",
658
- "gpt-5.2-pro.description": "GPT-5.2 Pro : une variante plus intelligente et plus précise de GPT-5.2 (uniquement via l’API Responses), adaptée aux problèmes complexes et au raisonnement multi-tours prolongé.",
655
+ "gpt-5.2-chat-latest.description": "GPT-5.2 Chat est la variante ChatGPT (chat-latest) intégrant les dernières améliorations conversationnelles.",
656
+ "gpt-5.2-pro.description": "GPT-5.2 Pro : une variante GPT-5.2 plus intelligente et plus précise (uniquement via l’API Responses), adaptée aux problèmes complexes et au raisonnement multi-tours prolongé.",
659
657
  "gpt-5.2.description": "GPT-5.2 est un modèle phare pour les flux de travail de codage et d’agents, avec un raisonnement renforcé et des performances sur de longs contextes.",
660
658
  "gpt-5.description": "Le meilleur modèle pour le codage inter-domaines et les tâches d’agents. GPT-5 marque un bond en précision, vitesse, raisonnement, compréhension du contexte, pensée structurée et résolution de problèmes.",
661
659
  "gpt-audio.description": "GPT Audio est un modèle de chat général prenant en charge les entrées/sorties audio, disponible via l’API Chat Completions.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
30
30
  "jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
31
31
  "lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
32
- "lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de crédits liés aux jetons des modèles.",
33
32
  "minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
34
33
  "mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
35
34
  "modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
@@ -34,11 +34,20 @@
34
34
  "agentCronJobs.empty.description": "Créez votre première tâche planifiée pour automatiser votre agent",
35
35
  "agentCronJobs.empty.title": "Aucune tâche planifiée pour le moment",
36
36
  "agentCronJobs.enable": "Activer",
37
+ "agentCronJobs.form.at": "à",
37
38
  "agentCronJobs.form.content.placeholder": "Saisissez l'invite ou l'instruction pour l'agent",
39
+ "agentCronJobs.form.every": "Chaque",
40
+ "agentCronJobs.form.frequency": "Fréquence",
41
+ "agentCronJobs.form.hours": "heure(s)",
42
+ "agentCronJobs.form.maxExecutions": "Arrêter après",
38
43
  "agentCronJobs.form.maxExecutions.placeholder": "Laisser vide pour illimité",
39
44
  "agentCronJobs.form.name.placeholder": "Saisissez le nom de la tâche",
45
+ "agentCronJobs.form.time": "Heure",
40
46
  "agentCronJobs.form.timeRange.end": "Heure de fin",
41
47
  "agentCronJobs.form.timeRange.start": "Heure de début",
48
+ "agentCronJobs.form.times": "fois",
49
+ "agentCronJobs.form.timezone": "Fuseau horaire",
50
+ "agentCronJobs.form.unlimited": "Exécuter en continu",
42
51
  "agentCronJobs.form.validation.contentRequired": "Le contenu de la tâche est requis",
43
52
  "agentCronJobs.form.validation.invalidTimeRange": "L'heure de début doit être antérieure à l'heure de fin",
44
53
  "agentCronJobs.form.validation.nameRequired": "Le nom de la tâche est requis",
@@ -83,6 +92,13 @@
83
92
  "agentCronJobs.weekday.tuesday": "Mardi",
84
93
  "agentCronJobs.weekday.wednesday": "Mercredi",
85
94
  "agentCronJobs.weekdays": "Jours de la semaine",
95
+ "agentCronJobs.weekdays.fri": "Ven",
96
+ "agentCronJobs.weekdays.mon": "Lun",
97
+ "agentCronJobs.weekdays.sat": "Sam",
98
+ "agentCronJobs.weekdays.sun": "Dim",
99
+ "agentCronJobs.weekdays.thu": "Jeu",
100
+ "agentCronJobs.weekdays.tue": "Mar",
101
+ "agentCronJobs.weekdays.wed": "Mer",
86
102
  "agentInfoDescription.basic.avatar": "Avatar",
87
103
  "agentInfoDescription.basic.description": "Description",
88
104
  "agentInfoDescription.basic.name": "Nom",
@@ -8,6 +8,7 @@
8
8
  "codes.DELETED_ACCOUNT_EMAIL": "Questa email è associata a un account eliminato e non può essere utilizzata per la registrazione",
9
9
  "codes.EMAIL_CAN_NOT_BE_UPDATED": "L'email non può essere aggiornata per questo account",
10
10
  "codes.EMAIL_NOT_ALLOWED": "Email non consentita per la registrazione",
11
+ "codes.EMAIL_NOT_FOUND": "Nessuna email associata a questo account. Verifica se al tuo account è collegata un'email.",
11
12
  "codes.EMAIL_NOT_VERIFIED": "Verifica prima la tua email",
12
13
  "codes.FAILED_TO_CREATE_SESSION": "Creazione della sessione non riuscita",
13
14
  "codes.FAILED_TO_CREATE_USER": "Creazione dell'utente non riuscita",